王丽丽 桂婷
摘要:人工智能是一把双刃剑,在推动人类社会发展的同时,也带来了多重潜在风险。如何保证人工智能技术安全、可靠、可控引发广泛讨论。目前,美国、英国等均已逐步开展人工智能治理实践,以规避技术发展带来的风险。关于人工智能这一类新兴科技的发展,我国一直是采取鼓励与监管并行的道路,并且在近年来越发重视新兴科技监管方面的建设。文章梳理了欧美国家有代表性的举措,总结了人工智能治理的最新实践做法,为我国制定政策提供参考。
关键词:人工智能;监管;风险;政策建议
中图分类号:TP18 文献标识码:A
文章编号:1009-3044(2024)05-0018-03
科技的发展已经让人工智能从科幻走入现实。近年来,人工智能已深入影响人们的生活,在诸多领域获得广泛应用。2022年11月推出的ChatGPT更是让生成式人工智能炙手可热。同时,与人工智能相关的网络安全、数据安全、虚假信息等负面消息也始终伴随其发展,展示出一些令人担忧的趋势,围绕如何对人工智能进行监管的讨论不断。本文通过研究目前国内外关于人工智能监管的策略和措施,为我国下一步促进人工智能健康发展提供政策建议。
1 人工智能发展存在多重潜在风险
1) 人工智能带来的网络攻击和信息泄露易引发犯罪或威胁国家安全。人工智能是一把双刃剑。目前,全球范围内,已有多项研究显示,随着人工智能的普及,勒索软件攻击增加了一倍。人工智能可能会被滥用于网络钓鱼、虚假信息和网络犯罪,造成个人信息泄露、被篡改或被滥用,导致社会资源浪费或国家安全受损等后果。例如,现实生活中,不少不法分子利用网络平台进行各种“换脸”诈骗;恶意伪造视频、图片和文本等信息,向公众传播虚假信息,破坏社会的稳定和政治的安全;采用AI技术,将勒索软件转化为武器化工具,以更有效地策划针对国防、城市、公共交通、医院、商业等相关领域的攻击行动。
2) 人工智能或对就业造成冲击,其算法偏见或加剧社会不公。“人工智能是否会导致大规模的失业”一直是互联网上的热门话题。毫无疑问,人工智能会导致大量的自动化,一定会取代一些低技能、低附加值的工作。律师、会计师等部分需要高度专业知识的工作,也可能被机器人所取代。人工智能正在挑战社会就业结构,人们抑或会进入一个技术性失业率不断上升的时代,社会压力和不安定感可能会进一步加剧。同时,由算法所引发的偏见和歧视还将影响人工智能判断的公平性,可能会导致社会不公平现象的加剧,增加社会紧张和不稳定的风险。例如,在就业、教育和医疗等领域,机器学习算法可能会根据用户的性别、种族、宗教或社会地位等因素进行不公正的推荐,从而加剧社会的不稳定[1]。
3) 人工智能开发或危及人类“文明控制权”。2023年3月,马斯克和人工智能领域顶尖专家约书亚·本吉奥等千名大佬在一封公开信上签名,呼吁立即停止开发比GPT-4更强大的人工智能系统,认为AI 对人类和社会构成多重风险,并抛出疑问:“我们是否应该发展最终可能在数量上超过我们、在智能上超越我们、能够淘汰并取代我们的非人类思维?”[2]这一事件再次将人工智能是否会威胁人类的话题抛到大众跟前。新兴科技正在重塑人类的社会秩序和伦理规范,不道德地使用人工智能,是否会导致人工智能取代人的功能,甚至取代人的主体地位,成为人工智能发展必须考虑的问题。同时,如果某个国家或国际组织独占一些关键的技术、数据和算法,就可能占据全球智能产业的主导地位,从而影响全球文明的走向和人类的未来。
2 国内外关于人工智能监管的策略和措施
有关人工智能的监管问题讨論已久。面对迅猛发展的人工智能技术,美国、英国等皆有监管行动。斯坦福大学在发布的一份报告中提到,通过对127个国家的立法记录进行调查可以发现,2016年到2022 年,通过立法的与“人工智能”相关的法案,从仅1个增长到37个[3]。下面就目前推行的有关人工智能监管的策略和措施进行梳理汇总。
2.1 国际上关于人工智能监管的策略和措施
1) 联合国。当地时间2023年6月12日,联合国秘书长古特雷斯表示,支持人工智能行业一些高管的提议,即成立一个像国际原子能机构的国际人工智能监管机构。当地时间2023年7月18日,联合国安理会在美国纽约首次就人工智能与安全问题举行高级别公开会。联合国秘书长古特雷斯表示,联合国计划9 月任命一个人工智能顾问委员会,监管人工智能发展,为联合国可能采取的行动做准备[4]。同时,2023年7月,联合国教科文组织发布了《生成式人工智能与教育的未来》的报告,对生成式AI带来的影响进行了批判性反思,呼吁加强对生成式人工智能的审查和监管,以确保生成式人工智能与教育的融合符合教育目标和人类价值观。
2) 美国。2020年3月,《国家人工智能倡议法》提出应警惕具有自主意识或者不受控制的AI,建立可信赖的AI系统。2021年1月,美国正式颁布《2020年国家人工智能倡议法案》,设立国家人工智能倡议办公室,承担“监督和实施美国国家人工智能战略”等职责。2022年10月,白宫科学和技术政策办公室发布了《人工智能权利法案蓝图》,其中列举了算法歧视保护措施。2023年1月,美国NIST(国家标准与技术研究院)实施了《人工智能风险管理框架1.0》,目的是为相关机构设计和管理可信赖的人工智能提供一个管理框架,从而避免产生负面后果。2023年4月11日,美国商务部针对ChatGPT等技术的问责措施正式地公开广泛征求意见,包括是否应在人工智能模型发布前进行核准认证程序。2023年5月,美国国家科学基金会称拟拨款1.4亿美元,为7所国家人工智能研究院的启动提供资金。2023年5月16日,在美国参议院隐私、技术和法律小组委员会听证会上,美国国会成员公开支持成立一个新的联邦机构,专门负责人工智能的监管和许可。美国虽然尚未颁布专门针对AI监管的全国性法律,然而,一些州开始在AI领域推出相关立法。据美国媒体报道,仅2023年就至少有25个州、波多黎各和哥伦比亚特区推出了人工智能法案。得克萨斯州、北达科他州、西弗吉尼亚州和波多黎各的立法机构成立了咨询机构来研究和监控各自国家机构正在使用的人工智能系统,而路易斯安那州则成立了一个新技术和网络安全委员会来研究人工智能对国家运营、采购和政策的影响。
3) 欧盟。从之前发布的《塑造欧洲数字未来》到《人工智能白皮书》、GDPR、《数字服务法案》《数字市场法案》等看出,欧盟在数字领域和人工智能领域一直走在前列,而且整体推进力度也较强。早在2021年4 月21 日,欧盟委员会就提出了《人工智能法案(AIAct) 》的监管法案,旨在为人工智能引入一个共同的监管和法律框架。2023年6月14日,欧洲议会投票通过了《人工智能法案》,禁止实时面部识别,并对Chat?GPT等生成式人工智能工具提出了新的透明度要求。欧盟批准的法律版本提出,任何应用于就业、边境管制和教育等“高风险”用例的人工智能都必须遵守一系列安全要求,包括风险评估、确保透明度和提交日志记录。该法案不会自动将ChatGPT等“通用”AI视为高风险,但对“基础模型”或经过大量数据训练的强大AI系统施加了透明度和风险评估要求。法案预计将在今年年底获得最终批准,随后是企业和组织适应的宽限期,通常约为两年。
4) 英国。2023年3月底,英国发布了名为《支持创新的人工智能监管方式》的政策文件,为人工智能发展提出意见。该份文件提出了人工智能在所有经济部门的发展和使用需遵守的五项原则:安全性和稳健性、透明度和可解释性、公平性、问责制和管理、可竞争性和补救性。为达到风险评估一致性,英国政府计划汇集来自行业、监管机构、学术界和民间社会的前沿专家,在监管机构的协助下组建中央风险职能部门。5月4日,英国竞争和市场管理机构宣布,将对人工智能市場展开审查,涉及ChatGPT 等工具背后的技术。
5) 其他国家。意大利的个人数据保护机构2023 年3月31日宣布,禁止使用ChatGPT,限制其开发公司使用和处理意大利用户的信息,并对此进行立案调查。随后,法国国家信息自由委员会(CNIL) 以及西班牙数据保护机构也决定对ChatGPT立案并展开调查。4月12日,澳大利亚工业、科学、能源和资源部一名发言人表示,堪培拉政府要求澳大利亚主要科学咨询机构提供关于如何应对人工智能的建议。5月9日,日本首相岸田文雄透露,拟设置磋商制定利用AI相关规则等的“AI战略会议”。
2.2 我国目前关于人工智能监管的策略和措施
关于人工智能这一类新兴科技的发展,我国一直是采取鼓励与监管并行的道路,并且在近年来越发重视新兴科技监管方面的建设。
2022年3月,中国开始实施对算法推荐的管理规定,对网络服务平台运用大数据分析用户喜好、向用户推送、精选、过滤信息的过程进行监管。2023年1 月10日,中国开始实施与深度伪造相关的管理措施,要求服务提供商对那些“可能导致公众混淆或者误认的”AI生成内容进行“显著标识”。2023年4月,科技部针对《科技伦理审查办法(试行)》进行公开征求意见,人工智能等科技的伦理审查制度初具雏形。2023 年8月15日,我国实施了《生成式人工智能服务管理暂行办法》,成为首份监管生成式AI的规范性文件,帮助我国人工智能产业监管实现“弯道超车”。
地方层面,北京、深圳、成都等多地纷纷出台人工智能相关举措,希望赢在起跑线上。《深圳市加快推动人工智能高质量发展水平应用行动方案(2023—2024 年)》《成都市进一步促进人工智能产业高质量发展的若干政策措施(征求意见稿)》《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023—2025年)》《上海市促进人工智能产业发展条例》等纷纷为人工智能的发展提供了政策指引[5]。
3 下一步做好监管和促进健康发展的政策建议
目前美国、英国、欧盟等的技术发达地区在人工智能监管上还未达成非常有效的、一致性的意见。纵观全球人工智能监管政策,我国的政策落实较快,措施比较到位。下一步,要从政策上多措并举做好人工智能的监管,促进其健康发展。
1) 充实监管内容,创新监管手段,细化监管体系。人工智能的监管内涵丰富,监管范围、监管方式、监管标准、数据隐私保护、安全风险防范等内容皆应纳入监管考虑。在此基础上,应不断创新监管手段,例如检测虚假信息的技术等,尽早在技术手段方面进行布局。在监管细化上,比如构建人工智能监管分行业、分场景、分应用、分平台、分技术的区别化监管体系,兼顾各方权利与责任。
2) 采用包容审慎的软性法律,为人工智能提供灵活的配套监管举措。需要遵循包容审慎的理念,实现精准监管和鼓励发展的开放性思路。同时依靠监管之外的多元化措施,如标准、指南、试点等,来共同促进我国的技术创新和产业发展。通过差异化的技术标准与规范,应用设计的安全默认原则、系统测试方案的评估与审核等,为人工智能应用的发展提供更灵活的配套监管举措。
3) 必须切实加强国际合作,积极推动国际人工智能标准设定。除了面向国内的政策举措,欧美也在积极建立相关的国际联盟、“数据俱乐部”等,希冀主导数据流动、数字税收以及AI技术、伦理、治理等方面的国际标准。作为人工智能大国的中国,我国也应考虑积极投身人工智能领域的国际治理合作与标准制定,重视AI伦理,加强AI治理,积极倡导人工智能发展理念,从而进一步提升科技竞争力和规则话语权。
4 总结
人工智能发展迅速,如何对其进行有效监管也一直备受世界瞩目。我国应密切关注国际监管动向,取长补短、因地制宜,用好“他山之石”,走出属于中国的特色监管道路。
参考文献:
[1] 陈龙,曾凯,李莎,等.人工智能算法偏见与健康不公平的成因与对策分析[J].中国全科医学,2023,26(19):2423-2427.
[2] 周驰.马斯克等千人签署公开信,人工智能开发危及“文明控制权”?[N/OL]. 中国新闻网,2023-03-30.[2023-08-16].https://baijiahao.baidu.com/s?id=1761720385220967465&wfr=spider&for=pc.
[3] 斯坦福大学以人为本人工智能研究所.2023年人工智能指数报告[R/OL].(2023-04-03).[2023-08-16].https://www.sen?sorexpert.com.cn/article/186064.html.
[4] 南博一,刘炜康,等.联合国敦促对人工智能实施监管:担忧技术发展威胁世界和平[N/OL]. 澎湃新闻网,2023-07-19.[2023-08-16]. https://baijiahao. baidu. com/s? id=1771819994007179064&wfr=spider&for=pc.
[5] 苏德悦.人工智能产业健康发展路在何方?[N].人民邮电报,2023-08-08(6).
【通联编辑:代影】