□段家欣 赵瑜
近年来人工智能在深度学习、人机协同等关键领域呈现出蓬勃的发展态势,但其“黑箱”特性也为人类权益、社会公平和国际格局带来了风险和挑战。为此,世界各地的监管机构持续致力于人工智能系统的规范使用,仅在2021-2022年就起草、讨论、通过、发布和生效了大量法律法规、原则性文件与行政命令。为描述近期人工智能在全球范围内的治理情况,笔者采用系统综述的方法,首先通过网页汇总清单获取治理文本,其次核对现有报告与研究中整理的文献清单,最后利用谷歌搜索以“AI governance”“AI principles”和与之对应的中文为关键词。检索以2021年1月1日为起始时间,对所得的前五十条链接进行人工访问和筛选,每一步均进行了核查与去重,共计获得120份全球权威机构发布的人工智能治理文本。总体而言,2021-2022新发布的文本呈现出“刚柔并济”的特点,“软法”与“硬法”兼有,还具有显著的全球性与多元性。
治理原则往往来源于伦理争议。在人工智能的发展进程中,平台算法规制、个人信息保护和劳动用工规范已然成为三个不可忽视的重要议题。2021-2022年新发布的治理文本围绕以上议题出台了大量法律法规与倡议指南,虽然不同文本的监管效力和措施方法不同,但无论是从发文数量还是从文本影响力来看,这三个议题均已成为当下人工智能的监管重点。
平台责任和算法规制。算法是网络平台个性化推送服务的核心,也是人工智能应用场景的基础,但长期以来,网络平台的责任视野始终局限于事故发生后的问责与赔偿,未能建立涵盖人工智能全信息周期的责任框架与算法规制。这一现象在2021年得到改善,在全球范围内出现了许多有关平台责任和算法规制的规范性文本,它们以“向善”和“以人为本”为出发点,表现出两大特点。首先,平台在算法规制中的主体权责得以明确。《欧盟人工智能法案》从“风险等级划分”的角度明确企业在使用各类算法时应承担的不同权责,我国市场监督管理总局组织起草的《互联网平台分类分级指南(征求意见稿)》和《互联网平台落实主体责任指南(征求意见稿)》也于2021年年末开始向社会征求意见,有望通过合理划分平台等级,推动超大型平台承担更多责任与义务,形成更为细致合理的平台责任规范。其次,政府监管算法治理的力度逐渐加大,不再仅作原则性的指导,而是通过出台和生效标准性文件促使算法治理在全球范围内落地实施。如英国中央数字办公室等机构在2021年11月发布算法透明度标准,涵盖了数据要求、透明度模板和行动指南等内容,为政府部门和公共机构利用算法进行决策提供支持。政府对于算法安全的监管也不再局限于文本规制,而是启用行政监管的力量打击违规行为。这一趋势在中央网信办牵头开展的“清朗·2022年算法综合治理”专项行动中得以凸显。从2022年4月开始,相关部门将对各大网站、平台与产品的算法安全能力展开评估,以期推动算法治理的规范化发展。
信息保护与数据使用。2021年在信息保护与数据使用领域新出台的治理规范在国内外表现出不同的趋势。在我国,2021年是相关法律落地实施的关键一年。这年9月起生效的《数据安全法》明确了主管机构的监管职责,要求建立数据安全协同治理体系,切实提高数据安全保障能力,促进数据出境安全和开发使用。同年11月起实施的《个人信息保护法》为个人信息的合法使用确立了“是否匿名”的边界,相比欧盟和美国加州的数据隐私法律,《个人信息保护法》仅对个人信息用于人力监管的正当性予以认可,具有最为严格的合法性基础。在西方国家,规制数据信息的安全使用已有较长的历史,因此在2021年更多关注特定技术的伦理隐忧,尤其是具有高度侵入性(invasive)的生物识别技术对于个人隐私的侵犯。欧洲数据保护委员会和数据保护监督局于2021年6月发布联合声明,呼吁全面禁止人工智能自动识别技术在公共空间中的使用,美国国会中也有议员提出法案,要求在政府资助的公共住房中禁止人脸识别技术的使用,但弗吉尼亚州摇摆的行政命令却凸显了这一严格监管背后的博弈。该州曾于2021年发布“禁止执法部门使用人脸识别技术”的命令,但在禁令生效八个月后,立法者又重新允许人脸识别技术用于识别犯人和获取证据。相比之下,我国并未对人脸识别采取一刀切的治理方式,而是将其归类为敏感信息获取,要求在征得个人同意的基础上,以最小化原则进行信息的获取和使用。2021年8月起正式实施的《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》也对涉及侵犯信息主体权利的情形、场景和救济方式进行了详细规定,有利于人脸识别技术持续发挥良性作用。
智能技术与人类劳动。人工智能技术应用于劳动用工领域产生的伦理问题近年来也受到了社会的广泛关注。继“困在算法中的外卖骑手”,被AI监工的亚马逊物流人员,俄罗斯在线支付服务公司Xsolla的150名员工也在算法的介入下因“不敬业且效率低下”被公司解雇。在智能技术的协助下,公司对劳动者的控制更为全面精确,在资源调度和利益分配中占据绝对优势地位,甚至无需雇佣管理团队即可构建稳定的组织形态,而受雇佣的劳动者不仅将与劳动产品、劳动过程和自身的劳动本质相异化,还将成为原子化的个体,失去与雇佣者抗衡的能力。因此,人工智能在提高工作效率的同时,也使人们逐步陷入了劳动内卷的局面,主体价值贬损、劳动目标异化的问题也日益凸现了出来。
这一现象引发了国内外监管机构的关注,美国对外关系委员会发文直指机器人时代的“幽灵工作”问题。当前人工智能系统的运行仍依赖大量数据标注、训练算法的工作者,由此催生出的隐形临时劳工市场尚未得到关注和规范。文章呼唤建立一种适用于人工智能时代的社会契约,规范劳工市场,保护劳动者权利,确保人工智能应用的公平性与透明性。我国人力资源和社会保障部等八个部委也印发《关于新就业形态劳动者劳动保障权益的指导意见》,督促企业修订涉及劳工权益的平台算法,落实公平就业、科学劳动和合理薪资,为“十四五”时期人工智能产业的稳定、和谐、向善发展提供了政策层面的保障。
从发布主体层面观察人工智能治理文本可以发现,欧盟、中国和美国作为世界三大经济体在GDP领跑世界的同时,也在人工智能治理方面形成了特色鲜明的规范制度,是在不同地域文化、社会制度背景下施行人工智能治理实践的典型样本。
中国:立法落地,部委协作推动治理实践。2021年被称为我国的算法治理元年,《数据安全法》《个人信息保护法》与《网络安全法》落地实施,所以尽管尚未对人工智能治理进行综合立法,但我国已有较多针对数据安全与信息保护的专门立法实践。遵循法律文本,几大部委也于2021年加强协作,推进人工智能治理在全国范围内形成由网信办主导信息领域的人工智能监管,工信部发布人工智能国家战略,科技部侧重伦理规制制定的治理模式。其中,国家网信办发布的《互联网信息服务算法推荐管理规定》作为全世界首部以算法为调整对象的系统全面的法律性文件,对各类算法技术的适用场景和企业使用算法时需恪守的强制性义务及违反后的惩罚措施做了详细规定;工信部发布的《“十四五”信息化和工业化深度融合发展规划》对智能产品在工业、交通、医疗、教育等重点行业的应用推广进行了系统性的部署;科技部发布的《新一代人工智能伦理规范》则围绕管理、研发、供应、使用和组织五个环节提出了18项具体规范,将抽象的伦理原则以具体规范的形式融入人工智能全生命周期。其他部委如人民银行、人力资源社会保障部、市场监管总局、卫健委等也在具体领域积极出台政策文件,共同促进人工智能治理在我国落地生根。
欧盟:发布世界首部人工智能法案。作为人工智能监管在全球范围内的“第一推动者”,2021年欧盟继续采用全面立法的方式规范人工智能在各行业的应用,并于4月21日发布《人工智能法》提案,这是世界范围内首部对人工智能进行综合性立法的法案。该法案将人工智能应用划分为不可接受的风险(Unacceptable risk)、高风险(High risk)、有限风险(Limited risk)和极低风险(Minimal risk)四类。其中,涉及操纵人类行为的“潜意识技术”,利用儿童和残疾人脆弱性或可能影响社会信用评分的人工智能应用被认为具有不可接受的风险,法案禁止该类应用上市;涉及公共基础设施、社会福利、医疗服务、教育培训等领域的人工智能应用被认为具有高风险,法案提出应在其上市前进行充分的风险评估,确保算法偏见最小化、活动记录可追溯,并引入合适的人力监管措施以最大限度地减少风险;聊天机器人等对人类生存安全与基本权利具有有限风险的人工智能应用,法案仅明确了其向用户公开透明的义务;电子游戏和垃圾邮件识别软件等对人类安全与权利不产生影响或者影响甚微的极低风险的人工智能应用,法案并未进行干预。虽然该法案目前仍在立法流程内,并未落地实施,但作为一项严格的人工智能监管法规,《欧盟人工智能法案》明确了“人类中心主义”的原则,强调人工智能应用需服从社会基本价值观,为人工智能治理从原则性指导走向可审核可执行的程序提供了必要的法律明确性、普遍性和强制性。
美国:渐进式推进人工智能治理立法实践。在美国,与各州持续出台人工智能相关法律不同,联邦层面的立法进展始终较为缓慢,但该国第117届国会无疑是历史上最关注人工智能监管的国会会议。据斯坦福大学发布的《2022年人工智能指数报告》显示,2021年共有130项与人工智能有关的法案被提出,但自2015年以来,相关提案的通过率仅2%。可见相比欧盟统一、严格的治理标准和立法实践,美国对于人工智能治理的立法较为谨慎,更多通过各部门规制的方式陆续推出,渐进式地在各行业内纳入人工智能监管措施。具体而言,在治理方式上,美国政府问责局发布的实践报告算法治理、系统性能、数据记录、持续监测四个关键领域开发了一个人工智能问责框架,帮助联邦机构规范使用智能技术;在治理原则上,联邦贸易委员会2021年4月发布的备忘录要求各公司在人工智能的使用中确保透明、公平、可解释性和稳健性。在国土安全方面,美国国防部发布的《负责任的人工智能备忘录》从规划、开发和部署阶段为第三方开发者构建军用AI提供了清晰高效的评估和查询流程;在平等就业方面,美国平等就业机会委员会也发起一项消解就业领域算法偏见的倡议,致力于确保人工智能和其他用于招聘和就业决策的新兴工具使用符合民权法律。
尽管不同国家和地区的发布主体对于人工智能的治理重点和治理方式不同,但是总体而言,2021年全球范围内的人工智能治理正在从文本走向实践,从倡议走向监管,实现了将抽象伦理规则转化为具体实施措施的突破性进展。在向更为平衡包容的治理体系发展的过程中,现有治理规范表现出了向垂直领域不断清晰,向硬法程序逐步过渡和向全球协同持续推进的发展趋势。
文本专业性加强,垂直领域治理规范不断清晰。随着人工智能在各领域应用的不断深入,各国家和地区已不再局限于制定宏观层面的指导战略,而是细化至垂直领域,出台专业性的规制文本。这一趋势首先表现在与人类生命安全和生存环境密切相关的卫生健康领域。世界卫生组织于2021年6月发布的全球报告明确了人工智能应用于卫生领域的六大原则,要求技术始终以人类自主权和共同利益为出发点,确保使用透明与过程公平,完善解释和问责机制。且由于卫生领域的人工智能应用需要较长时间的临床实验和对医护人员进行特殊培训,报告特别提及智能技术在该领域的使用需具有可持续性和可响应性,在充分满足患者需求的同时,不至于过度影响现有医疗产业的劳动力市场与资源使用。与此同时,许多国家监管机构发布规则文本,促进治理原则落地实施。以美国食品和药品管理局发布的《基于人工智能/机器学习的医疗设备行动计划》为例,该计划明确了人工智能医疗器械和软件在治疗、诊断、预防等多个过程中的开发与使用要求,有望发展成贯穿产品生命周期的整体监管框架。
除卫生领域外,在许多涉及社会福利与公共基础建设的行业中也有针对性的原则发布。如在社会保障领域,欧洲保险和职业养老金管理局发布的报告对保险市场中的人工智能使用提出了六条具体原则。在教育科技领域,联合国教科文组织2021年出版的图书《人工智能和教育:政策制定者指南》详细解读了人工智能新兴趋势对教学的影响,为政策制定者因地制宜地规划教育政策和项目提供建议。在文本的基础上,教科文组织还致力于开发一项人工智能应用于教育行业的知识库,号召成员国共同推进新兴教育社会契约的形成。
软法可审核性加强,向硬法逐步过渡。尽管在2021年之前就有大量利益相关者通过发布声明、准则、最佳实践、行业标准等一系列规范性“软法”遏制算法偏见、促进个人信息保护与社会公平,但由于缺乏体制框架和可执行程序,大多数软法无法切实约束人工智能治理实践。2021年发布的规范性文件也关注到了这一问题,因此有较多文本针对过往已经发布的意见完善程序可审核性(auditability)。作为一种执行透明的方式,审核提供了权益之计和强制规则之间的协调机制,因此也是确保问责制发挥作用的重要方法。我国《新一代人工智能伦理规范》将2019年提出的治理原则规范化为具体的条例,美国《负责任的人工智能备忘录》也在重申公平、问责和透明等原则的基础上更加注重具体的实践框架,西班牙数据保护局发布的《涉及人工智能的个人数据处理活动的审核性要求》,德国联邦信息安全办公室发布的《人工智能系统可审核性白皮书》也都明确表达了对于人工智能系统可审核目标的关切。
虽然增加软法的可审核性条款为宏观人工智能战略的落地提供了具体的监管办法,但在必要时由程序性薄弱的软法向由国家强制力保障实施的硬法过渡,有利于原则文本取得切实的实践效益和治理成果。这一趋势也在2021年全球主要国家和地区发布的治理文本中得到了体现,无论是欧盟的全面统一监管,中国的重点领域监管,抑或是美国由政府规章驱动、地方立法推动的渐进式监管,都是人工智能治理文本从仅关注社会共识的敏捷软法向边界更为清晰、规则更为确定,程序更加可执行的硬法过渡的方式。在2022年及之后,随着已在立法流程内的法案陆续落地,更为细致和明确的人工智能治理硬法框架将持续完善,促进人工智能治理体系在最大限度上保障人类基本权利、维护社会公平体系。
规制标准化加强,全球治理竞赛与协同发展并举。随着治理文本数量的不断增加,治理辐射范围的不断扩大,在现有文本的基础上设定国际通用的标准已经成为2021年人工智能治理的关注焦点。因此,在原则文本方面,许多针对人工智能安全的标准被提出,如国际标准组织和国际电工委员会联合成立的技术委员会近年来持续就人工智能国际标准的制定发布技术报告,提出各类风险缓解策略和安全性测试方法;在治理工具方面,欧洲创新与技术研究所发布的人工智能成熟度工具等旨在提供可解释的标准程序以评估人工智能应用的工具箱也在全球范围内陆续出现,在一定程度上弥补了过往文本缺乏概念明晰性和多元协调性的缺点。
2021年,各国持续强化人工智能赛道的战略部署。英国发布了首个《国家人工智能战略》,美国也在报告中明确了“在人工智能时代保卫美国”和“赢得人工智能技术竞赛”两大目标。与此同时,各国也试图通过国际合作与区域间协同发展形成人工智能治理的国际规范。这一方面表现为主权国家之间相互协调,形成人工智能治理共识文件,如联合国教科文组织发布的《人工智能伦理建议书草案》于2021年11月24日获成员国一致通过,美欧贸易和技术委员会发表的第一份联合声明中承诺将开发和实施创新、值得信赖、尊重普遍人权和共同民主价值观的人工智能系统。另一方面也表现为国家、国际组织、从业者、学术界共同形成行业宣言文件,如在首届全球数字经济大会人工智能产业治理论坛上发布的《人工智能产业担当宣言》,便是在核心骨干企业和学术研究机构的共同商讨下形成的倡议性文件。
就当下人工智能治理的实践情况而言,标准化的工具和文本,国际协同的共识和宣言仍然停留于自愿使用和原则指导层面,未能形成普适性的原则框架。2021年我国对赴美上市的“滴滴出行”实施网络安全审查。《美国创新与竞争法》也将人工智能与机器学习列为需要提高投资以应对中国竞争的关键技术范畴。这反映出中美双方对于数据流动可能导致国家安全受威胁的担忧,人工智能治理也进入政治博弈的场域。
近年来世界各国对人工智能技术的发展和治理保持高度关切,不仅从产业竞争力的角度将之上升为国家战略,也从国家安全和社会福祉的角度严密监管技术应用的趋向。2021年全球新增百余份人工智能规范性文件,平台算法规制、个人数据使用和劳动用工规范是各规制主体共同关心的议题。在人类中心主义的基本立场上,确保人工智能向着保障人类权益的方向发展,是各国共同的诉求。而近期的国际博弈呈现出人工智能治理原则政治化的可能性,如何在人工智能治理博弈中提升话语权,也是各国现实的考虑。