中美欧生成式人工智能政策法规比较研究及启示

2024-03-24 09:02
中阿科技论坛(中英文) 2024年3期
关键词:政策法规伦理人工智能

饶 晗

(广州工商学院,广东 广州 510850)

以ChatGPT为代表的生成式人工智能技术掀起了一股新的科技浪潮,并在商业领域得到广泛应用。该技术在改变生产方式、提高生产效率的同时,也存在着令人担忧的伦理和法律风险。如何正确认识和防范这些风险关乎该项技术在商业领域应用的健康发展以及人类的福祉。中国、美国和欧盟目前在生成式人工智能技术的研发和相关政策法规制定方面处于领先地位,对比中美欧生成式人工智能政策法规,可以更好地帮助企业认识和防范相关伦理和法律风险,依法依规开展生成式人工智能技术的研发和商业应用。

1 生成式人工智能的发展与法律伦理风险

生成式人工智能(Generative AI)是指通过海量的数据和模型训练生成符合指令的新内容的人工智能[1]。2022年11月30日,美国OpenAI公司发布了人工智能聊天机器人ChatGPT,其是一种基于Transformer神经网络架构和大语言模型训练、拥有语言理解和文本生成能力的生成式人工智能,一经发布便火爆全球,两个月内用户就已超过1亿[2]。ChatGPT的出现是生成式人工智能技术发展的重大突破,标志着强人工智能时代的到来[3]。之后,各大科技公司研发的生成式人工智能模型也如雨后春笋般纷纷发布,例如谷歌的Bard模型、Anthropic公司的Claude模型、Meta公司的LLaMA模型,以及绘画生成模型Midjourney等。国内的生成式人工智能模型也在这股浪潮下蓬勃发展,据统计,截至2023年8月,国内已发布的各类大模型数量超过100个,呈现出“百模大战”的局面[4],其中,具有代表性的有百度的文心一言、科大讯飞的星火大模型、阿里云的通义千问、清华大学的ChatGLM等通用大模型,以及华为盘古行业大模型、华佗医疗大模型等垂直领域的大模型。

随着生成式人工智能大模型的发展,各行业也在积极探索如何利用大模型来提升传统业务的智能水平和工作效率。生成式人工智能的应用场景和生态系统不断拓展,使得人们的生产生活也逐渐从“互联网+”时代过渡到“AI+”时代。生成式人工智能的发展势不可挡,但也存在着一定的伦理和法律风险。其中,偏见和歧视、数据安全、知识产权、虚假信息和技术垄断等问题较为突出,相关的违法案例也层出不穷。例如,2023年1月,Stable Diffusion的公司被控告未经允许盗用了某平台上的数百万张图片;2023年5月,甘肃省平凉市公安局侦破了我国首例利用生产式人工智能技术制造虚假新闻的案件[5]。

为引导和规范生成式人工智能技术的创新和商业应用,中国、美国和欧盟均出台了相关的政策法规,这些政策法规之间既有共通之处,也存在差异。本文通过对比分析中美欧生成式人工智能相关的政策法规,既可以帮助政府、企业、社会机构等相关主体不断优化完善监管措施,也可以为企业合规应用生成式人工智能技术提供指引。

2 中美欧人工智能相关政策法规的发展进程

2.1 美国人工智能相关政策法规的发展进程

美国在人工智能技术的研发和应用方面目前处于世界领先地位,其对人工智能监管的总体方向是通过人工智能伦理与法律体系的完善来促进AI技术的创新并降低潜在的风险[6]。美国政府机构发布了一系列的政策文件来促进和规制人工智能技术的发展和应用。

早在2016年10月,美国国家科学技术委员会就发布了《国家人工智能研究与发展战略计划》,明确提出了改进公平性、透明度和设计责任机制以及提高可解释性和信任度等规则[7]。

2019年10月,美国国防创新委员会发布的《人工智能准则》明确提出了负责任、公平性、可溯源、可信赖、可控性五大人工智能伦理原则[8]。

2020年1月,美国白宫发布《人工智能应用规范指南》,提出了公众对人工智能的信任、公众参与、科学诚信与信息质量、风险评估与管理、收益与成本、灵活性、公平和不歧视、披露和透明度、安全、机构间协调十条指导规范[9]。

2021年1月,美国颁布《2020国家人工智能倡议法案》,主要目标是确保美国在人工智能领域的领先地位,开发和使用可信赖的AI系统,协调机构间AI研究的合作[10]。

2022年10月,白宫发布了《人工智能权利法案蓝图》,提出人工智能系统的研发和使用应符合安全有效、算法歧视保护、数据隐私、通知和解释、人工替代及可回退这五项原则[11]。这是目前美国联邦层面最新的规范人工智能的指导文件。

2.2 欧盟人工智能相关政策法规的发展进程

欧盟人工智能技术的发展落后于美国,但力争通过构建完善的伦理和法律体系来寻求在世界人工智能治理领域的影响力,因此其治理模式呈现出“伦理优先”的特点。从治理结构来看,欧盟强调采用统一的立法规制人工智能发展,构建了以欧盟数据委员会为主导、各成员国数据保护机构相协调的垂直治理体系。

早在2016年4月,欧盟就通过了《通用数据保护条例》,提出个人数据处理的合法公平透明、目的限制、数据最小化、准确度、保存限制、完整性和保密性六项原则[12]。

2018年4月,欧盟委员会发布了《欧盟人工智能》政策文件,首次提出了欧洲人工智能的发展战略,要在欧盟现有价值观和《欧盟基本权利宪章》基础上制定合适的伦理和法律框架[13]。

2019年4月,欧盟进一步发布了《可信AI伦理指南》,提出了可信AI应当满足人的自主和监督,可靠性和安全性,隐私和数据治理,透明度,多样性、非歧视性和公平性,社会和环境福祉,可追责性等七项要求[14]。

2023年6月,欧洲议会通过了《人工智能法案》,进入立法前的最终谈判阶段,有望成为世界首部针对的人工智能综合性立法。该法案将AI风险划分为被禁止、高风险、有限风险和低风险四个等级,对应不同的监管要求。此外,法案还对ChatGPT等生成式人工智能工具提出了新的透明度要求,强调必须对AI生成内容进行标注,并防止生成非法内容[15]。

2.3 中国人工智能相关政策法规的发展进程

中国高度重视人工智能技术的研发和应用,将其纳入国家发展战略,并制定了一系列政策和法规促进人工智能技术更好地服务经济社会发展,防范可能存在的安全、伦理和法律风险。

早在2017年7月,国务院就发布了《新一代人工智能发展规划》,提出了科技引领、系统布局、市场主导、开源开放的发展原则,强调要加强约束引导,确保人工智能安全、可靠、可控发展[16]。

2018年1月,中国电子技术标准化研究院联合华为、腾讯、阿里等多家公司发布了《人工智能标准化白皮书》,提出通过遵循人类利益原则、责任原则、透明度原则和权责一致原则防范人工智能可能带来的伦理问题[17]。

2020年7月,国家标准化管理委员会、中央网信办五部委联合印发《国家新一代人工智能标准体系建设指南》,其中安全/伦理是人工智能标准体系的重要组成部分并贯穿于其他七个部分[18]。

2021年6月,我国颁布了《数据安全法》,提出建立数据安全审查制度和数据分类分级保护制度,对人工智能技术开发与应用过程中数据获取、存储、处理的安全性进行了法律约束[19]。

2021年9月,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,提出应遵循以下伦理规范:增进人类福祉、促进公平公正、保护隐私安全、确保可信可控、强化责任担当、提升伦理素养[20]。

2021年11月,《个人信息保护法》开始施行,详细规定了个人信息处理的一般规则、敏感个人信息的处理规则、个人信息跨境提供的规则、个人在个人信息处理活动中的权利、个人信息处理者的义务、履行个人信息保护职责的部门和法律责任,为人工智能技术开发与应用中的个人信息保护提供了法律依据[21]。

2022年11月,国家互联网信息办公室通过了《互联网信息服务深度合成管理规定》,提出针对基于人工智能技术的深度合成服务提供者和使用者的一般规定、数据和技术安全管理规范、监督检查主体和法律责任[22]。

2023年8月,《生成式人工智能服务管理暂行办法》开始施行,该办法提出了坚持社会主义核心价值观、防止歧视、尊重知识产权和商业道德、尊重他人合法权益、提升服务的透明度和生成内容的准确性及可靠性等指导原则,详细规定了生成式人工智能技术发展与治理的要求、监督检查和法律责任[23]。这是全球第一部针对生成式人工智能的管理办法,对引导和规制目前高速发展的生成式人工智能技术具有重要意义。

3 中美欧生成式人工智能政策法规比较

为进一步了解中美欧关于生成式人工智能相关政策法规的共同点和差异之处,更好地为生成式人工智能的发展健全法律和伦理保障,研究选取了中美欧最新的相关政策法规进行对比分析(见表1)。

表1 中美欧生成式人工智能相关政策法规比较

从对生成式人工智能的态度看,中美欧均支持和鼓励AI技术的研发和应用,都力争在这场AI的竞赛中保持领先地位。与此同时,中美欧也均重视人工智能的广泛应用可能带来的数据安全、算法歧视、隐私保护等法律和伦理问题,均出台了相应的法律法规和指导文件来规范人工智能的健康发展,保护人类的基本权利和福祉,力求在促进AI技术发展和防范法律及伦理风险之间取得平衡。

从伦理规范原则看,中美欧均强调提供和使用生成式人工智能应防止算法歧视、透明、安全可靠、保护隐私以及遵守现行法律法规。中国着重强调了应坚持社会主义核心价值观,美国提到了要提供人工替代和回退手段,欧盟非常重视人类的主体地位和社会及环境福祉。

从数据合规看,中美欧均要求生成式人工智能训练和使用的数据来源合法,保证训练数据的高质量。中国更进一步要求制定数据标注的规则并开展质量评估,美国提出对敏感领域数据的重复利用限制,欧盟则强调高风险人工智能训练的数据应当受到审查和监管,避免不符合预期目的的数据滥用。

从个人信息保护看,中美欧均规定要保证人工智能系统中个人信息相关数据的安全,并从数据的收集、存储、处理等各环节提出了相关安全管理要求,均提出要征得用户的知情同意。中国进一步提出生成式人工智能服务提供者不得收集非必要个人信息,美国对用户同意进行了更加细致的分类要求,欧盟则提出要保障个人数据的处理不能影响数据主体的自主决定。

从商业服务规范看,中国规定生成式人工智能服务提供者和使用者要签订服务协议,明确双方权利义务,引导用户理性合法使用生成式人工智能,提供安全持续的服务,建立投诉举报机制;美国要求人工智能系统提供者提供清晰可理解的用户使用通知和解释文件,当系统出现故障时提供人工补救;欧盟则提出要建立人工智能的质量管理体系,一旦人工智能系统不符合规定,提供者应采取必要的纠正措施或撤回该系统。

从监管主体看,中国和欧盟对生成式人工智能的治理更依靠政府,呈现出自上而下的垂直治理模式。中国的网信、发展改革、教育、科技、工业和信息化、公安等部门依照各自职责依法监管,欧盟则通过设立欧洲人工智能办公室进行统一监管。美国企业的伦理自治能力较强,且各州有权制定不同的人工智能相关法律法规,因此呈现出自下而上的治理模式。

从法律责任看,对于生成式人工智能违反法律法规和伦理的处罚,中国依照网络安全法、数据安全法、个人信息保护法等相关法律规定进行处罚;美国目前在联邦政府层面并没有制定有关人工智能的法律,主要由各州制定相关法律法规并依法进行处罚;欧盟则规定成员国依据该法案制定相应的处罚规则,并根据规则对不同的违法违规的机构和团体给予行政罚款。

4 生成式人工智能健康发展的商业启示

随着生成式人工智能大模型与各行业领域的广泛融合,利用生成式人工智能开发的应用产品也必将层出不穷,相关的企业主体在赶上这波AI浪潮的同时,也要重视AI的法律和伦理风险,了解并遵守相关的法律法规要求。通过对中美欧关于生成式人工智能法律法规的比较,AI研发与应用企业可以获得以下商业启示。

4.1 技术研发层面

4.1.1 营造合法合规的研发环境

生成式人工智能研发企业要深入理解相关法律法规,特别是关于个人信息保护、数据来源合法性等的规定,并积极配合政府监管部门,保证研发活动的合法合规。建立内部审查机制,对数据集、模型、应用场景进行合规性评估,杜绝非法数据的采集使用以及潜在不道德应用的研发。同时,企业还应定期对员工进行合规培训,营造一种合法合规的文化氛围。

4.1.2 技术上实现可解释、可控制、可审计

生成式人工智能系统的不透明经常导致预测结果难以解释并引发争议。企业应在技术层面上,让人工智能系统向用户解释预测的原因,从而实现对模型和决策过程的审计。此外,还应提供切实可行的人工干预措施,如人工复核、可实施的业务规则等,保证最终决策可控,这有助于消除用户和监管方面的隐忧。

4.1.3 以用户为中心,提供可靠透明的交互

生成式人工智能企业应以用户权益为先,为用户提供清晰、准确、可理解的交互界面与反馈,主动提示可能的风险,并采取措施预防算法歧视、数据泄露等风险的产生。同时还应建立用户反馈渠道,及时纠正错误,不断完善服务流程。这能够提高用户的知情度和参与感,还能增强企业的社会公信力。

4.1.4 加强内部测试与风险评估

企业应建立健全测试验证和风险评估机制,形成闭环流程。在研发过程中持续进行测试,并在产品上线前进行全面的风险评估,识别模型偏差、安全漏洞、负面外部影响等多种风险,并将评估结果及时反馈到研发过程中。同时,上线后也要持续监测模型表现,并随时作出调整,确保系统的稳健安全。

4.2 内部管理层面

4.2.1 建立伦理规范体系并加强伦理教育

生成式人工智能企业应成立伦理委员会或类似机构,研究行业伦理规范和道德标准,并将其转化为企业内部的管理制度、技术规范及操作流程。还应定期对员工进行伦理培训,提高其伦理意识,并让伦理规范成为技术研发和管理决策中的重要考虑因素之一,这对于防止不道德应用至关重要。

4.2.2 加强安全设计与防护

鉴于人工智能可能面临的数据泄露、网络攻击等安全风险,企业必须在系统设计与部署的全生命周期中,采取必要的安全设计与防护措施。这包括加密传输与存储、访问控制、漏洞扫描、安全测试等手段,实现数据与系统的全面安全保护,保证人工智能技术安全可靠地应用于复杂环境中。

4.2.3 加强风险预警和危机应对能力

建立包含风险指标及评估、系统运行监测、跨部门合作等事项的风险预警机制和应急预案,提前预演各类“黑天鹅”事件,包括技术故障、法规变化、竞争压力等,针对每次模拟演练,进行详尽的评估,包括团队响应速度、决策准确性等。

4.3 外部监督层面

4.3.1 加强政府沟通,积极配合监管

生成式人工智能企业不能既要发展又要无监管,良好的政企关系有利于人工智能的健康发展。因此应加强与政府的沟通交流,通过行业协会等渠道表达诉求;积极配合监管,可考虑监管沙盒等更灵活的模式;及时向政府部门汇报重大进展、存在的困难及潜在风险。

4.3.2 注重社会化咨询,主动接受公众监督

生成式人工智能企业还应注重吸纳社会各界的意见建议,可以建立公众咨询委员会,聘请法律、伦理学者等提供意见;也可以开放公众测试通道,收集用户反馈。还要加强舆论监测,积极回应公众关切。这有助于提高研发的社会适用性,也使企业在接受公众监督的同时增强社会责任感。

4.3.3 重视社会责任,推动行业共同进步

生成式人工智能企业不应将自身仅视为追求利润的商业主体,还应承担起推动社会进步的责任。可以主动参与行业讨论,为完善伦理规范建言献策;开放部分无竞争风险的技术成果,促进行业技术进步;开展公益性研究项目,解决社会问题;同行业企业建立伙伴关系,共同提高人工智能技术的安全性和可靠性水平。

5 结语

本研究论述了生成式人工智能技术的发展和法律风险、总结了中美欧相关政策法规的发展进程,并从对AI技术的态度、伦理规范原则、数据合规、个人信息保护、商业服务规范、监管主体、法律责任等多个维度,分析和比较了中美欧相关政策法规的共通和差异之处,最后根据以上分析从技术研发、内部管理和外部监督三个层面提出了生成式人工智能相关企业防范伦理和法律风险的具体措施,具有一定的实践指导意义。

猜你喜欢
政策法规伦理人工智能
《心之死》的趣味与伦理焦虑
政策法规
护生眼中的伦理修养
2019:人工智能
政策法规
人工智能与就业
政策法规
政策法规
数读人工智能
下一幕,人工智能!