人工智能时代的伦理挑战与对策研究

2024-05-14 14:02沈潇雯夏计军胡家琪
江苏科技信息 2024年7期
关键词:对策建议人工智能

沈潇雯 夏计军 胡家琪

摘要:人工智能的广泛普及给人类生产生活带来了极大便利,同时带来一系列伦理问题,引起了广泛的思考和讨论。文章在阐释当前人工智能伦理风险的基础上,分析了国内外对人工智能伦理设置原则、伦理治理理念、伦理治理规范的一些共识,提出优化底层技术、培养公众伦理意识、完善伦理规范和行为准则、加强伦理法律监管和政府管理、推动国际合作等多维度对策建议,为我国人工智能产业高质量发展创造良好条件。

关键词:人工智能;伦理挑战;对策建议

中图分类号:G253文献标志码:A

0 引言

人工智能是人类发展的新领域,带来重大机遇,也伴随着风险挑战。习近平主席在第三届“一带一路”国际合作高峰论坛提出《全球人工智能治理倡议》,为积极践行人类命运共同体理念,落实全球发展倡议、全球安全倡议、人工智能治理提供了解决方案。厘清人工智能时代的伦理困惑并探索相应的对策,推动人工智能以负责任的方式发展,同各国加强交流和对话,是促进全球人工智能健康有序安全发展的必由之路。

1 人工智能时代下的伦理挑战

人工智能的伦理问题主要围绕人类基本人权、数据安全与隐私保护、权力与责任认定3个方面。

1.1 人类基本人权

一是人工智能系统设计的缺陷可能对公民生命权和健康权的潜在威胁。Uber自动驾驶汽车致命事故即起因于Uber系统设计忽略了对塑料袋等其他障碍物的识别,导致未能及时刹车。二是人工智能算法可能因目标论证、算法歧视、数据训练等错误,扩大社会歧视范围,侵犯公民平等权利。亚马逊开发的人工智能简历筛选系统拒绝了所有女性申请人即反映了性别偏见。三是假新闻自动生成、信息精准推送等技术的滥用影响了公民的知情权、正当程序权和监督权,将会影响公众舆论、干预市场运作和国家政策制定。英国Cambridge Analytica咨询公司通过Facebook个人信息分析用户政治偏好,精准定向推送信息,影响了美国大选。四是人工智能发展可能导致大规模的结构性失业,富士康启用智能化生产线后裁减了数万名员工。

1.2 数据安全和信息隐私

人工智能技术的应用使得个人信息收集的范围及深度扩大,隐私侵犯风险也随之加大。中国深网视觉科技有限公司的人脸数据库信息泄露事件使数百万用户的敏感个人隐私信息曝光,包括用户生物识别、行为习惯等信息。“滴滴打车”曾因非法采集上亿条用户地理位置、通讯录、通话记录等信息而受到制裁,侵犯了个人隐私和国家安全。

1.3 权力与责任认定

责任伦理学是从伦理学的角度对人类社会责任进行整体研究。传统的技术后果责任制度已经无法应对人工智能技术发展应用所带来的不确定性和负面结果[1]。人工智能系统投入使用后出现问题的责任归属就是一个典型的责任伦理问题。需要考虑谁应该对人工智能系统的失误负责,并对责任判断进行深入探究,分析责任产生的内外部因素:外部因素包括政策法规、技术环境等;内部因素包括个人的道德观念、行为准则等。

2 人工智能时代下伦理挑战的成因

2.1 技术因素:人工智能技术发展局限性

机器学习作为人工智能的核心组成部分,它使计算机系统能够通过数据和经验来不断改进自身性能,但其本身存在漏洞,如训练数据真伪和偏差、AI算法黑匣子等,可能引发定向歧视。在处理环节,人工智能程序按照设定程序对输入的信息进行分析学习并输出结果,按照结果指令进行动作,在这个过程中,算法黑匣子缺乏可解释性可能会导致信任问题。在输出环节,AI算法结果有不确定和不可控性。

2.2 人為因素:人类主体责任意识淡薄

人工智能训练数据集一旦存在偏见,会在现实中持续表现偏见,因此,在没有偏见的情况下对人工智能进行训练和编程至关重要。实际上人类训练机器遵守道德规范仍未有统一的标准,因此,应当尽快制定被广泛认可的人工智能和智能机器道德标准。

2.3 环境因素:人工智能监管规则滞后

人工智能作为一项新兴技术尚缺乏法律制度的全面约束,只能通过舆论和技术手段来制约。制定人工智能的法律法规不仅涉及数据、算法、基础设施和人类,还涉及人工智能的总体治理、技术的整体管理及其他因素。迄今为止,在面对人工智能的自主智能系统治理、责任和问责以及隐私安全3个方面的监管治理仍未达成共识。

自主智能系统的治理,强调的是对人工智能和算法的理解与控制,确保其决策与行动的合理性和有效性。设计和建立一个既兼顾全球性又拥有灵活性的人工智能治理体系,需要满足人工智能领域的多元需求,还要充分考虑全球各地文化多样性和不同国家的法律体系。

责任和问责治理指的是界定谁对人工智能的决策负责并承担责任。一方面,由于人工智能系统在运行过程中进行学习并具备自主行动的能力,因此,其开发、操作人员可能无法准确控制或预测其后续行为,从而导致责任差距,无法承担相应的责任。另一方面,有学者认为人类要对所有与技术相关的后果负责。

隐私安全的治理是指在人工智能背景下保护人类隐私、保护数据和人工智能相关网络资源免受安全威胁。这意味着来自个人的数据必须在征得个人同意并遵守各自法律的情况下收集和处理。一方面,人工智能系统需要包含复杂的网络安全预防措施,以确保数据安全和隐私。另一方面,立法和政策制定需要适应人工智能带来的新发展,包括处理不同司法管辖区在隐私标准等方面存在的差异。

3 人工智能时代下伦理治理的全球实践探索

3.1 人工智能伦理设置原则

欧美地区正积极推动人工智能技术和产业的发展,同时高度重视人工智能技术发展的安全与健康。现今广为认可的AI伦理原则有5项:行善(Beneficence)、不伤害(Non-maleficence)、自治(Autonomy)、正义(Justice)以及算法可解释性(Explacability)。其中,前4项由传统的生物伦理原则沿用而来,最后一项则是针对人工智能算法提出的新原则。随后又在这5项总体AI核心原则基础上衍生出增进人类福祉(Well-being)、隐私(Privacy)、自主控制权(Autonomy)、不歧视与不偏见(Non-bias/Non-discrimination)、透明性(Transparency)等更多细化的分支。欧盟作为人工智能立法的先驱,2019年发布《可信AI伦理指南》,提出可信赖AI需满足3个基本条件:合法(Lawful)、伦理(Ethical)、稳健(Robust)。对于AI从业者,提出了4项道德原则,确保AI从业者以值得信赖的方式开发、部署和使用人工智能系统:尊重人的自主性(Respect for Human Autonomy)、预防伤害(Prevention of Harm)、公平性(Fairness)、可解释性(Explicability)。我国2019年发布的《新一代人工智能治理原则》,强调了和谐友好、公平公正、包容共享等8条原则。2023年发布的《全球人工智能治理倡议》围绕人工智能发展、安全、治理3方面系统阐述了人工智能治理中国方案,提出11项倡议,包括坚持“以人为本”、坚持公平性和非歧视性等原则。

3.2 人工智能伦理治理理念

人工智能治理在学术界有两种理论,即“对立论”和“系统论”[2]。“对立论”即关注人工智能技术与人权、福利之间的冲突,因此,需要制定相应的审查和监管机制来应对这种冲突。欧盟发布的《可信AI伦理指南》是“对立论”的体现,要求人工智能系统在其整个生命周期中必须遵循合法性、伦理规范以及稳健性原则。“系统论”强调人工智能技术与人类、其他人工智能体、法律、非智能基础设施和社会规范之间的相互协调。我国2019年发布的《新一代人工智能治理原则》,提出“支持弱势群体适应”“国际组织、政府机构、研究机构之间的协调互动”等治理原则,体现了“系统论”和多元治理理念。

3.3 人工智能伦理治理规范

据不完全统计,目前多个国家、地区、组织和企业已发布人工智能道德规范超过40部,已逐渐形成了一些共识。美国出台了《国家人工智能研究与发展战略计划》《人工智能准则:美国国防部人工智能伦理使用推荐性规范》《国家人工智能研发战略计划》等规范,提出伦理治理原则及人工智能伦理战略部署。欧盟出台了《可信AI伦理指南》《人工智能、机器人和相关技术的伦理框架》《人工智能立法提案》等规范,促进可信人工智能系统的发展。

4 人工智能时代下伦理治理的对策思考

4.1 优化技术降低人工智能伦理风险

应进一步激励技术创新,加强对人工智能应用于不同领域的伦理治理模型结构的开发,着力在一些关键领域实现技术性突破。探索人工智能伦理计算的定量化研究,研究降低伦理风险的可行性技术。从产品设计、技术研发和技术责任体系等各阶段对人工智能技术运用可能存在的伦理风险进行内在维度的判断,从源头阻断伦理风险。

4.2 加大教育宣传力度培养公众伦理意识

根据《人工智能北京共识》和联合国《教育中的人工智能:可持续发展的机遇和挑战》,教育对人工智能伦理风险治理具有不可或缺的作用。要不断完善青少年相关教育体系,为社会劳动者持续提供终身教育,加强科技工作者的伦理道德教育和职业培训。增强公众对人工智能技术的了解,激发和培养公众的伦理意识。

4.3 完善人工智能伦理规范和行为准则

构建人工智能伦理规范、制定行为准则是解决伦理问题的重要基础。中国电子技术标准化研究院牵头编制的《人工智能伦理治理标准化指南》,将伦理规范与行为准则融入人工智能“政产学研用”全生命周期。在人工智能重点领域的开发设计阶段形成详细的、具体的伦理规范,设置好开发的伦理底線,减少技术异化的负面影响。规范人工智能产品应用阶段的行为,鼓励制定人工智能在各领域的具体应用规范,提高各类使用者对人工智能产品的责任感。应鼓励企业结合实际形成各自的标准,积极参与国际标准制定。

4.4 加强人工智能伦理法律监管和政府管理

法律手段是规避人工智能伦理的基础手段,逐步实现法律体系与人工智能技术的有机结合,建立全周期、全流程、全覆盖的管理规范、研发规范、使用规范是人工智能伦理风险治理的当务之急。应强化协同治理,加强场景区分,推动医疗卫生、自动驾驶等重点领域监管规则制定,并逐步在其他行业形成算法技术规范。鼓励人工智能相关产业及时向政府反馈产业的最新技术发展动态,为监管提供决策依据。

4.5 推动人工智能伦理治理的国际合作

人类社会已进入智能时代,人工智能伦理治理已形成国际共识。2023年,联合国教科文组织和欧盟签署了加快实施人工智能伦理细则的协议,希望通过立法等方式加强人工智能伦理治理;同年,我国《全球人工智能治理倡议》重申各国应在人工智能治理中加强信息交流和技术合作,形成具有广泛共识的人工智能治理框架和标准规范,鼓励各国政府、国际组织、企业、科研院校、民间机构和公民个人等各主体秉持共商共建共享的理念,协力共同促进人工智能治理[3]。

5 结语

人工智能的发展带来了许多机遇,也伴随着一些挑战。应对这些挑战需要进一步优化技术降低人工智能伦理风险,加大教育宣传力度培养公众伦理意识,完善人工智能伦理规范和行为准则,加强法律监管和政府管理,推动伦理治理的国际合作。

参考文献

[1]邓若玉.人工智能发展的科技伦理反思[J].广西社会科学,2020(10):93-97.

[2]张兆翔,张吉豫,谭铁牛.人工智能伦理问题的现状分析与对策[J].中国科学院院刊,2021(11):1270-1277.

[3]外交部.外交部发言人就《全球人工智能治理倡议》答记者问[N].人民日报,2023-10-19(11).

(编辑 何 琳编辑)

Research on ethical challenges and countermeasures in the era of artificial intelligence

Shen  Xiaowen, Xia  Jijun*, Hu  Jiaqi

(Wuxi S&T Innovation Service Center, Wuxi 214000, China)

Abstract:  The widespread use of AI has brought great convenience to human life and production, and also brought a series of ethical challenges. On the basis of explaining the current ethical risks of AI, the text analyzes the current consensus on principles of AI ethical setting, ethical governance,and ethical governance norms, and provides countermeasures and suggestions such as optimizing technology, cultivating public awareness, improving ethical norms and codes of conduct, strengthening ethical legal supervision, and promoting international cooperation.These suggestions will create good conditions for the high-quality development of AI industry.

Key words: artificial intelligence; ethical challenge; countermeasure and suggestion

基金项目:无锡市法学会2023年研究课题;项目名称:人工智能时代的伦理挑战与对策研究;项目编号:WFH2023B20。江苏省科技厅2023年创新支撑计划软科学研究;项目名称:“一带一路”倡议下国际科技创新合作模式对比研究——以江苏和广东为例;项目编号:BR2023022-2。

作者简介:沈潇雯(1983—),女,副高级工程师,硕士;研究方向:政策研究,创新理论。

*通信作者:夏计军(1978— ),男,工程师,硕士;研究方向:情报分析,项目管理。

猜你喜欢
对策建议人工智能
我校新增“人工智能”本科专业
2019:人工智能
人工智能与就业
数读人工智能
职校学生手机使用状况调查报告
我国融资租赁业发展现状存在的问题及对策分析
关于惠城区发展农业的调研报告
下一幕,人工智能!
下一幕,人工智能!