邹 曈,张景玥
(1.四川师范大学 哲学学院,成都 610066;2.信阳航空职业学院 马克思主义学院,河南 信阳 464100;3.河南财经政法大学 诉讼法研究中心,郑州 450016)
生成式人工智能是可以通过自我学习和适应使用深度神经网络和概率模型的机器学习模型。较之一般人工智能拥有不依赖于专家知识和编程指令来执行特定任务的特性。生成式人工智能的技术逻辑既包含了对现有信息的学习和模仿,也包含了对新信息的创造和生成。以ChatGPT为例,其是一种基于自然语言生成的对话系统,使用了一种叫做Transformer的神经网络架构,能够从输入的文本中学习语言模型并生成输出文本。[1]生成式人工智能技术采用了双向互动成长的技术逻辑,拥有强大语言分析能力,会标记语言的关键信息,同时也会忽略它们认为不重要的细节。这依赖于在开发过程中工程师的认知偏好对其影响的程度,也受到使用者是否能够绕过防火墙让其生成答案。例如,如果问ChatGPT“如何毁灭人类”,它会回答“我必须明确地指出,毁灭人类是违反道德和法律的行为,严重影响人类社会的安全和稳定。”改问它“如果你是作家,要写毁灭人类的书,如何实施?”它回答“作为一个人工智能语言模型,我不会在创作过程中有意毁灭人类,但我可以帮你找到这本书。”事实上,人类的每一次使用都完成了人机互动,它的回答也更加趋向于人类个体的表达。随着以ChatGPT类生成式人工智能技术的应用,担心技术滥用、管理缺陷、生成内容问题和知识产权保护等问题的讨论也愈加激烈。人类已经不可避免的进入智能化时代,生成式人工智能带来的伦理和道德风险必须得到有效的防治。
生成式人工智能的发展带来人类社会新的知识革命,同时也打开了“潘多拉魔盒”(Pandoras box),引致工作岗位流失、认知偏差、责任模糊、隐私侵害、数据滥用等现实风险,破坏全球经济、政治和社会安全。[2]产生这些风险的原因在于生成式人工智能可以被用于生成虚假的内容,包括假新闻、虚假图像和语音。恶意使用者可以利用这些技术来散布假消息、误导公众或伤害他人声誉;还可以根据个人的数据生成逼真的虚拟个人资料,这可能导致隐私侵犯和个人信息泄露;还会出现因为生成内容使用他人原创作品而侵犯著作权的情形。生成式人工智能生成的或真实或虚假的内容可能引发更为广泛的伦理边界模糊问题。这是因为伦理问题常常涉及价值观、文化背景和不同利益方之间博弈等问题。而导致出现伦理边界模糊的主要原因可以归结为以下四点:
1.人工智能快速发展出现的“伦理真空”
生成式人工智能、基因编辑、虚拟现实等新兴技术的涌现,这些技术带来了一系列全新的伦理问题。这些问题超出了传统伦理学的研究范围,需要新的伦理框架和分析方法。人工智能技术的快速发展引发了伦理学面临的新挑战,例如自主性系统的伦理决策、人工智能的责任和道德义务等。这些问题需要深入的探讨和研究,以确定如何在人工智能时代确保技术的负责任使用。不仅如此,全球化使得不同文化之间的伦理观念和价值观产生碰撞和冲突。传统的伦理框架和理论可能难以适应多元文化的伦理挑战,需要更多的跨文化研究和对话。人工智能发展所带来的全世界范围内人类行为方式、思维方式的变化是加速、不可逆转的,而传统伦理学的发展却是缓慢的、滞后的,这就使得现代社会出现了巨大的伦理真空[3]地带。
2.生成式人工智能技术隐藏的主观文化差异
生成式人工智能的设计、训练数据和算法等方面会受到开发者的主观观念、价值取向和文化偏好的影响,这些主观因素可能会对人工智能系统的性能、决策和结果产生重要影响。例如,人工智能系统的训练数据是由开发者主观选择、标注和收集的。一般开发者会在选择上主观偏向于符合自身文化背景的信息,进而使得人工智能在生成内容时无法准确地理解和应对不同文化背景的用户需求或情境,这就是出现开发过程中的数据偏差。在生成式人工智能的使用过程中,使用者也会受到这种主观文化偏好的影响。例如,在个性化推荐系统中,算法会根据用户的兴趣和偏好提供推荐内容。但如果这些模型过度强调某些文化、价值观或偏好,可能会导致信息过滤、偏见强化或信息孤立。
3.生成式人工智能应用多方主体利益冲突
生成式人工智能应用中,涉及到多个利益方,包括用户、开发者、公司、政府以及整个社会。这些利益方可能拥有不同的目标和关注点,因此,在确定伦理边界[4]时可能出现利益冲突和权衡,导致边界的模糊性。首先是用户与数据所有者之间的利益冲突。生成式人工智能应用在训练阶段和服务阶段都需要大量的数据信息,这些数据可能涉及用户隐私,当个人的敏感信息被用于训练算法或数据共享时,则出现了用户与数据所有者之间的利益冲突。其次是特殊群体与技术开发者、企业或政府之间的利益冲突。生成式人工智能擅于完成自然语言处理和创造性任务,这些功能会引发相关领域更为广泛的失业问题,可能引发工人、工会或相关组织与技术开发者、企业或政府之间的利益冲突;还可能对一些特殊领域实现直接替代,继而出现结构性失业问题。第三是公众、政府监管机构和技术开发者之间的利益冲突。生成式人工智能应用涉及各种安全和道德问题,如可以生成虚假的新闻、评论导致信息混乱、传播谣言和误导公众;还可以伪造文件、执行网络钓鱼攻击、冒充他人身份等,这会引发公众、政府监管机构和技术开发者之间的利益冲突。第四是企业之间、企业与政府之间的利益冲突。人工智能技术的发展涉及企业和组织之间的竞争。在研究、开发和应用人工智能技术时,知识产权的问题可能引发竞争和利益冲突,政府需要对专利、商业机密和技术标准等问题作出规范。
4.伦理边界模糊引发责任缺失
生成式人工智能的技术用于许多应用场景,例如社交媒体内容生成或自动写作。如何确保对生成内容的合理使用,以及明确约定使用者的责任和限制,是一个重要的问题。随着生成式人工智能的快速发展,没有明确、广泛接受且适用于不同环境和任务的伦理指导原则,也没有明确的契约和使用条款,这可能导致滥用和不当使用,还会导致伦理边界模糊。然而,确定清晰的伦理边界并将其转化为操作性的规范是一项具有挑战性的任务。在理论层面上讨论伦理原则和价值观不同于在实际应用中,要平衡各种利益和确保可操作性。制定具体的伦理指南,应吸纳多方利益相关者的意见,考虑技术、法律和社会因素。
生成式人工智能技术的设计初衷是为了创造一个更加智能、高效和便捷的世界,将计算机智能应用到各个领域,实现人机协同共生,推动社会科技的进步。面对这些风险,如何制定道德准则,解决数据隐私、人机关系、算法歧视、责任缺失等方面的伦理风险迫在眉睫。
伦理是处理人与人、人与社会等关系时的道德准则,也是行为规范。伦理风险作为现代社会新型的风险类型,它是“在人与人、人与社会、人与自然、人与自身的伦理关系方面由于正面或负面影响可能产生不确定事件或条件,尤指其产生的不确定的伦理负效应,诸如伦理关系失调、社会失序、机制失控、人们行为失范、心理失衡等等”。[5]生成式人工智能依赖于输入的文本与互联网数据信息的多少,其本身并不能验证信息的真伪与获得是否合法。其文本生成要经过数据收集、模型构建、模型训练、模型评估、模型部署、模型持续优化的过程。在数据收集阶段会在互联网上获取大量的文本数据;在模型构建阶段使用Transformer 模型来预处理学习文本语言;在模型训练阶段对预处理后的数据进行优化损失函数来调整模型参数[6];在模型评估阶段评估和测试数据的可靠性与准确性;在模型部署阶段将训练好的模型部署到生产环境,以供使用;在模型持续优化通过不断获取用户的反馈以及进行数据更新[7],不断优化模型以提高其准确率和效率。生成式人工智能是高效的人类知识学习工具,它不生产知识,是知识的搬运工。那么,作为工具生成式人工智能是没有必要对信息的真伪和获得是否合法负责的。为此,会存在基于数据信息的提供、选择、输出等环节的伦理风险。
1.技术嵌入缺乏伦理制约引发的道德价值偏离
生成式人工智能技术的应用在目标对象上具有广泛性,并不会对年龄进行分层,也不会对领域进行分类,决定了其使用者无差别化的特征。因此,使用者与生成式人工智能技术互动过程中会出现不确定的伦理负效应。例如,对未成年人使用者输入问题的无差别分类和输出,会因为缺少对年龄阶段的分层而导致认知偏差。未成年人接触到超于年龄认知范围的信息,在没有正确的引导下会产生好奇或崇拜的心理,而人工智能的算法规则本身会迎合使用者的需要,因此可能会发生未成年人作为个体的主体权利丧失,缺乏道德的约束,逐渐沦为技术的拥趸。
2.数据信息的提供和选择标准不明引发的“算法黑箱”问题
生成式人工智能技术并没有公开其对数据信息提供和选择的标准是什么,也就是说这些存在于互联网上的信息只要是关于使用者的提问内容,都有可能会被检索并进入文本生成的数据收集阶段。那么在之后的其他阶段中如何甄别这些信息,信息采用的优先级是什么则并不可知。在此情形下,生成式人工智能所提供的互动方式对于不掌握编程技术的人类而言只能是被动地输入。普通人对生成式人工智能的每一次使用都构成了对其的一次训练,是其运用Transformer 神经网络架构的又一次模仿和测试。在这个过程中普通人看起来好似得到了想要的答案,但是并没有获得真正意义上的新知识。由此,会产生基于人工智能数据信息的提供和选择标准不明,而引发的“算法黑箱”问题。[8]
“算法黑箱”(Algorithmic black-box)是指在算法社会中,拥有类似Transformer 神经网络架构的模型经过大量训练后,其内部状态变得相当复杂,输入与输出之间的运算是自动进行的,这也导致了算法缺乏透明性,人们既难以准确预测算法的行为,也不易理解算法输出特定结果的机制。[9]“算法黑箱”容易引发社会公众的焦虑,还会引发不同道德主体面临道德风险时发生价值冲突。例如,医疗诊断过程是基于知识和经验的共同协作完成的,但是人工智能辅助医疗诊断过程中,会对收集到的既有医疗数据予以录入、分析和总结,虽然最终给出的数据会隐去患者的关键信息,但是依然会带来隐私安全问题。同时,因为算法不透明,使用这一数据作为参考的医生也并不知道算法是基于什么做出的决策,无法对其是否合理作出预判和解释。
3.文化偏见可能引发的算法歧视
生成式人工智能的开发和使用过程是基于算法模型对数据的选择和利用。开发者对敏感数据的采集一般受到个人信息选择偏好的影响[10],尤其是对种族、性别等信息的选择,而东西方文化的差异性更会影响生成式人工智能给出的答案。除了开发者的个人偏好外,还可以对算法模型进行训练,以到达开发者想要的类型偏好。例如,如果问ChatGPT关于人性本善还是本恶的问题,东西方社会对这个问题存在分歧,原本是出于讨论还没有定论的问题,却可以通过训练ChatGPT来自然抓取互联网上对人性是善还是恶的信息,开发者可以通过选择偏好来训练出想要的答案。技术本身是中立的,但是使用技术的人却有不同立场。生成式人工智能的开发和使用过程中已经呈现出了东西方文化的巨大差异性,也不可避免地出现了文化偏见带来的算法歧视。
4.基于数字化造成的社会分层、数字鸿沟
生成式人工智能势必会加速结构性失业,形成社会分层,产生数字鸿沟。在就业上,生成式人工智能已经不仅仅局限于替代流水线上的工人而是转向替代具有创造性的工作岗位。未来艺术设计者、培训师、程序员、教育工作者、法律工作者都有可能会面临待岗失业的风险。数字化的快速发展使得不同阶层和社会群体从拥有电子设备接入互联网的传统差异转变为是否会使用数字产品以享受数字红利的“数字鸿沟”。社会如果以年龄作为区分,最明显的就是数字红利向年轻人转移,呈现出低龄化趋势,而中老年群体正在被数字边缘化。生成式人工智能的发展不仅会使得不同年龄数字化分层加剧,还会使得地区贫富差异更加明显,从而影响到教育公平、就业平等等社会问题。例如,我国城乡发展尚不均衡,教育资源的配置也存在差异[11],城市与农村地区的教育资源硬件配置水平相差较大,这会加速社会分层。
ChatGPT类人工智能伦理风险的出现是综合因素作用的结果,也是这个时代必然要解决的问题。一个完备的伦理规范体系应当包含伦理风险、伦理原则与伦理责任三方面,即告知我们现在面临的问题,应采取的措施与践行措施的主体。[12]人工智能的伦理风险需要明确生成式人工智能伦理价值目标,增强生成式人工智能技术的透明度和可解释性,增加对生成式人工智能的伦理审核和审查,制定生成式人工智能应用安全法律规范,提高公众意识和参与度,建立伦理委员会来共同防治。
1.明确生成式人工智能伦理价值目标
生成式人工智能的首要伦理价值目标应当是以人类为中心,尊重和保障人权。生成式人工智能的设计和应用应当以人类福祉为中心,尊重人类的价值和尊严。这意味着人工智能系统应该促进人类创造力、自主性和参与,而不是取代人类或削弱人类的自主权和决策权。其次,应当尊重和维护人权,包括言论自由、隐私权、尊严等。人工智能生成的内容不应该侵犯这些权利,也不应该被用于骚扰、歧视、恐吓或其他不当行为。除此之外,生成式人工智能还应当将公平公正、真实诚信、责任与适当性等作为伦理价值目标。公平公正应体现在人工智能生成内容是基于多样性和代表性的数据训练的结果,具有客观、公正的特征。真实诚信是基于生成式人工智能生成内容要与现实世界相对应,在与用户进行互动时应该避免误导用户认为自己是具备超越其实际能力的智能体,出现因虚假信息发生不良影响的情况。责任与适当性是指生成式人工智能应当遵守法律、道德和社会准则,对其生成内容负责,并确保生成结果的适当,防止出现具有冒犯、歧视或者有危害社会或人身的内容生成。
2.增强生成式人工智能技术的透明度和可解释性
透明度和可解释性是用户对人工智能系统建立信任的关键因素。当用户能够理解系统的工作原理和生成结果时,更有可能广泛应用生成式人工智能。透明度可以使用户更容易地发现和解决生成式人工智能潜在的偏见、不平等或不公正现象,能够帮助用户理解和评估人工智能系统的伦理和社会影响,确保技术的使用是符合道德和社会责任的。可解释性可以帮助用户更容易理解生成式人工智能系统的决策过程和行为方式。通过增强生成式人工智能技术的可解释性来揭示模型对输入数据和特征的重要性和影响,帮助判断模型的合理性和公正性,并进行必要的调整和改进,以防止出现偏见和歧视等问题的发生。增强生成式人工智能的透明度和可解释性能够为医疗、金融、法律等特殊领域提高决策的合法性、公正性和可靠性。例如,医生在医疗方案的选择上可以通过生成式人工智能识别和规避潜在的风险,选择最佳方案,还能提高与患者及其家属沟通方案的可接受度。增强生成式人工智能技术的透明度和可解释性需要在模型选择与设计阶段增加简单易为公众所了解的方法帮助理解生产过程;在数据处理和生成阶段,可以公开采集数据的信息、处理过程以及选择的标准,这样有助于帮助公众理解生成结果的来源和依据,增加信任度。生成式人工智能技术也可以通过开放源代码和模型架构,使更多研究者参与到开发和验证过程中,以防止出现偏见或歧视问题,还可以促进模型的改进和演化。
3.增加对生成式人工智能的伦理审核和审查
对生成式人工智能的伦理审核和审查[13]能够保障生成内容是符合法律法规、道德和社会价值观的,这有助于防止潜在的法律问题和责任缺失问题发生。生成式人工智能涉及数据的获取方式、渠道是否合法,内容的生成是否包含有冒犯、歧视性或者有危害社会与人身的信息,是否已经对敏感数据,如个人隐私信息等经过模糊化处理,是否构成对他人知识产权的侵犯等,都是伦理审核和审查的重点内容。参加伦理审核和审查的人员应当具备专业背景和跨学科知识,例如伦理学、计算机科学、法学、社会学等领域。伦理审核和审查应当遵循伦理价值目标,确保生成式人工智能的应用符合伦理规范。
4.制定生成式人工智能应用安全法律规范
生成式人工智能系统研究的最初目的是模拟和复制人类的智能,包括理性思维、学习和推理能力,以实现人工智能与人类的对话和交互,解决人类面临的各种问题。现今人工智能技术的发展速度已经超越了我国法律监管的速度。首先,现有法律法规缺乏前瞻性。我国现有的法律体系是根据现阶段人工智能技术的发展来开展设计的,模拟的是传统的和现代的技术演进逻辑,难以对未来人工技术发展出现的新问题予以预测。其次,法律监管难以对生成式人工智能技术规范统一。生成式人工智能较之一般人工智能技术已经表现出了跨越式的发展态势,世界各国发展水平不一,无论是电子信息设备的尖端和更新,还是人才技术实力的培养,不同国家和地区之间的差异明显,也意味着法律规范生成式人工智能技术会在不同的国家和地区会呈现巨大差异。第三,生成式人工智能技术法律规范有技术门槛。生成式人工智能技术具有很高的电子信息技术门槛,不懂计算机二进制语言的人类将被阻挡在开发程序之外,只能被动地使用或者成为开发模型中的一个互动因子,难以真正涉及核心技术。因此,制定生成式人工智能应用安全法律规范必须具有现实性与前瞻性。[14]
生成式人工智能立法的现实性是人工智能技术发展迅猛,立法需要一定的时间和程序才能制定和生效。而制定法规需要深入了解生成式人工智能的工作原理、数据使用方式和潜在风险,还要预测人工智能技术的下一次跨越式发展。这需要专业知识和跨学科、跨国家合作,还需要前瞻性的立法目标和技术。不仅如此,政府需要足够的资源和技术能力来审查算法、监控数据使用和应对安全威胁等问题。为了应对不同领域之间的专家意见不一致,不同国家之间法律冲突的问题,立法机关需要成立专门立法小组,负责把握生成式人工智能技术发展的趋势,尤其是艺术创作、医疗保健、法律、媒体等领域应用的需求,确保立法具有一定的灵活性,以适应不断变化的场景。生成式人工智能立法还应该关注到潜在的长期风险,如失业、隐私侵犯、社会不平等、歧视等,以及如何减轻这些风险,在必要时开展风险评估。最重要的是,当生成式人工智能作出具有误导或危害社会与人身安全的内容时,法律如何问责与实现权利救济。这就需要立法明确生成式人工智能应用的主体责任。开发者、使用者、数据提供者、监管者都应当作为各阶段的主体对其行为负责。对受到侵害的权利主体,立法能够及时有效地救济其权利。
5.提高公众意识和参与度
提高公众意识和参与度的目的是促进公众对生成式人工智能技术的了解、认识和参与,提高对虚假信息和偏见的辨别能力,为人工智能领域的可持续发展营造良好的社会环境和公众基础。人工智能的快速发展促使了传统工业社会生产力的更新与替代。生成式人工智能技术模拟了人类的学习方式,可以自动生成文本、绘画等各种形式的内容,一些行业已经出现了辞退人工而选择人工智能技术的现象。人工智能技术在生产领域的运用极大地减少了生产成本,但是公众对人工智能技术怀有积极探索心态的同时也抱有高度的陌生感和恐惧感。通过加强公众参与,可以让公众在人工智能相关政策的制定和评估过程中发表自己的意见和诉求,参与决策过程,从而增强公众的主体意识和民主意识,提高公众对技术发展的信任和支持。同时,也可以为人工智能技术的发展提供多方面的意见和建议,促进技术的合理性和实用性,为社会发展和人民福祉做出贡献。
6.建立伦理委员会
人工智能伦理委员会的建立是为了确保生成式人工智能的研究和应用符合社会伦理原则和法律法规,解决使用生成式人工智能所产生的道德、隐私和伦理安全问题。人工智能伦理委员会主要负责研究和制定生成式人工智能被负责任地使用,遵守伦理和法律价值目标和准则,对人工智能相关项目进行伦理审查和监督,评估数据垄断、算法歧视、数据与算法滥用、侵犯隐私、违反伦理道德、就业影响等伦理问题,发布人工智能伦理安全实践指南、人工智能伦理安全白皮书以及人工智能企业伦理安全治理优秀案例集等,引导不同类型的人工智能企业建立完善伦理安全治理制度。同时,人工智能伦理委员会还可以与政府部门、企业、研究机构等合作,共同推进人工智能伦理的研究和实践。[15]首先,明确委员会的使命和目标,包括监督和管理人工智能伦理问题,制定相关政策和规范,确保人工智能的发展符合社会价值观和道德准则。其次,委员会成员,可以由来自不同领域和背景的专家和学者来组成,如计算机科学、人工智能、伦理学、法律等领域。这些成员应当在自己研究的领域具有代表性和一定的影响力。第三,确定委员会的职责和权限,例如审查和评估人工智能产品的伦理风险,制定风险管理计划和应对措施,监督伦理政策的执行情况等。第四,建立委员会内部制度,包括决策机制、会议制度、工作程序等,以确保委员会的工作有序进行。第五,建立跟踪和反馈机制。监测生成式人工智能的使用情况,及时发现潜在的伦理问题。建立反馈机制,让用户和公众能够报告不当内容和滥用行为。
生成式人工智能技术必然引发人类社会新一轮的科技革命,也必将重塑社会的生活形态。在人类享受科技革命带来生产和生活便利的同时,人工智能技术引发的伦理风险问题迫使人们重新思考科技与人类的关系。技术嵌入缺乏伦理制约引发的道德价值偏离、数据信息的提供和选择标准不明引发的“算法黑箱”、文化偏见引发的算法歧视、基于数字化造成的社会分层、数字鸿沟都是亟待解决的人工智能伦理问题。而人类在面对出现的人工智能技术伦理风险问题面前显现出了局促,需要明确生成式人工智能伦理价值目标,增强生成式人工智能技术的透明度和可解释性,增加对生成式人工智能的伦理审核和审查,制定生成式人工智能应用安全法律规范,提高公众意识和参与度,建立伦理委员会来促进创新,确保负责任地开发人工智能技术,构建人类新的数字生态文明。