人工智能应用之技术与伦理的辩证思考

2021-01-15 22:34韩东旭
湖北第二师范学院学报 2021年12期
关键词:伦理机器人工智能

韩东旭

(华南理工大学 马克思主义学院,广州 510641)

随着大数据技术以及各种信息技术的不断突破、充分运用,人工智能技术的发展迎来了一片新的发展天地。显然,在我们工作和生活的方方面面,人工智能技术都充分渗透,并日益扮演着关键性的角色。伟大天才图灵曾经警告人们,人工智能技术的发展必然会带来重大的威胁和隐患。结合如今的种种现状来看,这位天才的警告并不是杞人忧天。我们务必在问题不断积累积累和严重之前,进行更好的处理,比如从立法上做出制度安排就是关键的一环。在人工智能技术的充分发展运用中,如今已经在司法方面表现出很多的纠纷和法律问题,比如机器人的著作权是否成立;对于人工智能技术所造成的伤害事故,怎样判定和执行。对于这些问题的处理和回答,都需要我们在法律方面、责任方面、权责划分方面,给出更加深入而细致的明确,进行更加严谨的规定。

一、人工智能时代的伦理困境

近年来,基于人工智能技术的各种产品极大地提升了人类对大自然的征服能力,建立了一种新的智能生产模式和应用模式,便利了人们生产生活,也引起了人们的担忧。很多学者认为,人工智能将在各个方面影响人类生活的同时,在很大程度上会给现有的人类伦理规范带来挑战。

(一)人工智能引发人类主体资格和权益困境

随着科学技术的不断进步,人工智能产品朝着高精尖的方向突破,智能机器可以执行的动作更为多样,他们可以完成的任务更加复杂。在一些场合下,智能机器就如同人一样,可以完成很多看似匪夷所思的、不能胜任的任务,让人们感叹技术的强大。比如人工智能技术可以快速而准确地计算、分析,可以写文章,可以画画,可以代替人们参与各种工作。在这种新的环境下,更多的人开始思考,对于人工智能到底应该如何去看待,作为人的主体?作为一种机器或者技术?或者是缺乏思考的人?而假如我们将人工智能视为人一样的主体,此时其从事的工作,就会涉及到背后的权利以及责任划分问题。相反,假如人工智能技术不具备这种主体资格,那么关于责任和权益的问题将会无从谈起。

在很多场合中,人工智能技术仅仅是工具的作用,无法进行思考以及决策,所以谈及责任的问题有一些不切实际。打一个并不是很贴切的比喻,个体利用刀来进行伤害行为,或者利用刀来杀鱼,此时背后需要负责的是人,并非是作为工具的刀。假如从这个角度思考,人工智能技术就不涉及到责任的问题,因为这是背后人的因素。但是在人工智能技术参与决策时对其责任究竟该如何判定呢?或者说,智能技术在进行一些行为时,其生产设计者或者执行者,该承担怎样的责任?对于这一问题的回答,在不同时代不同社会可能有不同的结果。而对于这一问题的分析,我们需要基于成本收益的概念进行考虑。举一个十分经典的例子:在铁路大量使用的前后,美国社会的侵权法发生了重大变化。在使用之前,车辆遇到行人前,需要让行,倘若出现交通事故,那么驾驶需要履行相应的责任。而在列车出现后,此时的规则出现了重大变化,行人需要礼让列车。假如打破了这个规则而出现了事故,那么行人自负结果。而对于这一变化也不难理解,假如作为公共交通工具的列车需要不时礼让行人,那么将会十分低效,也难以实现。所以在进行规则调整后,社会运行的效率得以提升,也更好地维护了公众的利益。因此,探讨人工智能技术的责任问题,我们需要基于成本收益的角度而非传统视角思考。

(二)人工智能引发人类主体法律责任隐忧

从法律方面来看,目前最为紧要的就是要明确人工智能技术的法律人格问题,也就是其是否具备完善的法律角色。运用人工智能技术尽管给人们创造了诸多的便利,让人们尽享技术带来的福利,但是也给我们留下了伤痛的一幕幕,不得不引人深思。比如在1978年,日本广岛一家摩托车修理企业机器人毫无预兆地转身抓住工人并造成该名工人当场死亡,这是世界上第一宗机器人杀人事件。[1]2018年美国亚利桑那州坦佩市一名49岁女性在过马路时被正在进行道路测试的优步自动驾驶SUV撞倒而不治身亡,这是世界上首例无人驾驶车撞人致死事件。[2]无论是见诸报端的新闻事实,或者是很多不为人察觉的事故,人工智能技术产生了和正在产生着方方面面的“侵权”事件。当然,出现了侵权的案例必然涉及到赔偿的问题,那么在这些事件中该如何划分责任主体呢?如今在这些问题判定上还存在不少的争议,司法方面也有空白等待填补。在侵权主体的研究上,我们需要解决好人工智能技术的法律地位问题,而对于这些问题的回答,人们已经进行了较为深入的研究,形成了多种不同的观点。代表性观点为工具说、代理人说等等。

(三)人工智能对人类的主体地位潜在挑战

如果没有伦理规范而任由人工智能技术发展,未来图景可能将是机器掌控世界。机器智能超越人类智能,机器可以在无人监督的情况下自主学习、自行决策甚至自动升级,人类的命运因此可能在很大程度上为机器所掌握。如果机器智能在功能上超越人类智能,甚至从其心智中涌现出意识和自我意识,那么人类是否会被机器消灭,取决于人类赋予机器智能的伦理架构是否能在终极意义上使智能机器遵循“机器人三定律”等伦理义务或绝对的道德命令。即使机器智能在功能上超越了人类,也不可能生成意识和自我意识,但却很可能因为人对机器的依赖越来越强,而将越来越多和越来越复杂的任务交给机器处理,最终越来越无力掌控维持人类社会运转的复杂决策和行动,而不得不逐渐将命运在事实上完全托付给机器。[3]在此不可逆的未来情境中,即便人类觉悟到不应该由机器掌控世界,也会因为对机器的高度依赖而失去主导权和主体性。

二、人工智能对人类伦理问题的原因分析

(一)算法设计忽视伦理准则

随着人工智能技术的充分发展以及运用,其对于人类社会的正面影响是显而易见的。为了使这种技术更好地造福人类,我们需要关注其引发的伦理道德问题。首先是算法问题。

算法是客观的数学计算以及表达方式。而人类不一样,具有明显的偏好以及情感诉求,也更易受到外部因素的影响。算法也有类似的情况。比如图像识别技术的使用中, 曾经将黑人设定为“黑猩猩”,比如一些聊天软件在开发中涉及到女性歧视或者种族歧视的问题。此外,算法的区分和使用可能形成一些负面的影响。比如将算法运用在一些信用评估、犯罪等场合中,此时将会对相关主体的权益形成侵犯。另一个方面来看,深度学习就属于一类“黑匣子”算法,就算是研发以及设计人员,也可能无法掌握算法将会进行怎样的决策。基于技术层面而言,对于系统以及程序中是否具有歧视等问题,是难以进行明确判定的。

为什么算法难以客观,且存在一些歧视现象?在很多情形中,算法决策体现了预测的概念,其通过数据信息来预测未来的发展方向。通过不同的算法模型以及数据信息输入,从而明确可能发生的事情、可能形成的结果。从某种角度来看,算法根本上可以理解为 “用数学或计算机代码表达的视图”。其含有设计、任务以及信息使用等,此类都是研发人员自行部署设计的。在研发环节中,相关工作人员可能有意或者无意地将一些失真信息输入到算法中。另一个角度来看,数据信息的有效性和精确性将会直接关系到算法决策效果以及最后的偏差。举例说明,数据体现了社会的实际情况,训练数据自身存在一定的差异。通过一些训练的过程,此时人工智能技术将会具有一定歧视倾向。在一些案例中,数据信息可能存在偏误或者不完整的情况。显然,假如人工智能技术系统是多数的,那么必然对一定主体的利益形成侵犯。此外,具有自学习等特征的算法,在交互环节中可以得到良好运用。在和实际场合进行互动时,人工智能系统可能难以区分是否存在歧视情况。

此外,算法更强调进一步区分。这说明区别、差异自身就存在于算法中。在进行决策的过程中,可以通过历史的信息来预测未来。因此将错误的输入部分设定为相应的反馈,此时形成的错误问题将会更加严重。所以前面的区分合并在相应的算法中会不断得到强化。在最后,算法决策除了会引进一些以往的歧视性做法,同时还会基于实际,获得 “自我实现的歧视性反馈回路”,将其运用到犯罪风险评估等各种问题场合中。最后,算法决策对于未来的想象是较为缺乏的。但是我们社会的发展,务必要得到想象力的支撑。如今以深度学习为代表的很多人工智能技术,基本都是从海量的数据信息中进行学习,很多算法的运行也离不开数据信息。伴随着各种信息技术的使用,智能技术的应用涉及到更为严重的数据保护的问题。这是因为,在深度学习的环节中将会运用很多敏感的数据信息,此时对于隐私保护将会有一定的负作用。此外,不同系统以及平台之间的数据信息交互造成信息技术持续流动,使人们更难管理、控制数据。尽管有一些技术来做改善隐私管理,比如匿名化设计,但是我们仍然需要思考很多问题,比如技术和伦理的关系认定。

(二)人工智能与人类关系不明确

人工智能与人的关系问题在人工智能研究之初就受到了高度重视,但是各抒己见最终并没有明确。人工智能是人类创造出来的与人类具有高度相似性的智能体,这种智能体不同于人类创造出来的非智能机器,它具有很多曾经被认为仅有人类才有的能力。例如,人工智能具有非常强的逻辑推理能力,在很多情形下能够代替人类做出决策。人工智能也能够对各种机器进行自如的操控;人工智能还能够理解人类的自然语言,并做出类似于人类的响应。这些特征给人工智能与人类关系问题带来了伦理挑战,如人工智能的身份问题、情感问题、命令与服务问题等。程素梅、张帆等人指出:“网络数据被转移和操控,智能机器人被使用,自媒体的广泛宣传效应……这说明无论是在个人层面、社会层面还是国家层面,都打开了有关隐私和匿名议题的潘多拉魔盒。物联网创造了把人、物和自然界联系起来的网络,也引发了一系列亟待解决的伦理问题、社会问题甚至法律问题。技术上的可能性不意味着伦理上的必然性,哲学上的反思和预见会让人工智能的发展少走很多弯路。”[4]81

三、对于人工智能技术与伦理冲突的辩证思考

依照目前人类社会的科技水平和社会发展趋势,我们的社会离不开人工智能技术,很多领域都需要人工智能技术的充分发展,包括一些领域也呼唤着人工智能产品能够代替人类完成精确而高难度的工作,这样可以规避我们的一些伦理问题。比如2011年3月11日的日本9.0级地震海啸引发了福岛核泄漏事件,如果人类能够在案发第一时间进入一号发电站的灾难现场,关闭1号机组的运行电源,就可以在很大程度上降低这场灾害的严重性。但是由于强大的核辐射人类无法完成这个任务。这个时候,如果有能够完成这项任务的机器人存在,就不用人类去冒被严重辐射的风险,也不用承担牺牲生命乃至家庭的伦理压力。

那么怎样更好地协调人工智能技术和伦理之间矛盾呢?其实最为重要的一点是不能把人工智能技术和伦理割裂开来,要把二者作为一个整体,在伦理标准之下去推动人工智能技术的发展,在人工智能的发展中去完善伦理。

首先,对算法设计要有严格的伦理标准和严格的监管制度,避免执行过程中引发道德问题。这里涉及到的监管,人们提出算法需要更加公开和透明,注重共享。道德理解不能通过计算来建模,“我们近切需要反思人工智能及算法嵌入的偏见,以改善人工智能及算法决策的公平性;我们也需要考虑要由谁为可能发生的人工智能及算法决策嵌入的偏见负上道德责任。”[4]190-191实际上,通过这样的部署和设计,并不能取得良好的效果。一方面,如今的很多算法设计都较为复杂,难以理解,所以其开放和透明依然无法被人们认识。所以想要通过一般大众对算法进行监管,几乎是天方夜谭。另一方面,如今的算法属于关键竞争力构成部分,所以要求开放和透明是不合理的,也会影响到企业等组织的权益实现。对于生产者、设计者设计生产均无问题,销售者、使用者也无任何过错的行为,如果智能设备自身出现问题,此时假如继续沿用 “技术中立”的准则,那么对于利益受损者而言是不公平的,也不利于维护社会的稳定。在这一问题上,欧洲国家的一些立法给我们带来了积极的参考。欧洲国家在其立法体系中,为了更好地转移生产者的赔偿负担,从国家财政、生产者以及社会组织等多个层面出发,欧州国家创建相应的基金。[5]不过这种方法也有不足。在生产设计者并无过错的情况下,其赔偿责任将会无从谈起。而强制保险或赔偿基金就是为了防止这种意外事件或一些不可抗力因素,保障相关主体的权益。不过,这些资金不应仅来源于上列的几个主体的,销售方以及使用方也需要承担相应的责任。结合危险性开启理论,销售者或者是使用者需要面临相应的责任。

其次,为了使人工智能与人类价值观兼容,我们可以尝试设计和遵守以下三项原则:一是利他主义,即人工智能的唯一目标是实现人类价值的最大化;二是不确定性,即人工智能一开始不确定人类价值是什么,只有通过不断地学习,才能对人类的价值做出判断;三是考虑人类的行为,并根据人类的行为,对人类的价值做出评估与判断,即人类行为提供了关于人类价值的信息,从而帮助机器人确定什么是人类所希望的价值。问题的关键是第三项原则,即机器如何根据人类提供的信息确定其目标,从而实现第一项原则。

第三,我们需要明确并深刻理解,技术的发展必然是为社会的长远进步而服务的,不要抵制科技的进步。在经济学层面上,规制理论有历史和现实的差异。传统的观点认为过去的规制需要在完全信息的情形下进行,对于相关活动行为保持直接干预。不过在当今的条件下,我们往往不需要直接干预,而是需要基于一定的限制条件间接对人们的行为进行管理。举个容易理解的例子:比如家里电灯坏了请人帮忙换灯泡,房主在旁边保持观察,便于出现错误行为时就进行调整。但是如此一来,一个人安装一个人监督,等于付出了两个人的人力——这就体现了旧规制主义的逻辑,其需要付出很高的成本,还不利于提高效率。还有一种逻辑思路是,给与安装灯泡的人更多的自由,告诉对方无论过程如何,最后一定要换好,否则将会追究对方的责任。此时,安装灯泡的人和房主之间是相同的立场,都有相同的目标,此时就发挥了惩罚机制的作用。监管算法在某种程度上就和换灯泡故事相似。人工智能并不知道人怎样进行决策和思考,但是可以设定合理的激励机制,对其进行引导,让其行为和人们的需求保持一致。其实,人的思维和决策也属于算法,不过其更加复杂,更具有主观性而已。所以,人工智能技术好比我们所熟悉的“理性人”的概念。既然新规制理论的方法对人都能管用,那么它对技术也会具有相应的效果。

四、结语

技术自身是中立的,不过人工智能技术运用将会运用因为背后主体的立场和诉求,从而表现出一定的偏向性。在人工智能技术设计思想和伦理观存在矛盾冲突时,就出现了相应的应用伦理问题。人工智能产业的长远稳定发展,除了需要设定相应的技术标准,同时需要从伦理等角度进行思考。当下,越来越多的国家和地区关注这一问题,并作出了一些富有探索意义的努力,建立了相应的人工智能标准体系。尽管社会的进步离不开技术的支撑,不过技术并非是十全十美的,也难以化解各种社会问题。人工智能技术的发展,也衍生了一些问题。假如人工智能技术的大量运用,对于人们的自由、全面发展以及社会秩序带来负面影响,甚至让原有的社会陷入一片混乱,此时我们使用新技术的目的是什么?技术的发展应为社会的长远进步服务,并非是一时的利益或者便利。假如技术的开发运用,逐渐将人们引向异化,那么人自身的发展就会面临严重的自我否定。这样的技术发展也是没有意义,缺乏生命力的。在未来,人工智能技术领域将会迎来新的创新与发展。“人工智能的伦理”作为一种全新的概念,需要得到更为完善的发展,需要给与更多的引导和规范,需要人们对此高度关注。基于伦理实践的角度思考,考虑到伦理原则规范体系的抽象性,往往难以通过一般规范或者简单的代码设计来处理。在人工智能伦理研究的四种进路中,惟有从面向应用场景的描述性研究入手,做好主体责任的划分与权利的维护问题,才能促进人工智能技术的健康运用以及长远发展。总之,我们需要立足于作为“有限自主与交互智能体”的人工智能和机器人的现状与发展,同时重视人机交互问题,基于“心理-伦理-社会”的分析思路,把握各种智能体在其应用的现实和虚拟场景中呈现出的具体的自主性和交互性特质,进而在具体的场景中更好地进行规范和设计,赋予其在价值以及伦理方面的更多正当性。这样,才能有利于在动态的、未来的场景中达成伦理共识。

猜你喜欢
伦理机器人工智能
《心之死》的趣味与伦理焦虑
机器狗
机器狗
灵长类生物医学前沿探索中的伦理思考
护生眼中的伦理修养
2019:人工智能
人工智能与就业
未来机器城
伦理批评与文学伦理学
数读人工智能