大学生对人工智能的道德意识:以日本立命馆亚洲太平洋大学为例 *

2022-05-11 13:48纳德戈比等危红波
国外社会科学前沿 2022年5期
关键词:伦理机器人人工智能

纳德·戈比等/文 危红波/译

一、引 言

诸如基因编辑、纳米技术和人工智能等新技术可能会带来新的应用,但其伦理意义在以前从未被研究过。人工智能是一种快速发展的技术,在社会中有着广泛的应用,这导致我们关注人们是否意识到这些应用的相关细微差别。虽然人工智能专家可能会讨论和辩论围绕人工智能使用的规范性政策和法规,但公民社会可能会因为技术信息不对称和对未来可能性的认识而落后。因此,我们设计这项研究是为了考察知识青年对人工智能使用相关道德问题的认识水平。人工智能中的道德问题,通常和有益与有害、正义与公平、道德代理与动机以及透明度等伦理原则相关。1Paula Boddington, Towards a Code of Ethics for Artificial Intelligence, Cham: Springer, 2017, https:// doi.org/10.1007/978‐3‐319‐60648‐4.人工智能的好处来自它通过分析大量数据、优化流程、提高效率和生产力产生新见解和知识的方式,这也会带来经济效益和社会财富,并可能有助于环境可持续性。2Bernd C. Stahl, Josephina Antoniou, Mark Ryan, Kevin Macnish and Tilimbe Jiya, Organisational Responses to the Ethical Issues of Artificial Intelligence, AI & Society, 2021, https://doi.org/10. 1007/s00146‐021‐01148‐6.然而,这些益处产生了某些需要理解和控制的风险。3Tan Yigitcanlar, Kevin C. Desouza, Luke Butler and Farnoosh Roozkhosh, Contributions and Risks of Artificial Intelligence (AI) in Building Smarter Cities: Insights from a Systematic Review of the Literature, Energies, vol. 13, no. 6, 2020,p. 1473, https://doi.org/10.3390/en13061473.Floridi等人提到了人工智能使用不足(机会成本)和误用或过度使用的风险,包括“贬低人类技能、消除人类责任、减少人类控制和侵蚀人类自决权”4Luciano Floridi, Josh Cowls, Monica Beltrametti, Raja Chatila, Patrice Chazerand, Virginia Dignum, et al. AI4People,an Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations, Minds & Machines, vol.28, no. 4, 2018, pp. 689‐707, https://doi.org/10.1007/ s11023‐018‐9482‐5.。Bossman列出了人工智能中9个潜在的道德问题,包括:失业、不平等、对人类行为和互动的影响、犯错误、种族主义和偏见、安全威胁、恶意行为、失去人类控制和机器人权利。5Julia Bossman, Top 9 Ethical Issues in Artificial Intelligence, World Economic Forum, Oct. 2016, https://www.weforum.org/agenda/2016/10/top‐10‐ethical‐issues‐in‐artificial‐intelligence/.Stahl等人最近的一次审查提到了以下方面:透明度、问责制、隐私和个人自由的丧失;滥用、错误、偏见和歧视的可能性;对弱势群体、就业、安全、民主和人性的影响;自主机器的兴起,可能还有机器意识的兴起。6Bernd C. Stahl, Josephina Antoniou, Mark Ryan, Kevin Macnish and Tilimbe Jiya, Organisational Responses to the Ethical Issues of Artificial Intelligence, AI & Society, 2021, https://doi.org/10. 1007/s00146‐021‐01148‐6.本文简要回顾人工智能的10个特定伦理问题。

(一)失业

Wilkinson和Marmot提到了工作的社会、心理和健康益处,因为人工智能而失去这些好处可以被认为是伦理上的伤害。7Richard G. Wilkinson and Michael Marmot, Social Determinants of Health: The Solid Facts, International Centre for Health & Society, 2003, https://www.euro.who.int/en/publications/abstracts/social‐ determinants‐of‐health‐the‐solid‐facts.Mainichi说,保险公司将其人力员工的工作转移给IBM日本有限公司的Watson,这是一个人工智能系统,具有“可以像人一样思考的认知技术”。8Mainichi, Insurance Firm to Replace Human Workers with AI System, Dec. 2016, https://mainichi.jp/english/articles/20161230/p2a/00m/0na/005000c.因此,由于人工智能系统的替代,一些失业可能已经发生或正在发生。然而,自工业革命以来的任何新技术都导致了就业市场的变化,人工智能对就业的整体影响是复杂的,因为某些工作风险更大,例如在可预测的环境中涉及高度重复或结构化行为的工作。1Paula Boddington, Towards a Code of Ethics for Artificial Intelligence, Cham: Springer, 2017, https:// doi.org/10.1007/978‐3‐319‐60648‐4.另一方面,需要与人互动、使用社交智能、创造力和聪明的解决方案以及在不可预测的环境中的那些工作更不容易被人工智能所影响。2Max Tegmark, Life 3.0: Being Human in the Age of Artificial Intelligence, New York: Knopf, 2017.Walsh指出,人工智能专家认为人工智能对就业的影响比非专家认为的要晚几十年,从而使人们能够适应就业市场的变化。3Toby Walsh, Expert and Non‐expert Apinion about Technological Unemployment, International Journal of Automation and Computing, vol. 15, no. 5, 2018, pp. 637‐642, https://doi.org/10.1007/ s11633‐018‐1127‐x.

(二)情感人工智能

这包括:第一,人工智能技术对人类情感的觉察和感知;第二,机器人对人类情感的影响以及机器人的情感和权利。前者是一个在“隐私”下讨论得更好的问题,而后者在日本一直是一个热门话题。Ozawa报道了许多机器人在日本的成功销售,这些机器人吸引了日本客户的情感,例如“健谈”查理(来自雅马哈)、“类人”机器人罗宾汉(夏普)、“狗”机器人艾博(索尼)、“友好”胡椒(软银)、“宠物”Qoobo(Yukai Engineering公司)和“温馨”机器人Lovot(Groove X公司)。4Harumi Ozawa, Robot Pets Help Ease Virus Isolation in Japan, Japan Times, Mar. 2021, https://www.japantimes.co.jp/news/2021/03/04/national/social‐issues/robots‐virus‐isolation/. Accessed 31 Jul 2021.日本文化中流行的观点解释了日本对机器人的这种情感兴趣,即物体也可以有灵魂,日本客户对机器人的“特征”感兴趣,而不仅仅是其机械功能。有人可能会说机器的情感是假的,而人类的情感是真实的。然而,有人可能会回应说,人类在社会环境中的情感也通常是伪造的,情商(EQ)的概念是读懂他人表达的情绪并以“适当”方式做出反应的能力。5Marina Fiori and Ashley K. Vesely‐Maillefer, Emotional Intelligence as an Ability: Theory, Challenges and New Directions, in Kateryna V. Keefer, James D. A. Parker and Donald H. Saklofske (eds.), Emotional Intelligence in Education:Integrating Research with Practice, Cham: Springer, 2018, pp. 23‐47, https://doi.org/10.1007/978‐3‐319‐90633‐1_2.换句话说,假装的情绪和真实的情绪一样实用。此外,未来智能机器人是否应该被赋予某种形式的情感权利的问题,关键取决于它们是否会有意识,是否会主观地经历悲伤或感到快乐和有其他情绪。6Max Tegmark, Life 3.0: Being Human in the Age of Artificial Intelligence, New York: Knopf, 2017.

(三)人工智能错误

人工智能安全问题是一个很好的例子,可以证明风险与效益评估的复杂性。Leslie制定了一份指南,帮助识别人工智能系统造成的潜在危害,并提出了通过负责任的创新和治理来预测和预防这些危害的实际措施。他建议人工智能系统的实施应以人为中心,强调基于证据的推理、情境意识和道德公正性。7David Leslie, Understanding Artificial Intelligence Ethics and Safety: A Guide for the Responsible Design and Implementation of AI Systems in the Public Sector, SSRN 3403301, 2019, https://doi.org/10. 2139/ssrn.3403301.自动驾驶汽车犯下的错误已经被公开,不可预测性和机器自主性的问题似乎降低了公众对人工智能使用的信任程度。8Fahad Alaieri and André Vellino, Ethical Decision Making in Robots: Autonomy, Trust and Responsibility, in Arvin Agah, John‐John Cabibihan, Ayanna M. Howard, Miguel A. Salichs and Hongsheng He (eds.), Social Robotics, ICSR 2016,Lecture Notes in Computer Science, vol. 9979, Cham: Springer, 2016, https://doi.org/10.1007/978‐3‐319‐47437‐3_16.人工智能错误的责任在医疗领域尤为重要。O’Sullivan等人研究了人工智能在机器人手术中的应用,将责任划分为问责、责任和罪责;机器人在监督人类外科医生确保接受手术的患者免受潜在灾难方面起着关键作用。1Shane O’Sullivan, Nathalie Nevejans, Colin Allen, Andrew Blyth, Simon Leonard, Ugo Pagallo, et al. Legal,Regulatory, and Ethical Frameworks for Development of Standards in Artificial Intelligence (AI) and Autonomous Robotic Surgery, International Journal of Medical Robotics and Computer Assisted Surgery, vol. 15, no. 1, 2019, p. e1968, https://doi.org/10.1002/rcs.1968.

(四)人工智能对社会的控制

西方媒体和文献通常描述关于自主机器人的不当行为及其用于社会控制的可怕场景。2Yuhua Liang and Seungcheol A. Lee, Fear of Autonomous Robots and Artificial Intelligence: Evidence from National Representative Data with Probability Sampling, International Journal of Social Robotics, vol. 9, no. 3, 2017, pp. 379‐384,https://doi.org/10.1007/s12369‐017‐0401‐3.3Baobao Zhang and Allan Dafoe, Artificial Intelligence: American Attitudes and Trends, SSRN 3312874, 2019, https://doi.org/10.2139/ssrn.3312874.然而,日本社会展示了机器人的正面形象和他们的性格,机器人在家庭和工作场所都被接受为人类的伙伴;日本政府提倡使用“社交”机器人来改善老龄化社会的问题,特别是年轻劳动力数量的减少,以取代那些退休的劳动力。4Cosima Wagner,‘ The Japanese Way of Robotics’: Interacting‘ Naturally’ with Robots as a National Character?Proceedings of the 18th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), pp. 510‐515, https://doi.org/10.1109/roman.2009. 5326221.这些例子与人工智能用于监视和控制其他地方的人群形成了鲜明对比。5Alina Polyakova and Chris Meserole, Exporting Digital Authoritarianism: the Russian and Chinese Models, Washington DC: Brookings Institute, 2019, https://www.brookings.edu/research/exporting‐digital‐authoritarianism/.例如在俄罗斯,当权者使用多种工具对数字社会空间进行行政控制,作为“现代政策管理替代方案”6Oleg M. Mikhaylenok and Galina A. Malysheva, Political Effects of Social Media in Russia, Sociological Research, vol.2, 2019, pp. 78‐87, https://doi.org/10.31857/S013216250004012‐6.。Hagerty和Rubinov的广泛文献回顾阐明了全球范围内人工智能用于社会控制的几种模式,并表明中低收入国家更容易受到人工智能的负面社会影响,同时也不太可能从中受益。7Alexa Hagerty and Igor Rubinov, Global AI Ethics: A Review of the Social Impacts and Ethical Implications of Artificial Intelligence, arXiv, 2019, 1907.07892v1.http://arxiv.org/abs/1907.07892.

(五)不平等加剧

除非人工智能创造的财富中有一小部分被重新分配,让每个人都过得更好,否则不平等可能会大幅加剧。8Anton Korinek, Joseph E. Stiglitz, Artificial Intelligence and Its Implications for Income Distribution and Unemployment, in Ajay Agrawal, Joshua Gans and Avi Goldfarb (eds.), The Economics of Artificial Intelligence: An Agenda,Chicago: University of Chicago Press, 2019, pp. 349‐390.与劳动力相比,人工智能可以增加资本在经济中的份额,并增加某些受过高等教育/技术人员群体的收入,同时使其他人更难谋生。9Ajay Agrawal, Joshua Gans and Avi Goldfarb, Economic Policy for Artificial Intelligence, Innovation Policy and the Economy, vol. 19, 2019, pp. 139‐159, https://doi.org/10.1086/699935.因此,除非出台新的政策,如对资本征税和全民基本收入,否则社会中的经济差距可能会扩大。

(六)歧视和偏见

Ntoutsi等人详细解释了数据收集和处理中遇到的问题,如何可能导致人工智能对种族和性别等人类特征做出有偏见的决定;他们在文献中提供了许多种族和性别歧视实例的参考资料。他们认识到人类社会深受根深蒂固的偏见之苦,而这些偏见仅靠技术解决方案是无法消除的;还需要采取包括社会和法律救济措施在内的多学科办法,以避免偏见。1Ntoutsi, Eirini, Pavlos Fafalios, Ujwal Gadiraju, Vasileios Iosifdis, Wolfgang Nejdl, Maria‐Esther Vidal, et al. Bias in Data‐driven Artificial Intelligence Systems ‐ an Introductory Survey, WIREs Data Mining and Knowledge Discovery, vol. 10,no. 3, 2020, p. e1356, https://doi.org/10.1002/widm. 1356.

(七)隐私

政府利用人工智能在家中和公共场所通过大规模数据收集监视全球公民,引发了严重的伦理问题,但通常出于安全需要而被证明是合理的。2Christoph Bartneck, Christoph Lütge, Alan Wagner and Sean Welsh, Privacy Issues of AI, An Introduction to Ethics in Robotics and AI, Cham: Springer, 2021, pp. 61-70, https://doi.org/10.1007/ 978‐3‐030‐51110‐4_8.私人公司和企业也侵犯公民的隐私,以促进广告、营销和销售,理由是这是人工智能系统发挥更好性能的基础。使用心理和情感人工智能技术有助于操纵和利用人类用户,并侵蚀他们的隐私权。

(八)恶意人工智能

人工智能可以用来伤害人的身体。King等人对有关人工智能犯罪可预见威胁的文献进行了系统的跨学科分析。3Thomas C. King, Nikita Aggarwal, Mariarosaria Taddeo and Luciano Floridi, Artificial Intelligence Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions, Science and Engineering Ethics, vol. 26, no. 1, 2020, pp. 89‐120, https://doi.org/10.1007/s11948‐018‐00081‐0.人工智能犯罪是指利用人工智能技术促进犯罪行为,如针对社交媒体用户的自动欺诈和操纵模拟金融市场。Pantserev解释了人工智能通过合成人造图像进行心理战的“深度造假”4Konstantin A. Pantserev, The Malicious Use of AI‐based Deepfake Technology as the New Threat to Psychological Security and Political Stability, in Hamid Jahankhani, Stefan Kendzierskyj, Nishan Chelvachandran and Jaime Ibarra (eds.),Cyber Defence in the Age of AI, Smart Societies and Augmented Humanity, Cham: Springer, 2020, pp. 37‐55, https://doi.org/10.1007/978‐3‐030‐35746‐7_3.。人们只能预期,未来有组织犯罪将更广泛地使用具有恶意意图的人工智能。这给我们带来了下一个伦理问题,即人工智能系统在安全漏洞面前的脆弱性。

(九)安全风险

Yigitcanlar等人提到了针对智慧城市人工智能基础设施的几次网络攻击。这些攻击导致智慧城市的通信系统(电话和电子邮件)、执法、垃圾处理、能源和支付系统出现了巨大的功能障碍。市议会经常不得不向那些破坏安全系统的人支付赎金,或雇用外部网络安全和咨询公司来处理这种情况。人工智能系统的实施,似乎为犯罪分子利用其漏洞和对社区造成更大损害创造了新的机会。5Tan Yigitcanlar, Kevin C. Desouza, Luke Butler and Farnoosh Roozkhosh, Contributions and Risks of Artificial Intelligence (AI) in Building Smarter Cities: Insights from a Systematic Review of the Literature, Energies, vol. 13, no. 6, 2020,p. 1473, https://doi.org/10.3390/en13061473.

正如本文简要解释的那样,在实施基于人工智能的技术之前,需要考虑各种各样的道德问题。这些问题正在迅速发展,而且似乎很严重,但要理解它们的严重性,就需要了解人工智能系统的技术知识。因此,我们决定在日本的一所国际大学进行一项调查,以研究大学生(日本人与非日本人)对人工智能的道德意识,并了解教育系统在多大程度上促进了他们对人工智能道德问题的理解。这项研究是在立命馆亚洲太平洋大学(APU)完成的,该大学有大约5700名学生,其中几乎54%的学生是日本人,46%的学生不是日本人。考虑到日本是机器人技术发展的先驱,其不断减少的人口和劳动力将需要更广泛地使用人工智能技术来替代人力,这种环境提供了一个机会来检验日本学生的回答与其他国家学生的回答之间是否存在有意义的差异。在我们发表了一项针对较小样本学生的情感分析研究后,当前的研究集中在人工智能的伦理问题上。1Nader Ghotbi, Manh Tung Ho and Peter Mantello, Attitude of College Students towards Ethical Issues of Artificial Intelligence in an International University in Japan, AI & Society, 2021, https://doi.org/10.1007/s00146‐021‐01168‐2.

二、研究方法

在大教室里参加基础生物伦理学课程的大学生中,我们要求学生在一项关于人工智能伦理学的研究中进行合作。我们向他们提出调查问题,并要求他们将答案上传到数据库。在478名学生中,有11名学生选择不配合调查,因此我们可以在一个月后收集467(97%)份回复。调查对象包括152名(33%)日本学生和315名(67%)非日本学生,主要来自中国、韩国、越南、泰国、印度尼西亚、乌兹别克斯坦、蒙古、印度、孟加拉国,还有少数来自其他几个国家。调查问题如下:

人工智能有可能在未来引发许多伦理问题。以下哪个是你认为最重要的,并解释为什么:人工智能对社会的控制、人工智能歧视或偏见、人工智能对人类行为和情感的影响、人工智能加剧不平等、人工智能错误、人工智能安全风险、隐私的丧失、恶意的人工智能、机器人的权利和情感、失业。

我们要求对所选伦理问题进行解释的理由是为了激发学生的反思,降低他们冲动选择某一项的可能性。通过此次调查,有许多研究问题需要探究。例如,知识青年对人工智能技术可能被滥用的道德敏感性是否存在性别和国籍差异?随着人工智能应用程序越来越多地被用于各种目的来快速处理个人数据,他们中的许多人担心隐私的丧失吗?他们更担心的是人工智能被试图通过人工智能控制社会的威权政府所利用,还是未来他们在求职时可能不得不与人工智能竞争?调查的回答是从数据库中收集的,并逐一检查,以确认选择的伦理问题,并寻找与基本人口特征的相关性。

三、调查结果

在回答调查问题的467名学生中,有152名(33%)日本学生和315名(67%)非日本学生;女性236人(50.5%),男性231人(49.5%);一年级52人(11%),二年级134人(29%),三年级164人(35%),四年级112人(24%);5名学生(1%)在其大学生涯的第五年或第六年。至于年龄,所有受访者都在19~24岁之间。这些书面文章的长度各不相同,但大多在1100字左右。文章包括基于他们所看到、阅读或听到的材料的各种论点和推理,以解释为什么他们选择的主题是人工智能的一个重要道德问题。学生选择哪个伦理问题最重要的结果如表1所示。

表1. 大学生对未来AI中最重要的伦理问题的反应

如表1所示,在人工智能可能引发的十大伦理问题中,该样本中大学生最普遍的担忧是失业(no=269,约58%)。下一个最常见的问题是情感人工智能问题,包括人工智能对人类行为和情感的影响,以及机器人的权利和情感(no=54,约12%)。失业和情感人工智能一共代表了70%的学生的担忧,剩下的30%体现在人工智能控制社会、人工智能歧视、不平等加剧、隐私丧失、人工智能错误、恶意人工智能和安全风险。接下来,我们研究了在选择特定道德问题的学生比例和他们的性别以及不同国籍学生之间观察到的差异大小的统计显著性。比较两种比例的z分数公式为:

关于选择人工智能控制社会的日本学生与非日本学生的比例差异,z值为-3.1276,结果在p<0.01时显著。关于日本学生与非日本学生选择歧视的比例差异,z值为2.2757,结果在p<0.05时显著。关于选择失业的男女学生比例的差异,z值为-2.6108,结果在p<0.01时显著。关于选择歧视的女生与男生比例的差异,z值为2.4333,结果在p<0.05时显著。在收集的数据中所见的所有其他差异在p<0.05时统计不显著。这些结果支持了另一种假设,即日本学生比非日本学生更少关注“人工智能对社会的控制”,但更多的日本学生关注“歧视”,这也是女生更普遍关注的问题,而她们比男生更少关注“失业”。

四、对结果的讨论

目前的研究建立在我们早期的工作基础上,我们使用文本情感分析,重点关注调查对象对人工智能问题的情绪反应。1此处原文未提供引用。——译者注这项工作在几个方面是不同的:首先,我们参考了最近发表的文章,回顾了人工智能的伦理方面,增加了隐私作为一个重要的道德问题。其次,我们使用定量方法为两个新的结论提供证据。一个结论是日本受访者对社会控制风险的担忧明显不足。在文献综述中,我们发现只有一篇论文讨论了日本社会伦理的这一方面。2Cosima Wagner, ‘The Japanese Way of Robotics’: Interacting ‘Naturally’ with Robots as a National Character?Proceedings of the 18th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), 2009, pp.510‐515, https://doi.org/10.1109/roman.2009. 5326221.另一个结论是,日本人和女性受访者比非日本人更关注歧视,这是日本普遍存在的性别歧视问题的另一个证据。

在这项研究中,无论是日本人还是非日本人,无论是男性还是女性,大学生最关心的是与人工智能使用相关的可能失业问题。然而,这种担忧在男性中更为普遍。造成这种差异的原因可能有几个。这可能是因为亚洲文化中的男性认为就业对他们的生计更重要,或者更多的女性关注人工智能的其他伦理问题,比如工作中的歧视问题。3Hiromi Hara, The Gender Wage Gap Across the Wage Distribution in Japan: Within and between Establishment Effects,Labour Economics, vol. 53, 2018, pp. 213‐229, https://doi.org/10.1016/j.labeco.2018.04. 007.4Jonathan Peillex, Sabri Boubaker and Breeda Comyns, Does it Pay to Invest in Japanese Women? Evidence from the MSCI Japan Empowering Women Index, Journal of Business Ethics, vol. 170, no. 3, 2019, pp. 595‐613, https://doi.org/10.1007/s10551‐019‐04373‐8.正如引言部分简要解释的那样,尽管失业是未来的一个主要问题,但人工智能专家认为还需要几十年的时间才能看到对就业的巨大影响,5Toby Walsh, Expert and Non‐expert Opinion about Technological Unemployment, International Journal of Automation and Computing, vol. 15, no. 5, 2018, pp. 637‐642, https://doi.org/10.1007/ s11633‐018‐1127‐x.而人工智能的某些用途已经造成了严重的道德问题。因此,女生对其他道德问题的兴趣显著提高,这可能反映出她们对当前社会问题,特别是性别歧视的认识有所提高。这也增加了一种可能性,即他们的性别歧视经历可能已经扩展到他们对未来人工智能风险的担忧。

学生们最关心的第二个问题是情感人工智能,包括人工智能对人类情感的影响以及机器人自身的权利和情感。但是,对机器人的情感及其权利的关注是真正的伦理关注吗?未来的智能机器人会有意识并能感受悲伤、快乐和有其他情绪吗?从生命伦理学的角度来看,拥有意识的必要条件包括成为一个有生命的东西,而不是像岩石这样的无生命的东西,以及活的和可唤醒的,而不是死的。人工智能系统是否有可能在未来获得意识,而目前只有生物被假定是有意识的?我们之所以说“假定”,是因为意识是一种“主观”意识,是对“主体”周围环境的感知。人类可以与他人分享自己的主观意识和观念,从而了解其特征,但他们如何确定动物、植物和更简单的生物的意识水平呢?生物学在某种程度上可能有助于克服这一障碍;意识依赖于一个身体系统来感知和理解主体外部的环境,而主体外部的环境主要是植物和更简单的生命形式中的化学物质,以及包括人类在内的动物中的“神经化学物质”。神经化学一词意味着神经细胞的神经活动和神经递质的化学活动都参与其中。人类似乎有更高的意识水平,因为他们的神经系统更为复杂,特别是大脑皮层,它发展了高度的自我意识,这依赖于个人记忆、个人特征(习得的行为方式)、个人需求和选择,认识到与其他人相比的个人差异。这些结合在一起,使人们能够特别关注自我,可以称之为自我意识。“非生命”人工智能系统能获得自我意识吗?对于意识的存在,生命的要素有多重要,而人工智能预计在未来将拥有一个复杂的类似人类的大脑?人工智能是否需要像活人一样有主观的情感才能拥有意识?如果是这样,电子人是否有可能成为构建人工意识道路上的中介?对于这些问题,我们没有明确的答案,这将是我们不认为机器人的权利和情感是首要关注的问题的一个很好理由。

机器人对人类情感的可能影响是一个正在研究的课题。研究人员迄今发现,人类对机器人情感的识别并不是自动发生的,需要的不仅仅是物理模仿,而是当人类用户期望机器人表达情感时,尤其是当机器人同时使用声音和动作进行交流时,可能会发生这种情况。1Katie Winkle and Paul Bremner, Investigating the Real World Impact of Emotion Portrayal through Robot Voice and Motion, Proceedings of the 26th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN),2017, pp. 627‐634, https://doi.org/10.1109/ ROMAN.2017.8172368.与此同时,科学电影描述了未来机器人表达情感并与人类建立情感关系的各种场景。2D. Lorenčík, M. Tarhaničová and P. Sinčák, Influence of Sci‐Fi Films on Artificial Intelligence and Vice‐versa,Proceedings of the IEEE 11th International Symposium on Applied Machine Intelligence and Informatics, 2013, pp. 27‐31,https://doi.org/10.1109/SAMI.2013.6480990.3Damian Schofeld, Digital Emotion: How Audiences React to Robots on Screen, Computer Applications, vol. 5, no. 1,2018, pp. 1‐20, https://doi.org/10.5121/caij.2018.5101.我们的调查结果表明,这类电影对调查结果的影响可能比调查这类情况的研究人员迄今为止提供的真实信息更大。这一结果并不出人意料,因为通过媒体和电影传播的流行文化可能在塑造年轻人的观点方面发挥更大的作用,而这些年轻人大多没有遇到过真正的机器人。关注不平等加剧(5%)、隐私丧失(4%)、人工智能错误(3%)、恶意人工智能(3%)和人工智能安全漏洞(3%)的学生人数和百分比太少。然而,其中一些问题在伦理上至少与就业同等重要。将人工智能用于社会控制的可能性就是此类问题之一,我们参考了许多记录了人工智能滥用的研究。4Samantha Hoffman, Managing the State: Social Credit, Surveillance and the CCP’s Plan for China, in Nicholas D.Wright (ed.), AI, China, Russia, and the Global Order: Technological, Political, Global, and Creative Perspectives, 2018, pp.42‐47, http://nsiteam.com/social/wp‐content/uploads/2019/01/AI‐China‐Russia‐Global‐WP_FINAL_ for copying_Edited‐EDITED.pdf.5Alexa Hagerty and Igor Rubinov, Global AI Ethics: A Review of the Social Impacts and Ethical Implications of Artificial Intelligence, 2019, arXiv, 1907.07892v1.http://arxiv.org/abs/1907.07892.6Oleg M. Mikhaylenok and Galina A. Malysheva, Political effects of social media in Russia, Sociological Research, vol. 2,2019, pp. 78‐87, https://doi.org/10.31857/S013216250004012‐6.7Alina Polyakova and Chris Meserole, Exporting Digital Authoritarianism: the Russian and Chinese Models, Washington DC: Brookings Institute, 2019, https://www.brookings.edu/research/exporting‐digital‐authoritarianism/.8Dean Curran and Alan Smart, Data‐driven Governance, Smart Urbanism and Risk‐class Inequalities: Security and Social Credit in China, Urban Studies, vol. 58, no. 3, 2021, pp. 487‐506, https://doi.org/10.1177/ 0042098020927855.然而,与非日本学生相比,日本学生明显较少关注社会控制。这可以用日本社会对机器人的独特地位来解释。1Cosima Wagner, ‘The Japanese Way of Robotics’: Interacting ‘Naturally’ with Robots as a National Character?Proceedings of the 18th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), 2009, pp.510‐515, https://doi.org/10.1109/roman.2009. 5326221.2Hiromi Hara, The Gender Wage Gap across the Wage Distribution in Japan: Within and between Establishment Effects,Labour Economics, vol. 53, 2018, pp. 213‐229, https://doi.org/10.1016/j.labeco.2018.04. 007.他们也可能对人工智能在未来被误用的可能性知之甚少。

日益加剧的不平等并不是学生们最关心的问题,但学生们应该关心。O’Neill解释了“意图不良”的数学算法如何在数据驱动的金融系统中加剧不平等3C. O’Neill, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, New York:Penguin, 2016.。一个原因可能是我们的受访者对经济不平等缺乏敏感性,Rodriguez Bailon等人以经济体系正义和社会主导取向信念的形式报道了这一点。4Rosa Rodriguez‐Bailon, Boyka Bratanova, Guillermo B. Willis, Lucia Lopez‐Rodriguez, Ashley Sturrock and Steve Loughnan, Social Class and Ideologies of Inequality: How They Uphold Unequal Societies, Journal of Social Issues, vol. 73,no. 1, 2017, pp. 99‐116, https://doi.org/10.1111/josi.12206.

总的来说,开篇部分的文献回顾确定了一些已经发生的与人工智能使用相关的重大伦理问题。然而,调查结果表明,大多数学生要么没有意识到这些问题,要么更担心人工智能可能会影响他们的就业,尽管对就业市场的重大影响可能需要20年左右的时间。例如,提及隐私丧失的学生人数太少,尽管这是一个非常普遍的问题。严厉的批评者甚至可能认为,这些回应反映了学生的日常担忧,而不是他们对人工智能应用已经造成或预计在不久的将来会引发的伦理问题的意识。

五、结 论

这项大样本研究(n=467)是在既有日本学生又有许多国际学生的一所多文化大学的大学生中进行的。研究表明,其中与人工智能技术相关的最常见的道德问题是失业问题。然而,有关道德问题的文献综述涉及,例如,人工智能的滥用、实时监控的普遍使用导致隐私的丧失、性别和种族偏见的系统、在没有适当考虑责任的情况下出错的可能性、社会内部和社会之间日益加剧的不平等、恶意使用人工智能、安全漏洞增加等,这说明围绕人工智能使用的道德问题是复杂的,而大多数大学生的意识相当有限,主要集中在可能的失业问题上。比较日本学生和非日本学生的反应,发现在两个方面存在统计上的显著差异:人工智能用于社会控制和人工智能歧视。日本学生对人工智能的社会控制相对缺乏关注,但更关注歧视,这在所有女生中也明显更为普遍。有没有可能许多学生只是简单地反映了他们日常生活中的主要个人担忧,而不是人工智能系统的伦理问题?值得注意的是,所有参与调查的学生都来自该大学的两个主要学院之一:社会科学学院(195名学生)和企业管理学院(272名学生)。如果这项研究是对工程系或计算机系的学生进行,结果可能会有所不同。本研究的另一个局限是,教育在改变学生的知识和态度方面可能发挥的作用没有通过教学前后的实验来衡量。

猜你喜欢
伦理机器人人工智能
《心之死》的趣味与伦理焦虑
护生眼中的伦理修养
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
机器人来帮你
认识机器人
机器人来啦
医改莫忘构建伦理新机制