刘道宏
随着科技的不断进步,人工智能已经成为当今社会的热门话题。从智能助手到自动驾驶汽车,人工智能正逐渐渗透到我们的日常生活和工作中。人工智能技术的发展给我们带来了许多便利,也引发了一系列潜在的社会问题。
人工智能在某些领域的应用已经显著提高了生产效率,与此同时,也带来了失业问题。许多传统行业的工作岗位可能会因为自动化和智能化的发展与普及而逐渐消失。例如,制造业中的机械工人可能会被自动化机器人所取代,银行和超市的自助服务也可能使柜员和收银员不再被需要。那些掌握了先进技术和资源的人和组织将更有可能从人工智能技术领域获得巨大的经济利益,而那些没有接触到人工智能技术或技术应用能力较低的人可能会被逐渐边缘化。高盛公司的经济学家预计,由于人工智能领域取得的最新突破,多达3亿个全职工作岗位可能会实现自动化,在欧洲和美国,有三分之二的工作人员会受到基于人工智能的自动化转型的影响。这将导致大量的劳动力流失,加剧经济不平等。同时,人工智能的应用还可能加速部分企业的垄断,造成财富集中和社会分化,给社会带来不稳定因素。
人工智能技术的广泛应用产生了大量的个人数据,这些数据对于训练和改进人工智能至关重要;然而,数据收集和使用的不规范也带来了隐私泄露和数据安全的问题。如果这些数据被滥用或遭到黑客攻击,可能导致用户的个人信息泄露和身份被盗用。我们都有过这样的体验,如果喜欢在手机上看某类文章或者视频,相关的应用程序就会不停地推送该类型的内容。这说明用户的喜好(个人隐私)已经被程序运营商掌握;每个人的智能手机上现在都装有多个应用程序,我们有时候会发现,使用聊天软件和朋友讨论某个品牌的商品后不久,相关购物应用程序就会向自己推送该品牌的商品广告,这说明购物应用程序可以跨界窃取用户的隐私;脸书(Facebook)曾发生过大规模数据泄露事件,有5亿多用户的个人数据,包括姓名、电话号码、居住地和生日等敏感信息,被泄露到了黑客论坛上。这一数据泄露引发了广泛关注和批评,暴露了社交媒体平台面临的隐私保护和数据安全问题。
人工智能系统的训练数据来源于人类创造的数据集,这些数据可能包含偏见和歧視性内容,由此导致一些人工智能系统在进行决策和推荐时表现出歧视性,这意味着我们需要重新审视人工智能的训练数据和算法。例如,2018年,亚马逊公司不得不放弃一款基于人工智能的招聘工具,因为它对女性候选人存在偏见。该系统的训练数据来自过去10年的简历提交记录,其中大多数为男性申请者。因此,人工智能算法学会了对包含与女性相关的术语的简历进行扣分或降级,导致招聘中的性别歧视。在信贷领域,某些人工智能驱动的信用评分系统可能会根据历史借贷数据,对特定群体的贷款申请进行不公平的拒绝。例如,如果历史数据显示某个少数族裔或社会经济群体的贷款违约率较高,那么人工智能算法可能会倾向于拒绝来自该群体的贷款申请,忽略个体的实际信用风险。人工智能信贷评估系统还可能会在决定贷款的利率和条件时对特定群体存有偏见,导致特定群体获得更差的贷款条件,或被收取高于其实际信用风险所应支付的利率。
随着人工智能技术的进步,某些领域的人工智能已经显示出了与人类智能相媲美甚至超越人类智能的能力。例如, 2016年,谷歌公司旗下的AlphaGo在与世界顶级围棋棋手李世石的对弈中取得了胜利。这一事件标志着人工智能具有了在复杂游戏中超越顶级人类棋手的水平。之后的AlphaGo Zero甚至不需要人类棋谱数据,仅通过自我对弈学习,就能达到超越人类职业棋手的实力。又如,自然语言处理领域的人工智能系统在语义理解和生成方面取得了显著进步。OpenAI公司的GPT-4模型在自然语言理解和生成任务上展现了出色的实力,能够写文章、回答问题、生成对话等,其表现水平与人类接近。当人工智能开始接替我们完成跟同事、朋友和亲人的交流沟通时,这是否有可能剥夺了一些对我们而言更重要的东西?它是否在模糊我们的个性,消解与其他人互动的乐趣?甚至,这种自动完成技术会不会改变人类大脑的工作方式?
如此种种,人工智能对人类智能潜在的超越挑战了人类的自尊心,可能引发人与机器之间的界限问题以及关于人工智能是否有可能拥有类似人类意识和情感的争议。
2023年2月,美国军火商洛克希德·马丁公司发布消息称,人工智能软件已在2022年12月驾驶一架经过改装的F-16战斗机飞行了超过17个小时,机上没有任何人类驾驶员。这是人工智能首次驾驶军用飞机。美国国防部于2023年1月25日发布一项命令,要求军方加强对自主武器的开发和使用。北约已于此前的2022年10月13日发布了一项相关实施计划,旨在保持该联盟在“杀手机器人”方面的“技术优势”。这意味着武器化的人工智能有可能成为未来战争对抗的方式。
人工智能是某些武器系统日益增强的自主性的核心。人们关注的关键功能,如目标锁定和自主反击等,可能很快就会被军事部门掌握。在俄乌冲突中能清晰看见人工智能在战场上的使用,其应用范围包括目标锁定辅助和先进的巡飞弹等。这种技术可能会在战场上取代人类士兵的角色,引发道德责任问题。例如,相关武器系统可能无法辨别战斗人员与非战斗人员和平民,导致无差别攻击与误杀。乌克兰并不是首个在战场上进行这种部署的国家,早在2019年,土耳其制造的“卡尔古”-2(Kargu-2)自杀式无人机已经参与了在叙利亚和土耳其边境的行动。“卡尔古”-2自杀式无人机是第一款公开宣称可以发动“蜂群”攻击的自杀式无人机,它们不仅可以组成“蜂群”,而且能同时对不同目标实施攻击,还具有面部识别等其他功能,战场实用性较好。
现在,人工智能武器化被视为世界主要军事大国之间竞争的核心。这种竞争为国际社会中那些呼吁维持和规范人类对武器系统的控制的主张敲响了警钟。如果不及早采取行动,人类可能很快就会丧失监管人工智能武器的最佳时机。
随着人工智能技术的不断进步,我们也需要认真思考人工智能的道德责任问题。如果一个人工智能系统因为做出错误决策而造成了客观损害,谁来承担责任?伦理学中有一个经典思维实验—电车难题(trolley problem),它指的是围绕电车产生的伦理上的二元对立局面:正在行驶中的电车刹车失灵,如果没有外力干预将会撞上前方正在施工的10名工人。如果有人搬动道闸让电车驶向另一条铁轨,10名工人将得救,但是另一条轨道上也有1名工人在施工。到底是救10个人,还是救1个人?在这种情况下,人工智能是否有权做出决策?其行为方式将依据怎样的伦理?又如,在艺术领域,如果某位艺术家从电脑上获取了草图,他还是真正的艺术家吗?艺术的初创往往是创作过程中难度最大的,这也是人类创造力的核心。如果把它交由人工智能完成,这个过程似乎更像是一条流水生产线,人类在其中仅仅充当检查员的角色。或者,艺术家会发现自己陷入技术进步的寄生循环中。由于人们不断纠正人工智能创造的作品,人工智能的创作技巧将会得到改进,人类参与的程度也将越来越少。在这种情况下,艺术家声称对自己的作品享有版权是否会遭遇道德困境?
随着人工智能技术的不断发展,一些专家担心人工智能可能会失去控制,给人类社会带来严重威胁。以今天的深度学习系统为例,它面临着“黑匣子”问题—以一种对专家来说过于不透明的方式处理信息。AlphaGo在2016年擊败了世界围棋冠军李世石,它在比赛中执行了完全意想不到的一手棋,扭转了赛局并展示了复杂的网络通过我们无法理解的方式做出的决策。如果人类仍然在为第37手棋而冥思苦想;那么,可以说,在互联网超级系统的背景下,“黑匣子”问题会更加严重。如今的人工智能使用自我改进算法,即扫描系统以寻找改进自己的可能并最终实现自我升级。随着系统改进,算法再次运行,从而创建出另一个改进版本,如此循环往复,无穷无尽。人类观察者将无法跟上它们所处理的内容,因为系统在不断变化,变得更加复杂、更加自主。因此,“自我改进”算法可能会引入自主行为。最终的结果可能是人类失去对超级系统的掌控。
我们创造了一种人类既无法预测也无法理解的新型智能。研究人员目前尚不清楚除了对计算机进行基本的物理限制之外,对人工智能是否还有其他硬性的限制。如果搞不清楚这个问题并制定有效的防范措施,可能会对人类社会产生灾难性的后果。
人工智能的发展为社会带来了巨大的机遇和挑战。尽管可能引起一系列潜在的社会问题,但我们不能因为担心产生问题而停止对人工智能技术的研究。相反,我们需要认真面对这些问题,并采取积极的措施来解决它们。只有这样,我们才能充分发挥其潜力,以期推动人工智能的健康发展,真正造福于人类社会。