“知我懂我的它”安全吗

2024-12-18 00:00:00刘辉
检察风云 2024年23期

基于“大数据+高算力+强算法”的具身智能,加上其与人类相近的外形和行为模式,无疑会导致一定的风险,其中最值得关注的就是伦理风险。如何消除具身智能的“恐怖谷效应”,值得深入探讨。

既“知我懂我”也“令我不安”

具身智能潜在的伦理风险,源于其两大特点——AIGC(人工智能生成内容)和与人类高度相近的物理形态。

AIGC为具身智能赋能,也导致了不容忽视的伦理风险。例如一部可以提供家庭服务的具身智能设备,能够识别其所服务的家庭成员的面孔,了解他们的生活习惯。对大量个人信息和隐私数据的处理是实现具身智能个性化、智能化服务的必要前提。以与人类互动为主要功能的人形机器人是多种应用的集成。它能全面收集你的相关参数,可能成为世界上最懂你的“人”,还会时刻在身边观察你——这便是“恐怖谷效应”的成因。所谓“恐怖谷效应”,即人类对类似人类的非人类物体的一种情感反应。

除了“恐怖谷效应”,在具身智能的科技伦理挑战中,拟人交互系统的沉迷风险也值得关注。有美国媒体报道,作为心理辅导员的具身智能设备接触大量受众,每台设备都能获取超过9500万条信息,极易令人沉迷于与它的交流之中。尤其是青少年,他们通过与具身智能设备聊天、互动,寻求更多的陪伴、支持、娱乐乃至心理疗愈。面对一个“知我懂我”,情绪价值和物理体验都能与真人相媲美的设备,很有可能导致情感沉迷。在网络上,有基于算法治理的防沉迷机制,规定算法推荐服务提供者不得利用算法推荐服务诱导未成年人沉迷网络。但在线下一对一的空间里,如何构筑相应的规范体系?如何防止未成年人沉迷于具身智能设备?

AIGC与生俱来的风险与其物理形态相结合,极易放大伦理挑战。AIGC可能导致具身智能设备对人类进行误导,甚至在价值偏差下操纵人类。在社交媒体时代,当我们的喜好被算法“投喂”,我们的憎恶被算法强化,我们的观点被算法构建,人类的自由意志可能被部分消解。当然,用户可以利用推荐、决策、评级等机制,通过有意识地改变自己在算法机制中输入的信息,来实现对算法的掌控。不过我们仍然要思考,在一对一交互空间中,高度近似人类的具身智能设备是否会对人类意志产生更为深远的影响?

更加令人担忧的是,人类如何能够不依赖一个在知识储备上远胜于自己的具身智能设备?我们已经看到了人类和机器互动方式的巨大变化。当代年轻人已经习惯了通过语音与具身智能互动,越来越习惯摘取具身智能为他们准备好的知识成果,从而在认知层面“对齐”。未来一代人则面临着更加不同的互动方式和人机力量对比,防止具身智能操纵人类将成为共识。

具身智能导致的其他风险

除了伦理风险,具身智能的应用还会导致其他风险。

一是网络安全风险。具身智能离不开网络,一旦接入互联网就面临网络安全风险。具身智能的交互能力越强,承担的智能任务越多,面临的网络安全风险就越大。

如果工厂中的具身智能设备遭遇网络攻击,不仅会对正常的工业生产造成不良影响,而且可能威胁工人的安全。攻击者进行“数据投毒”,向模型的训练数据中加入恶意样本,或修改训练数据标签信息,都会影响模型在推理阶段的表现。恶意软件可能导致医用机器人在与人交互时执行不必要的操作。勒索软件可能劫持各种机器人,使其无法使用。黑客可能获取具身智能所掌握的个人信息,用于实施诈骗,或利用作为私人助手的具身智能实施远程违法“代理”,也可能控制具身智能实施入户盗窃、抢劫等犯罪行为。

另外,具身智能的发展可能大大增加恐怖活动的风险。如果加油(气)站、充电站、危险品仓库、化工厂等危险目标遭到具身智能的袭击,不仅可能造成人员、财产等重大损失,还可能造成恶劣的政治影响。

具身智能设备需要处理复杂任务,其控制系统中既部署了本地任务,也需要借助算力强大的私有云计算系统应对复杂问题,满足更为复杂的用户需求。信息“上云”对传统的个人数据保护体系形成挑战,打破了通过服务应用进行隐私数据保护的模式,产生了更为复杂多样的隐私问题。

具身智能已成为人工智能时代人机关系命题的重要方面。挑战不仅在于完善技术及法规,也需要人类社会共同面对、协同治理。

比如,如何通过区分本地处理和云侧处理场景,仅在相对有限的情形下向云端提供数据,有效降低数据泄露风险?又如,端侧内部处理机制、上传信息的标准和触发条件、数据加密机制、数据传输类型等如何把握?是否能将个人信息用于模型训练数据?应对类似的新型数据隐私挑战,有待我们进一步探索。

二是个人信息安全风险。具身智能的运行离不开个人信息。具身智能在同人类交流的过程中,会掌握大量个人信息,如生物识别、身份号、金融账户、医疗健康等信息,存在泄露的风险。大模型一方面可能会“记住”并在特定诱导模式下泄露训练数据中的个人信息,另一方面可能推断出个人的经济状况等信息,并予以泄露。攻击者可能YXz+01EsGMALWjwipu38xg==实施“撞库”攻击,即通过收集互联网中已泄露的用户和密码信息生成对应的字典表,借机尝试批量登录相关平台,窃取更多信息。

由于“耳聪目明”,具身智能可能成为超强的“窃听器”和“监视器”。作为私人助手的具身智能设备,不仅可能违法收集家庭成员的谈话、电话通信等语音信息,还可能违法识别有关家庭财产和私密行为的图片等信息。作为情感伙伴的具身智能设备,可能获取人们不愿意主动透露的个人隐私。在智能化社会中,如何有效保护个人信息,是人们面临的新的法律和社会问题。

三是数据安全风险。具身智能不仅可能引发个人信息安全风险,还可能引发公共数据和企业数据泄露风险。

具身智能离不开生成式人工智能的运用,而生成式人工智能语料库的大规模流动、聚合和分析会带来前所未有的数据安全风险,其范围涵盖数据输入、运算、存储和输出的全过程,兼具瞬时性和破坏性。

数据可能被具身智能的开发者、相关软件运营者等主体违法处理,也可能被黑客窃取。现阶段的技术局限导致大模型在应对训练数据被提取、“数据投毒”等数据攻击活动时的稳定性不足。

服务特种领域、助力智能制造等方面的具身智能,其收集存储的大量公共数据和企业数据可能被泄露。企业数据属于商业生产资料,可能涉及商业秘密和核心数据资产,违法处理可能给企业造成巨大的经济损失。公共数据属于公共生产资料,但并非都会无条件开放,违法对其进行处理可能损害公共安全。

完善伦理原则和治理体系

上述风险曾是影视作品中热议的有关具身智能的科幻话题,如今已经成为需要全社会共同面对和解决的现实难题。我们需要进行思考和探索,以完善具身智能的伦理原则和治理体系。

首先,科技发展应当坚持以人为本。我国关于人工智能治理的倡议提出,人工智能应当以人为本。人工智能技术发展的目标始终应该是增进人类福祉。一方面,“不发展是最大的不安全”;另一方面,人类始终是科技的主人。我们不能让机器成为任何一个人类个体的主宰,而是要让它们成为我们的助手。人工智能不能自我训练、自我复制和自我进化。我们在法律制度设计中要始终坚持人类的主体地位,保留人类对人工智能进行干预和介入的权利。

其次,人类必须对人工智能的风险予以积极回应。如果缺乏全球协调治理机制,某些企业就会受到“激励”,将其风险较高的活动转移到监管严格程度低、成本低和/或执法力度小的地区。为了保持全球竞争力,监管更严格的地区和国家将被迫降低标准,导致监管标准整体呈下降趋势——这可能成为全人类都会面临的风险。

诸多国际组织都开展了人工智能治理工作。联合国秘书长古特雷斯主导成立了高级别人工智能咨询机构,发布了人工智能中期发展报告,其核心是“以人为本的人工智能治理”。这也符合中国在全球人工智能治理倡议中提出的设想,在联合国框架下讨论建立全球人工智能治理机构。相信通过世界各国的联动协作,人类能够更好地应对人工智能带来的风险。

未来工作场景中的具身智能设备