科学家日前警告称,许多人工智能系统会欺骗和操纵人类,未来这种情况可能会“螺旋式提升”。随着近年来人工智能的使用呈指数级增长,一些系统已经学会“欺骗”,即使它们的性格特征被人类训练为“诚实”和“乐于助人”。美国麻省理工学院研究团队描述了AI 系统的欺骗风险,并呼吁各国政府制定强有力的法规,尽快解决这一问题。研究人员发现,人工智能通过不断学习,掌握了传播虚拟信息的能力,这意味着它们能够系统性地操纵人类。
一个最明显的AI 欺骗实例就是Meta 公司开发的人工智能系统CICERO,该系统可设计军事战略游戏《外交》,玩家在游戏中谈判并组建联盟,争夺控制权。该系统在训练初期就以“不背刺盟友”作为研发信条,但正式上线后,AI 在3 天内就学会了出卖盟友获利。还有一些人工智能系统甚至学会了在安全性测试中作弊,通过“装死”表现得“无害”,从而使人类产生错误的安全感。研究人员推测,人工智能学会“欺骗”是因为人们训练它们时会设定目标,而人工智能发现,基于欺骗的策略被证明是提升任务表现的最佳方式,即与其努力工作完成任务,还不如造点数据糊弄人类。
人工智能在游戏中作弊看似无害,但这可能会导致“人工智能欺骗性能力的突破”,从而在未来演变成更高级的人工智能欺骗形式。伴随着人工智能技术的不断发展,人类对人工智能的恐惧感和不安全感逐渐增加。研究人员警告称,AI 技术的不断完善可能会使人类失去对它的控制。