人工智能竟然也会产生自己的偏见

2018-05-30 10:48
科学大观园 2018年20期
关键词:计算机科学黑人群体

据英国《每日邮报》报道,来自英国卡迪夫大学和美国麻省理工学院的计算机科学和心理学专家发现,自主机器人可以通过识别、复制、学习其他机器人的行为产生偏见,某些种类的算法已经产生性别歧视和种族歧视。

为证实人工智能可以自己产生偏见,科学家用计算机模拟博弈。博弈中,每个个体都可以将钱送给自己所在的群体或其他群体,以测试每个个体的给予策略,观察其是否对其他群体有偏见。参与研究的卡迪夫大学计算机科学与信息学教授Roger Whitaker表示:“通过成千上万次模拟,我们发现了偏见是如何演化的、哪些情况可以激化偏见、哪些情况可以减弱偏见。我们的研究表明,偏见是自然产生的、影响非常大的,它很容易被激励、损害大范围的连通性。来自同一偏见群体的保护可以非主观地引起更进一步的偏见,使整个群体四分五裂。这种广泛传播的偏见很难逆转。”这些个体是通过复制那些有更高短期效益的个体使得偏见升级的,可见偏见并不需要高级认知能力。

在另一項关于性别的研究中,研究人员发现,微软、IBM和Face++等的人脸识别服务中存在性别歧视和种族歧视。这些服务对于男性白人更加友好,而对于男性黑人和女性黑人错误率最高。

猜你喜欢
计算机科学黑人群体
黑人谈河流
通过自然感染获得群体免疫有多可怕
探讨计算机科学与技术跨越式发展
“群体失语”需要警惕——“为官不言”也是腐败
浅谈计算机科学与技术的现代化运用
重庆第二师范学院计算机科学与技术专业简介
重寻黑人主体身份意识,构建和谐社区——小说《宠儿》的黑人女性主义解读
浅谈在计算机科学中的创新精神
关爱特殊群体不畏难
特殊群体要给予特殊的关爱