进三
政治倾向量表中占据顶部和底部四分位数的参与者的平均面部轮廓(左图)和平均面孔(右图)平均面部轮廓(左栏)表明自由主义者的下脸较小。这在平均面孔上也可见(右栏):请注意,自由主义者的嘴唇和鼻子向下移动,下巴更小。除此之外,平均轮廓和面孔实际上是相同的,自由派和保守派之间没有其他明显的差异,包括面部表情、仪容仪表、肤色或头部方向。
热图表示因屏蔽给定图像区域而导致的标准化预测分数的平均绝对变化。显示模型使用的面部区域包括人中、眉毛和眼睛、鼻梁和嘴角。重要的是,背景和头发在预测中几乎没有发挥任何作用,这证实了这些因素已被成功控制。
最近的一项研究引起了广泛的关注,因为它声称人工智能技术可以通过一个人的一张照片来预测他的政治观点。这项研究由斯坦福大学商学院组织行为学副教授米哈尔·科辛斯基博士主导,他们开发了一种人工智能算法,可以仅根据个人的照片准确预测其政治观点。
在这项研究中,591 名参与者被拍到表情相同、穿着相同的黑色 T 恤。为了拍照,他们还被要求把头发向后梳,摘掉珠宝和化妆品,并剃掉面部毛发。尽管如此,当一个人在照片中间无表情地摆姿势时,人工智能技术能够发现一个人面部特征的细微差别,这些细微差别与他们的政治学习相关。
研究人员在研究中发现,自由派人士的下脸往往较小,下巴较小,嘴唇和鼻子朝下,而保守派人士的下半脸特征更大、更宽。这一发现引发了关于人工智能技术对个人隐私的潜在风险的讨论。
科辛斯基博士在接受采访时表示:“我认为,人们并没有意识到仅仅把照片放在那里就暴露了多少信息。”他指出,尽管人们可能从未见过你,也从未让你看他们的照片,也永远不会分享他们的政治倾向,但是,通过查看他们的照片,我们的研究表明,这在相当于某种程度上告诉你,他们的政治倾向是什么。
2017 年创建的人工智能面部识别软件“VGGFace2”用于检查图像,并通过将图像与数据库中存储的其他图像交叉引用来确定参与者的面部特征。然后,人工智能捕获了科辛斯基所说的参与者面部的数字“指纹”,并将其与他们的反应数据库进行比较,以预测他们的观点。
除了保守派与自由派面孔的预测轮廓外,研究还发现所有其他“轮廓和面孔实际上都是相同的,表明自由派和保守派之间没有其他明显的差异,包括面部表情、仪容仪表、肤色或头部方向”。
研究结果加入了参与者的年龄、性别和种族等其他因素,但研究人员发现,人的政治倾向之间的联系完全取决于他们的面部特征。
这项研究的结果引发了关于人工智能技术对个人隐私的潜在风险的讨论。
科辛斯基博士表示:“你的自拍照是‘保守还是‘自由?”这个问题揭示了一个事实,那就是我们的照片可能会暴露出我们的政治倾向,这是我们大多数人从未意识到的。
这项研究揭示了人工智能技术的潜力,同时也提出了关于隐私和数据安全的重要问题。我们需要认识到个人信息的价值。在人工智能驱动的世界中,数据被视为新的石油。这意味着我们的个人信息,如购物习惯、位置信息、社交媒体活动等,都可能成为有价值的资源。因此,我们需要更加警惕地保护这些信息,防止它们被不法分子滥用。