我们还没搞清楚自己的脑子在想些什么时,未来机器人却能轻松“看透”你,简直比你自己都更了解你。
多伦多斯卡伯勒大学的神经科学家团队开发出一种读心术,通过扫描你的大脑来展现你脑海中想象的图像。按照实验,这种读心术几乎万无一失。完成这项任务的是一种读心机器人,简单来说就是一种人工智能程序,这种程序可通过识别大脑中的电子信号来复制、描绘大脑中的图像。
这项技术依赖于电脑程序神经网络系统,也就是由人工智能来模拟脑电波数据,然后将其数字化并呈现出来。这种程序不仅可以捕捉大脑中看到人脸图像时形成的数据信号,而且对一些演讲内容、文字数据、动态图像等都可以进行识别。
所以,虽然目前实验仅完成了对人脑看到的人脸图像的识别和描绘,但在未来,人脑中形成的关于文字、数据、动态图像的信息都可以实现复制和重现。
研究人员在培训读心机器人时,首先让其阅读大量的人像数据库以掌握人脸的基本形状和标志特征。当机器人可以识别面部特征之后,再将这些特征与相对应的脑电图信号关联,这样在受测人员观察人脸图像时,机器人就可以根据他们当时的脑电图反馈准确描绘人脑反射出的图像。
实验参与人、神经科学家阿德里安·内斯特对实验结果非常兴奋:“读心机器人最终描绘的可不是简单的四边形或三角形轮廓,而是由细微笔触构成的人脸模拟图。它不仅可以重建人们看到的东西,还能用来表达他们想象出来的或记忆中的内容。”内斯特说,“这就出现了另外一种价值,执法部门可以通过这个方法从目击者那里收集到潜在嫌疑人的信息。”
或许有一天,人们可以任意地拷贝或回放一个人大脑中的记忆。同时,这种技术的实现也能为医学提供参考价值,为失语者提供一种表达自己思想的手段。
通过看脸色来识别人的情绪一直是区分机器人是否智能的一个标准,世界各大领域的技术人员也都在努力让人工智能学会察言观色。
谷歌的研究者们开发了一款网页应用,向人们展示由人工智能画的小动物,然后通过摄像头记录人们看到画作时的反应,准确识别观众的喜好之后,网页就可以更好地“投其所好”画画。
跟谷歌团队不同的是,麻省理工学院的研究者们正在针对负面情绪进行探索,因为人们恐惧、恶心时的表情可能会更夸张,也就更容易被人工智能识别。
另外,类似美国知名初创公司Affectiva的诸多企业都在探索有情感的人工智能,研发让机器人更好地理解人类面部表情和社会行为的技术。比如如何让无人驾驶汽车识别司机情绪、在司机分心时接管驾车任务等。
人工智能理解人类情绪的方法其实和人类一样,即通过面部表情变化判断情绪波动。人们即使有时会展现与内心世界不一样的表情和声音,也总会露出一些破绽,只不过不易察觉。对于人工智能来说,发现细微的差别或捕捉稍纵即逝的变化正是它们的强项——它们可以借助高速摄像机和高性能处理器来完成这项工作。甚至可以说,人工智能对人类情绪的理解可能会比人还彻底。
人工智能情绪识别的用处极大,在医疗业、服务业甚至审讯领域都能发挥不小的作用。通过辨别微表情指认罪犯,也许在不久后就会实现。
研究人员正在研发类人情感机器人,它们的触觉相当敏感,仅从简单的肢体接触就可以判断人们的性别、情绪和性格,从而给人以相应的感情回应。这类机器人不仅看起来像人,而且拥有和人类相似的社交能力,还可以通过感情慰藉融入人类生活。
“给机器人赋予情感是唯一可以拉近它们和人类之间情感距离的方法。”巴黎萨克雷大学的教授阿德里亚娜表示,“我们此后的研究方向就是让机器人拥有一颗‘玻璃心’,让它们敏感到可以感知人类情绪,并学会礼貌或幽默地回应人类的情绪。”研究人员在初期的实验中已经成功地让机器人能通过握手判断人类的性别,且正确率达到75%。
研究人员首先设定了不同性别在握手这个动作中的不同表现,比如男、女在握手时的力度、幅度和时间都不一样,外向的人和内向的人握手的姿势和频率也不一样。通过设置这些握手模式,机器人能在实际操作中准确地识别对方身份。
为了更全面、准确地进行模式设定,研究人员对人们的握手姿势进行了观察研究,除了握手力度、摆动幅度、时间长度、放松程度的区别外,研究人员还发现,男士主动握女士的手时普遍习惯手臂向下垂,推测是因为一般女士身材娇小造成男士握手时产生了这样的习惯动作。如果这种敏锐的感知能力可以推行,那么未来机器人可以扮演更多的角色,比如成为自闭症儿童的好朋友或孤寡老人的贴心“老伴”。
调查显示,5岁至18岁之间的青少年中,有20%表示更愿意与机器人交朋友。而对于有自闭症的孩子来说,机器人的敏感和贴心也会成为打动这些孩子的特质。(据北京晨报)