@金画:政治见解不同,国家制度不同,但仍可以坐下来,见面商谈,是最好的方式!期待金特首脑会谈取得有利于双方利益的成果。
中国新闻周刊编辑部微博
http:∥weibo.com/inewsweek
《中国新闻周刊》官方微博
http:∥weibo.com/chinanewsweek
《考后撕书,这一场狂欢》
为什么会出现撕书现象?有不少人能享受随意读书的乐趣,但大家几乎都不对阅读教科书感到享受。与其说人们不享受读书,倒不如说是无法享受学习带来的压力。努力学习本身就是很痛苦的事,而能享受痛苦,甘之如饴,就更困难了。(Bellica.蔻色)
AI的人格——第一次被这个主题吸引,是看到Siri的“人格设计师”Mariana Lin写的一段话:“AI的存在,不是为了满足人类的一切需求或复制人类的存在。我们可以且应该期待AI帮助人类前行,并为人类作出更好的示范。想想那些人类历来就不太擅长的品质:同情心、耐心、弥合分歧与误解……我们应当设想未来AI能够在这些方面弥补人类。”
这听起来难度不小。在现阶段,人工智能与人类智能的最大差別是:人工不会产生自我认知,更不会有价值和道德判断。近些年大火的机器学习虽然是基于对人类神经网络的模仿,但即使对人类自身而言,神经信号的传导,为何会使人类产生情感和非理性?这依然是未解之谜,更谈不上让机器“学习”。
那么,如果AI自身没有办法产生道德,如何让它来弥补所谓“不道德”的缺陷?以AI语音助手为例,目前采取的惯用做法是由人工在后台进行标注,将不道德的对话进行“清洗”,让AI逐渐通过学习,自我进化出看起来比较“高尚”的人格。比如,如果你要杀人,它会告诉你不要这么做,以及杀人会产生的桐应后果。这些答案可能是专门的“人格设计师”写成,也可能是后台编辑在网络上筛选出“最合适”的回答。如果一个潜在的凶手在和AI对话后,打消了自己的念头,只能说明他的人类同胞劝住了他,可能是利用法律进行规训,可能是从感情上和他产生共鸣。
只有“人性”才能理解“人性”,和AI无关。所以从某种角度来说,AI的人格其实是个伪命题。
现在市面上的各种语音助手,无论是小冰的可爱体贴,还是Siri的古灵精怪,或者是“谷歌助手”的友善包容,都只是表层的性格特点。而人格中最核心的是价值观,包括道德判断,感性和理性的平衡,对哲学命题的思考,对自身和宇宙关系的认知和构建等。每个人的价值观一定是独特的,不完美的,甚至偏执的。
60年前,美国作家艾萨克.阿西莫夫写道:“机器人应该具有人类所有高尚的品质。”未来,即便AI有了自我推理和学习的能力,产生了自己的“思想”,它可能也不会在乎人类的道德,更不需要高尚。
因为它毕竟不是人类。
详见本刊2018年6月18日出版总第856期