人工智能究竟是天使还是魔鬼?

2017-01-18 00:46
计算机世界 2016年11期
关键词:机器人工智能人类

今年3月上旬,谷歌AlphaGo挑战世界冠军李世石,可谓万众瞩目。AlphaGo在五局“人机对战”中以4:1战胜李世石,不仅标志着计算机的能力攀上的一个新高度,而且,它的胜利更是在提醒世人,人类世界正在快速攻克人工智能及其实际部署所面临的障碍。从历史上看,在人工智能发展快速的时期往往会出现大量乐观观点,但最近这一次人工智能热潮中,人工智能威胁论依旧备受关注。

关于人工智能的定义,目前尚无确切的定义。美国斯坦福大学人工智能研究中心尼尔逊教授提出“人工智能是关于知识的学科——怎样表示知识以及怎样获得知识并使用知识的科学。”,美国麻省理工学院的温斯顿教授则认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”一些业界人士则根据人工智能的发展程度将其分为三类:

(1)弱人工智能Artificial Narrow Intelligence(ANI):弱人工智能是擅长于单个方面的人工智能。比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋。(2)强人工智能Artificial General Intelligence(AGI):人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。(3)超人工智能Artificial Super Intelligence(ASI):牛津哲学家,知名人工智能思想家NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”超人工智能正是人工智能话题这么火热的缘故,同样也是永生和灭绝这两个词会在本文中多次出现的原因。

现在,人类已经掌握了弱人工智能。人工智能革命是从弱人工智能到强人工智能,最终到达超人工智能的旅途。在人工智能的这段旅途中,人类的命运终将如何,不同人士的观点截然不同。

人工智能威胁论的支持者认为,人工智能可能发展出自己的思想,进而引发人类的“身份危机”。近来两位顶尖科学家发出类似警告。一位是理论物理学家斯蒂芬·霍金,他认为当人工智能发展完全,就是人类的末日;另一位是特斯拉的CEO马斯克,他曾公开表示:“我们要十分小心人工智能,它可能比核武器更危险。”在马斯克看来,人工智能对人类社会的威胁有短期和长期二种:“短期而言,人工智能可能导致数以百万计的人失业;长期而言,可能出现一些科幻电影中的情况,人工智能的智力水平超过人类,开始‘政变。按人工智能的发展进度,在不久的将来,机器可能以不断加快的速度重新设计自己,超越受制于生物进化速度的人类,最终摆脱人类的控制。”

但也有不少科学家认为,霍金和马斯克对于人工智能的未来过于悲观。在他们看来,至少在相当长的时间里,人类还难以完全掌控这类技术的发展,而要让人工智能技术得到“充分发展”,还有很长的路要走。百度首席科学家,斯坦福大学人工智能专家吴恩达表示:“担心人工智能过于强大就好像担心人类会在火星过度殖民导致火星人口爆炸一样。我很希望数百年后我们能在火星生活,但目前甚至都还没有人类登上过火星,我们为何要担心在火星过度殖民的问题呢?”

应该说在认同和反对人工智能威胁论的两个阵营里都有重量级的人物。但有趣的是,认同人工智能威胁论的大部分是企业家或者是非人工智能领域科学家,反对人工智能威胁论的多是人工智能和计算机领域的科学家,为什么出现这种情况,值得我们关注和思考。以下文章,对这两大阵营代表人物的观点进行了梳理,虽然人们不一定非要相信未来将遭受人工智能的威胁,然而政府和整个社会还是理应认真对待这些发展的潜在影响,人类对这些发展理当给予应有的谦卑和审慎。

“硅谷老炮”约翰·马尔科夫:科技会创造出新的工作

我在《与机器人共舞》一书中之所以分别提到人工智能(AI,ArtificialIntelligence)和智能增强(IA,Intelligence Augmentation)两种不同的技术社群,是因为它们的研究者和设计者所聚焦的方向不同。AI社群长期以来都致力于建造能够模仿人类能力的技术,从机器人到拥有认知和推理功能的智能技术(我把机器人看做人工智能的子集),这些都是人类可以做的事。而IA则聚焦于用计算机来扩增人类的智力。

AI和IA的区别并不是非黑即白的。AI和IA社群的研究者有着各自的哲学取向。AI研究者有自己的观点。而IA,也就是HCI(人机交互,Human Computer Interaction)社群则一直想用计算工具来提升人机协作。除了我,还有很多计算机科学家都曾对这种二分法写过文章。但这里存在一些悖论,因为当你增强了人类的能力,你就不再需要那么多人,因为人的能力比以前更强。这就是我在《与机器人共舞》一书中试图解答和理解的谜题。

Siri就是一个IA的好模型,它的目的是用AI技术来提升人类的能力,并成为人类的好伙伴。因此AI和IA并不是非黑即白的。再比如无人驾驶汽车,如果人类真的造出了能完全自动驾驶的汽车,那我们就不再需要这么多车,也不需要那么多停车场,我们甚至可以重新规划城市的布局。与此同时,成千上万的工作会消失。

那么,是否意味着我们的工作机会遭受人工智能的威胁?在美国的白领工作中,许多技术类工作已经有很多任务自动化的案例,例如医生、律师、程序员、记者等等,最近还出现了会写故事的机器人。可是,机器能做采访吗?或许有一天能,但目前还不能,在短期内也不可能实现。所以,我再次强调,它只是将任务的一部分自动化了,而不是整个完整的任务。

所以,记者和律师这样的工作在短期内还不会被机器人和AI所取代。AI技术会改变劳动力市场的面貌,同时它也会创造出新的工作。举一个经典的例子,谁会想到现在会出现一种叫做“搜索引擎优化”的工作呢?这种工作是随着搜索引擎的出现才出现的。这些人的工作内容就是负责让自己的网站在搜索引擎中的排名更加靠前,这样人们才更容易找到它们。这个工作非常重要。有成千上万的人都在干这个工作。这就是与IA有关的一个新的工种——Google正是一种IA工具。因此,科技会创造出新的工作。[约翰·马尔科夫系《纽约时报》高级科技记者,普利策奖得主,他对互联网发展有着惊人的洞察力与敏锐度。本文选自机器之心对约翰·马尔科夫的采访。]

“互联网预言帝”凯文·凯利:人工智能的潜力无限

现在大家经常谈到的热门词是深度学习,也就是说把人工智能和神经节点这个理论结合在一起,也就是说计算芯片的能力会得到成倍的提升。比如说IBM就利用人工智能打败了一个象棋大师,当时谁都没想到人工智能会这么强。现在我们又把它培养成了医生,它可以在医学院里做教学,可以去做诊断,根据病人的各种体征做出判断,而且它的判断比一般的医生都要精确,当然还比不上最优秀的医生了,但是跟一般医生来比它们远远胜出。我曾做过测试,告诉它我有哪些症状,它可以比较准确地判断出我患有什么疾病。虽然比不上最优秀的医生,但是在非洲起到了很大的作用,因为在非洲医生非常缺乏,通过人工智能就可以很好地解决当地的医疗病患问题。

200年前电问世,很多企业通过电力实现了自动化,在这种情况下电是一种服务,而不是一种设施。人工智能同样可以作为一种服务,你不用自己编写人工智能,你可以通过百度、谷歌购买人工智能,然后把它用于各种全新的用途,是以前你难以想象的,使得你的工作更加具有智能化,最后会结出非常令人难以置信的成果。因此,人工智能会成为一种服务,你不需要去拥有人工智能,你只用在需要的时候去购买就行了。

使用人工智能的人越多它的智能程度就越高,因为它是自动学习的,通过人们的使用它也在不断地学习,人工智能程度越高用户就越多,它也会更加智能化,这是一个良性循环,所以最后实现一个封闭的良性循环,使得人工智能快速增长和成熟,未来就会有非常大型化的人工智能公司,人们会直接向他购买服务,你不需要自己去编写人工智能,都有现成的产品和服务供你购买。

而人工智能对于云环境来说至关重要,刚才说了我们会产生那么多的数据,我们要对数据进行量化处理,要想把这些数据利用起来,发挥它们的价值,就需要使用人工智能,让我们了解数据背后所隐含的意思。所以,人工智能会使得我们把数据转化为实用的工具。因此,我们必须要更多地使用人工智能把这些庞大的数据储备利用起来。我的预测是,未来20年的1万家初创企业是要选择一个行业的切入口,然后把这个行业跟人工智能结合在一起,我觉得可能性是无限的。100年前我们选择一个行业,把电力跟它结合在一起,现在我们是把人工智能和我们选择的这个行业结合在一起,你可以去想象,把人工智能使用到一个行业里,24小时进行监控、进行分析,潜力是无限的。

未来是令人难以置信的,因为最伟大的20年后的产品还没有被设计出来,还没有问世。如果我要谈20年之后最伟大的创意或者是发明的话,我刚才谈到的所有这些可能都不会有资格出现在那个单子上。因为我们现在只处于这个变革趋势的第一天,最初始阶段,这意味着你们还为时不晚,一切都来得及。[凯文·凯利,美国《连线》杂志创始主编、《失控》作者。本文选摘自凯文·凯利2015年产业中国年会上《未来20年科技的必然走向》的主题演讲]

雷军:我对人工智能充满期待

作为围棋爱好者和计算机工作者,我坚信电脑胜出是时间问题,但是我真的没想到第一局电脑就赢了。AlphaGo和李世石的这场对弈本身的历史意义是超越胜负的。从19年前IBM的“深蓝”电脑在国际象棋比赛上战胜世界大师卡斯帕罗夫以来,计算机科学与技术作为人类智慧的结晶,所表现出来的强大计算能力和惊人的成长潜力,都令人叹为观止。据说AlphaGo拥有的最了不起的人工智能能力是自我学习的能力。今天有好几次非常规落子,都让许多专业棋手表示“看不懂”。Google的工程师也表示,AlphaGo早就不依赖棋谱来决策落子的选择。能够让机器开始有自我学习的能力,这是非常了不起的事情。

更重要的一点是,李世石作为人类围棋领域的顶级代表,多少年才能培养一个?全世界能有几个?然而我们复制一百万个、一千万个AlphaGo的难度又有多大呢?一个人的智力和技巧的提升,无论他多么出类拔萃,对于其他人的影响终究有限。而一台机器的智能水平能走到哪里,其它机器就都能走到哪里。从这一点上看,我对未来人工智能的发展充满了期待。

这几十年来,计算机产业带动的社会变革是日新月异,我们每个人都切实感受到了智能设备对我们生活带来的翻天覆地的变化。我们每一个人都可以轻松地通过智能设备极大地提高和扩展我们个人的能力。想想看,搜索引擎,GPS和电子地图等技术,多大程度上改变了你现在每天都在经历的生活?

人工智能、智能算法、智能设备……本质上,是我们希望用科学技术的可复制性,来实现为我们每个人服务的期待。得益于科学技术的进步,今天我们一个普通人的生活水准,恐怕都比几百年前的皇帝好太多了。[本文选摘自小米科技创始人雷军微信公众号]

李开复:人工智能可能令人类醉生梦死

基于深度学习的人工智能将带来什么改变呢?我们将看到无数的商机和产品,能够解决问题、拯救生命、产生巨大的商业和用户价值。这些技术可能辅助专家,也可能取代专家。非专家的工作者很多将会面临失业。未来十年,大部分今天的人类工作可被机器取代。机器将取代许多的护士、记者、会计、教师、理财师的工作。任何带有“助理”、“代理”或“经纪”等字样的职位都很可能被取代。这些机器不需要工资,只需要供电和网,就会一年365天,一天24小时“上班”。这些机器将帮助我们创造世界上的大部分财富。

虽然这些机器确实很“聪明”,而且又高效、勤奋、低廉,但是他们并不“人性化”,只是冷冰冰的机器和工具。比如说,AlphaGo第一场就战胜了李世石,但是它不会感觉高兴,也不会理解我们对于它的讨论。甚至,它说不上这局棋是怎么赢的。因为,它的思考虽然周密,但是它不懂“赢了有什么感受?”,也不懂“为什么围棋好玩”,更不懂“人为什么要下棋?”,甚至连“你今天怎么赢的?”都说不上。今天的机器完全无法理解人的情感、喜怒哀乐、七情六欲、信任尊重、价值观等方面。对于人文艺术、美和爱、幽默感,机器更是丝毫不懂。有位AI研究员做了一套研究幽默感的系统,然后输入了一篇文章,这个系统看了每句话,都说“哈哈”!今天的机器连个两岁小孩都不如。对人工智能的研究者,这应该是一大未来的挑战。

所以,今天这些机器仅仅是我们的工具。至少今天,我们不必担心人工智奴役我们(不过要盯好拥有机器学习+大数据的公司,别来作恶伤害用户)。那我们该担心什么呢?这些强大的机器,将带来人类有史以来最大的“下岗潮”。这次的“机器取代人类”将远超过去的工业革命和信息革命。不过,“下岗”还不是最可怕的,因为这些机器会产生巨大的商业价值,养活着这些下岗者,进而养活着人类。人类最应该担心的是一旦当机器供养着人类,人类达到了马斯洛需求的基本需求,人类真的还会有动力去追求更宏伟的目标,自我实现吗?还是会醉生梦死、无所事事地活着?

面对这个担心,我们应该:

①关注启发式教育,用互动式教育启发孩子对学习的兴趣和效率。AlphaGo愿意跟人类学习,我们当然也要善用最善于分析,最博学的机器。善于学习,乐于学习的孩子,是不会醉生梦死的。

②正视发育右脑的学科领域,平衡文理。塞翁失马,焉知非福?机器超越人类的左脑(工程逻辑思维),也许就是要人类从过去几十年重视理工,倾斜回来,花更多的精力在机器不擅长的右脑,例如:文学诗歌、艺术音乐、电影话剧、文创设计、工匠之美、宗教哲学、沟通情商。这不是说就不要学理工了,而是说应该让适合理工,爱好理工的人学理工,适合人文,爱好人文的人学人文。我们应该平等看待文理,并且鼓励发展文理双全的人才。

③鼓励有上进心的年轻人挑战自己,孜孜以求,成为专才。不要把时间浪费在“安稳”但是重复性的工作上,而要以“成为某个特殊又有用领域的最顶尖人才”为目标,为己任。[本文选摘自新浪体育李开复署名文章《人工智能对人类社会的威胁在于人类自身》]

雹金:人工智能可能是人类犯下的最大错误

好莱坞大片《超验骇客》正在上映,约翰尼·德普和摩根·弗里曼在片中展示了对人类未来相互冲突的看法。人们大多会把高度智能机器概念当成纯粹的科幻,但这是错误的,有可能是历史上最严重的错误。

人工智能(AI)研究现正迅速发展。近来的里程碑(如无人驾驶汽车、计算机在《危险边缘》智力竞赛节目中获胜、数字私人助手Siri、Google Now和语音助手Cortana等)不过是史无前例的投资激发信息技术军备竞赛的征兆。与今后几十年会出现的事物相比,这些成就大概微不足道。

潜在的好处很多。文明所能提供的一切都是人类智慧的产物,人类无法预言当这种智慧被AI能提供的工具放大时人类能实现什么,但消除战争、疾病和贫困将是所有人都最盼望的。成功创造AI将是人类历史上最重大的事件。

遗憾的是,如果人类不学会避开风险,那它也可能是最后的事件。在近期,世界各国军队都在考虑能选择和消灭目标的自主武器系统;在中期,正如埃里克·布林约尔松和安德鲁·麦卡菲在《第二次机器时代》一书中所强调的,AI也许会改变人类的经济,既带来巨大财富,也带来巨大混乱。

再往前看,能实现的东西没有根本性极限:没有物理定律阻止粒子以某种方式组织起来,从而能比人脑中的粒子组合完成更高级的计算。爆炸性转变是可能发生的,但其过程也许会不同于电影情节:正如欧文·古德在1965年认识到的,具有超越人类智能的机器会不断进一步改善自身设计,引发韦尔诺·温格所称的“奇点”和约翰尼·德普在影片中扮演的人物所称的“超验”。

人们可以想像这种技术智胜金融市场,发明能力超过人类研究者,操控能力超过人类领袖,开发出我们根本弄不懂的武器。虽然AI在短期内的影响取决于谁来控制,但长期影响取决于它还能否受到控制。

因此,面对收益和风险都不可估量的未来,专家们肯定在想尽一切办法确保最佳结局,对吗?错了。就AI而言,虽然人类将遭遇历史上有可能最好也可能最坏的事情,但除了剑桥大学生存风险研究中心、人类未来研究所、机器智能研究所和未来生活研究所等非营利性研究机构以外,没什么人对这些问题进行认真研究。所有人都应当问问自己现在能做些什么来提高获得收益而避开风险的可能性。[本文摘自剑桥大学教授斯蒂芬·霍金、加利福尼亚大学伯克利分校教授斯图尔特·拉塞尔等人在英国《独立报》上发表的文章]

埃隆·马斯克:人工智能的安全问题令我心神不宁

众所周知,有段时间我一直对人工智能心存担忧。我找Sam、Reid(Linkedln创始人Hoffman Reid)、Peter Thiel(PayPal联合创始人)还有其他一些人谈了很多次,当时就在想:“有没有某种方式能够确保,或者是增加人工智能往有利的方向发展的可能性呢?”反复探讨之后我们得出结论,创办一个符合美国税法501c3条款的、非盈利的、没有义务追求利润最大化的公司,应该是个不错的办法。当然,我们也会非常注意安全问题。

然后就有了一个重要的哲学性问题:我们希望人工智能普及开来。有两个意见:你想要多数人拥有人工智能呢?还是希望少数人拥有人工智能?我们认为可能多数人拥有比较好。我们可以把人工智能和人类个体意志的延伸联系在一起。

因为人工智能是人类自己意志的延伸,所以每个人本质上是与人工智能共生的,不能把人工智能当做独立的中央智库。想一想我们是怎样使用网络的?通过手机应用,我们可以收发邮件,玩转社交媒体,网络让我们有了三头六臂,而我们并不会将这种能力当成身外之物,而是把它当成自己的一种延伸。我们可以把人工智能往这个方向引导,这就是我们想要做的。我们现在已经召集了一批这一领域内志同道合的工程师和研究员,他们也有同感。

人工智能安全这个问题,已经萦绕在我脑海里很长时间了,老这么心神不宁也不是办法,我只能去做了。这是一个不以盈利为目的的投资。将来我们有可能会有收入,就跟斯坦福研究院那样。但只是收入,不是利润。没有股票价格,也没有其他什么东西,股东们不会因此获得收益。我们认为这样挺好的。[本文摘自特斯拉CEO埃隆·马斯克2015年12月接受媒体采访时的发言]

猜你喜欢
机器人工智能人类
机器狗
机器狗
人类能否一觉到未来?
人类第一杀手
1100亿个人类的清明
2019:人工智能
未来机器城
数读人工智能
下一幕,人工智能!
人类正在消灭自然