人工智能概述及展望

2017-11-30 06:26:04殷越铭樊小萌邢贝贝
科技与创新 2017年20期
关键词:类人专家人工智能

殷越铭,樊小萌,邢贝贝

(南京邮电大学,江苏 南京 210023)

人工智能概述及展望

殷越铭,樊小萌,邢贝贝

(南京邮电大学,江苏 南京 210023)

从SIRI到自动驾驶汽车,人工智能正在迅速发展。虽然科幻小说中常将人工智能描绘成具有类人特性的机器人,但人工智能可以涵盖从谷歌的搜索算法、IBM沃森到自动武器的任何科技。对于人工智能而言,狭义上指AI,因为它被设计来执行的任务范围比较狭窄。比如,其仅执行面部识别或只进行互联网搜索、驾驶汽车。然而,许多研究人员的长远目标是创建广义AI,即AGI。虽然AI能在其特定的任务上超越人类,比如下棋或解方程,但AGI将在几乎所有认知任务上超越人类,成为超级机器人。介绍了未来人工智能安全性问题,并解释了AGI的误传现象。

人工智能;AI;超级机器人;有效性计算

1 研究背景

在短期内,保障AI对社会有益的科研范畴可涵盖诸多领域,比如经济学、法学、验证法、有效性计算、安全控制论等技术层面课题。如果AI系统能够控制汽车、飞机、心脏起搏器、自动交易系统或电网,则我们必须保证该系统完全遵照我们的指令运行,否则后果不堪设想。此外,短期内的另一个问题是如何防止自主武器的毁灭性军备竞赛。

从长远来看,如果我们成功创造了能在所有认知功能上超过人类的强AI,将会发生什么?比如约翰·古德在1965年所说的:“设计更有智慧的AI系统本身就是一个认知任务。这样的系统有潜力执行递归式的自我完善,触发智能爆炸,并远远地超越人类智力。通过发明革命性的新技术,这样的超级智慧可以帮助我们消除战争、疾病和贫困。因此,创造强AI可能是人类历史上最重大的事件。”然而,一些专家担心人类的历史也会随着此类的超强大AI的诞生戛然而止,除非我们学会在AI成为超级智慧之前使其与我们同心所向。

2 问题的提出

有些人质疑强AI是否会实现,也有些人坚信创建超智能AI对人类必定是有益的。

FLI承认这2种情形皆有可能,但我们应意识到人工智能系统具有有意或无意造成巨大危害的潜力。我们相信今天的研究的意义在于防患于未然,使未来人们受益于AI的同时,规避潜在风险隐患。

大多数研究人员同意,一个超智能AI不可能产生人类的情感,比如爱或恨。他们也认为人们没有理由期望AI有意识地趋善向恶。当考虑AI如何变为风险时,专家认为有2种情况最有可能发生,具体如下。

3 案例分析

3.1 AI被设计执行毁灭性任务

自驱动武器(自主武器)是为杀而生的人工智能系统。如果落入不法分子手中,易造成大量人员伤亡。此外,AI军备竞赛也可能无意中引发AI战争。为避免被敌对势力从中阻挠,这些武器的“关闭”程式将被设计得极为复杂,但人们也可能难以控制这种问题。这种风险虽然也存在于狭义AI中,但随着AI智能和自驱动水平的提高,风险也会增大。

3.2 AI被开发进行有益的任务

AI被开发进行有益的任务的过程中,执行过程可能是具有破坏性的,这可能发生在当我们尚未完成人类和AI目标的全方位映射的情况下,这并非易事。比如,当人们呼叫一辆智能车以最快的速度将自己送至机场,它可能不顾一切地遵从指令。超智能系统的任务是一个雄心勃勃的地球工程项目,但其可能对生态系统造成破坏,并把人类试图阻止它的行为作为一个必须消除的威胁。

从这些例子来看,我们对AGI的担忧并非在于其可能产生的恶意,而是它可能具有的能力。超智能AI(AGI)非常善于完成其目标,如果这些目标与我们的目标不一致,则可能造成不堪设想的后果。人工智能安全研究的一个关键目的就是要避免将人类置于危险的情况中。

4 关键问题

史蒂芬·霍金、伊隆·马斯克、史蒂夫·沃兹尼亚克、比尔·盖茨等许多科技大腕和许多领导AI的研究科学家队最近通过媒体表示了他们对AI风险的关注。AGI的成功实现一直被人们认为是天方夜谭,即使达成,最少也是几千年以后的事情。然而,由于最近的突破性研究和许多AI里程碑的实现,5年前被专家认为是几十年后才能达到的技术已经实现。这让许多专家认真地考虑在我们整个人生中出现超级智能的可能性。虽然一些专家仍然猜测类人AI在几个世纪以后才可能出现,大多数AI研究员在2015年波多黎各会议中预测类人级别的AI可能在2060年之前产生。因为AI安全研究可能耗费十几年才能完成,所以,我们应该对这些方面进行研究。由于AI有可能变得比人类更聪明,我们并没有确定的方式来预测它的行为将会是如何。对于AI的发展可能衍生出什么后果,我们不能将以往的技术发展作为参考,因为我们从来没有创造出任何能够在智慧上超越人类的科技。事实上,我们最能作为参考的依据便是人类本身的进化史。人类之所以能在今天成为地球的万物之灵,并不是因为我们最强、最快或体积最大,而是因为我们是最具智慧的。如果有一天我们不再是世上最聪明的生物,我们还能够自信地控制这个世界吗?

FLI的立场是,只要我们管理科技的智慧比AI的力量更加强劲,我们的文明就会持续蓬勃发展。针对AI技术,FLI的立场是,我们应该在不阻碍AI发展的前提下,通过支持人工智能安全研究来提高对AI科技的管理能力。

5AGI误传

目前,关于人工智能的未来以及它对人类意味着什么的讨论正在进行,AI技术有许多顶尖专家都无法达到共识的争议,比如AI对就业市场未来的影响、类人级别的AI是否/何时会被开发、AI开发是否会导致智力爆炸。但在实际研究中,我们应该把目光放在专家们无法达成一致的有趣争议上,比如,我们是否应该开发致命的自主武器,通过工作自动化实现的结果,给目前的大学生的职业建议,是否能实现由机器创造财富的无业社会。在未来,我们创造出的超智能生命是否能传播到宇宙中?我们是否能控制智能机器,还是由其控制我们?智能机器会取代我们,还是与我们共存?在人工智能的时代中,身为人类的意义是什么?在此,笔者期待与更多的人共同讨论这些问题。

[1]吕泽宇.人工智能的历史、现状与未来[J].信息与电脑(理论版),2016(13).

[2]顾险峰.人工智能的历史回顾和发展现状[J].自然杂志,2016(03).

TP18

A

10.15913/j.cnki.kjycx.2017.20.052

2095-6835(2017)20-0052-02

〔编辑:张思楠〕

猜你喜欢
类人专家人工智能
致谢审稿专家
计算机应用(2022年2期)2022-03-01 12:35:06
5类人跟泡脚“八字不合”
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能与就业
IT经理世界(2018年20期)2018-10-24 02:38:24
口头禅暴露性格
数读人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南风窗(2016年19期)2016-09-21 16:51:29
请叫我专家
专家面对面
Ⅵ型类人胶原蛋白基因COL6A2的克隆及在毕赤酵母中的分泌表达
食品科学(2013年9期)2013-03-11 18:22:04