张 淼
(复旦大学 马克思主义学院,上海 200433)
人工智能(Artificial Intelligence,简称AI) 是对人类智能的模拟和延展,它的核心是算法。作为一种具有划时代意义的高科技,人工智能的应用将给人类社会带来深刻的影响。一方面,它促进生产力的快速发展,依据埃森哲的报告预测,“2035 年人工智能预期可以为12 个发达经济体带来两倍的经济增长速度,中国的经济增长率将从6.3%提速至7.9%”[1]。同时,人工智能也在改变着人们的生活方式和工作方式。另一方面,由于利益驱动、治理滞后等,人工智能的发展也带来了一系列问题,这不得不引起我们的警醒。如何趋利避害、发挥人工智能的最大效益成为新时代无法回避的问题。从马克思主义哲学的视角来审视人工智能, 就会发现解决人工智能应用问题的路径。只有合理规制人工智能的发展,将人工智能定义为人的机器智能、置于人的掌控之下,才能开创人工智能的美好未来。
如何从劳动中解放出来获得更多的空闲时间,是人类一直在思考的问题,人们试图用机器代替劳动。 早在欧洲中世纪,唯名论者R.培根就想构造出一种像人一样劳动的机器。近代,英国天才图灵在二战中破译德军密码时,发明了一种机器,用来帮助自己破译。从此,图灵对机器产生了浓厚的兴趣。 他通过大胆猜想、不断实践,开展图灵测试,赋予机器以人的智能,为人工智能的发展打下了坚实的基础。
1956 年,约翰·麦卡锡、克劳德·香农、赫伯特·西蒙等科学家聚在一起, 探讨如何使机器像人一样言语,如何使机器像人一样行动等问题,史称达特茅斯会议,标志着人工智能学科正式诞生。 虽然在当时,人工智能并不被看好,研究的经费匮乏、基础理论薄弱,但是学者们一直在人工智能的道路上艰辛探索。
伴随着的计算机的飞速发展,计算机的数据承载能力和运算能力大大提高,为人工智能的蓬勃发展创造了条件。从时空的维度来看,人工智能经历了以下几次大的发展。自1956 年成为一门正式学科以来近15 年,研究者制造人工智能机器,用来解决几何问题和代数问题等, 在一定程度上帮助人们解决计算的难题,得到了广泛的关注和认可。 20 世纪80年代,中国、日本和欧美的一些发达国家政府投入大量的科研经费,资助人工智能的研究工作,有力地推进了人工智能的发展。此阶段,专家开发的机器具有外文翻译、人机对话、图像识别等功能。 20 世纪90年代以来,人工智能迎来了前所未有的发展前景。国际象棋世界冠军卡斯帕罗夫被IBM 的深蓝打败、围棋世界冠军李世石被谷歌的Alpha Go 击败等事件的出现,让人们看到人工智能的巨大力量和潜在危险。
ECHO 虚拟助理经过微软的研发,语言能力超过人类;有感知能力的人工神经系统在德国被研制出来;机器人编辑Wordsmith 随后问世。 近年来,人工智能领域取得了很多重大的成就,而2016 年的成果最为显著,被科学家称为人工智能爆发的元年。人工智能运用于生产和生活等各个领域,不知不觉中融入人类的世界。无人机用于明星的舞台表演,增强演出的效果; 大量智能手机采用人工智能的前沿技术;快递公司用机器人取代部分快递员的工作,帮助分拣快递;无人酒店、无人商店等纷纷涌现。杭州已率先成为人工智能城市,利用人工智能来进行管理,大大提高了工作效率,也方便了市民的生活。
人工智能这股浪潮已经向我们袭来,人类要积极应对,而不是一味迎合或者盲目逃避。而科学家们应该遵守摩尔定律、吉尔德(Gilder)定律及梅特卡夫(Metcalfe)定律等学科戒律,使人工智能始终沿着利好的方向发展,确保人工智能永远为人类所用、拓展人类的能力。
随着人工智能技术的逐渐成熟和推广使用,一些问题和挑战也相伴产生。 在我们欢呼人工智能给人类带来便利的同时,也要预估、预判人工智能所引发的一连串问题。因此,我们有必要针对可能出现的问题,分析其根源,进而推动人工智能的可持续发展。
任何技术的开发和应用的前提条件就是安全,这是第一位的。人工智能作为一项高尖端技术,如果脱离人类的控制,将引发严重的安全问题。其一,技术滥用引发的安全危机。人工智能可能被不法分子利用,如黑客可以通过智能技术攻击国家的网站、获取机密信息。此外,黑客还可以借助计算机技术攻破公司的防火墙,非法获得公司的财务信息,甚至将公司财务的资金转移到自己名下。其二,技术缺陷或管理不当诱发的安全隐患。人工智能系统到目前为止还不够成熟,有些技术是存在漏洞的,可能使人工智能系统出现异常或失灵。 例如, 深度学习技术不完善,机器人的生产及安装不当会导致严重后果等。这不是杞人忧天,2015 年7 月,一位工人在大众汽车的工厂被自己安装的机器人杀死。另外,如果保护措施没做好,无人机、无人驾驶汽车等智能系统,可能被犯罪分子侵入,发出错误的指令,使智能机器做出危害社会安全的事情。 其三,物联网技术的应用,加大了人工智能的安全风险。 网络信息资源的空前丰富,加快了人工智能自身的进化速度,大有脱离人类控制的趋势。而人类对人工智能更加依赖,主客体关系可能逆转的态势引起人们的担忧。
人工智能的产生,带来了新的伦理问题。 第一,智能机器的行为规则能否与社会规范相兼容。 机器人也要遵守社会伦理道德,按照人类伦理来行动。如若不然就会引发特殊的伦理问题。 谷歌等公司研制的无人驾驶汽车,拆除方向盘、油门和刹车,仅靠智能系统感知周遭情况,基于大数据的分析而判断行车方向。 如果是正常行驶、没有意外发生,那么智能汽车可以安全行驶。 然而,遇到前方有5 人闯红灯,路边有2 人在等待,在不能及时刹车的情况下,无人驾驶汽车是选择直行还是转向路边呢? 而这类交通事故的发生,又由谁来负责? 显然,这是人类都难以抉择的问题。 第二,随着人工智能技术不断发展,机器人可以通过深度学习,掌握更多的知识信息和技能,它做出的判断往往比人更科学、更准确。目前,智能机器已经被用于医疗、工厂等领域,它们常常承担着决策和指挥的重要责任。在医院,机器人可以帮助医生识别病人的病情、指出诊治的办法,甚至可以代替医生,独立地做出诊断、进行救治。 如果一切顺利皆大欢喜,但要是因为系统故障发生医疗事故,谁来负责?这不得不引起我们的追问,机器人有没有决策的资格和判断的能力? 第三,依据现在的发展势头,未来的机器人还可以具有学习和创造能力。 一旦机器人可以自主学习, 他们就会模仿主人的特点和行为习惯,逐渐形成自己的个性。 这不是天方夜谭,据新闻报道,国外的聊天机器人就通过网络聊天,学会发表不当言论。若不对机器人进行规范性教育,任由机器人随意发展,它们就可能犯错。因此,对机器人进行教育引导势在必行。那么,谁来承担对机器人的教育责任?由于教育缺位引发的问题又由谁负责?我们必须提前预估这些伦理问题的危害,及早拿出解决的方案。
大数据驱动人工智能的新一轮发展, 随之而来的是隐私问题日益显现。首先,日常生活中的隐私侵犯。人工智能广泛地应用于人们的生活之中,衣食住行都离不开智能系统。 在淘宝、京东等网上商城购物,商家会记录消费者的数据。这种个人信息被电商平台记录下来,经过整合、分析,就能推断买家的购物习惯和偏好,后面平台就会不定期地给他们推送相符合的商品信息。 这种在不经过消费者允许的情况下, 收集个人信息的做法在一定程度上侵犯了个人隐私。其次,很多政府部门、公司和民众,经常把大量的数据信息上传到云端,这样既方便快捷,也便于提取。 但是,云端储存信息也存在隐私安全问题。 云端智能系统本身也不是十全十美的,偶尔的漏洞可能造成数据丢失或泄露。同时,云计算也面临来自各方面不法分子的威胁和挑战。最后,在信息的分析处理及提取过程中,都有可能出现隐私安全问题。工作人员如果操作失误,可能使数据遗失或残缺;黑客也可能趁机窃取数据; 提取的信息可能因为保存不当而泄露。
人工智能的发展迅猛, 是否会在某一天超过人类、进而控制人,这使人们忧心忡忡。 著名科学家霍金声称:“人工智能的全面发展可能导致人类的灭绝。”无独有偶,库兹韦尔认为,人工智能以超预期的速度赶超人类智能。 2045 年是“奇点”到达的时期,在这极具分裂性的时间点,非生物智能将会10 亿倍于今天所有人类的智慧[2](80)。人工智能是高收益与高风险的统一体,关键在于人类怎么运用和规制。人工智能的广泛使用,大大提高了生产效率,减少了对自然的破坏,进一步解放了人类。然而,不确定的是,人工智能是正在无限制地帮助人类, 还是使得人类逐渐丧失主体性、逐步边缘化直至毁灭? 因此,人类必须增强前瞻性,做好充分的准备,减少人工智能对人类的威胁。
如果现在不对人工智能加以控制, 将来可能给人类带来巨大的灾难。 正如波斯特洛姆做的曲别针思想实验: 如果一种人工智能系统被设置为使曲别针的产量最大化,那么,这种人工智能系统很可能具有无法满足的胃口,不断地获取物质和能力,走上首先将地球、 然后将整个可观察宇宙的大部分都变成曲别针的道路[3](153)。 人工智能系统都是基于数据分析、遵从特定的指令,它的发展要符合社会要求,这样才不会与人类的意愿背道而驰。质而言之,人文社会科学从来都不是跟在自然科学后面亦步亦趋的,人文社科应该走在前面、起到领航的作用。不能等到人工智能出现问题,才去想办法修补。理论的科学性在于,先于实践而指明发展的方向。 因此,做好充分的理论准备显得十分必要。
智能系统终归是由人研发的,它产生的问题根源于人的因素和技术本身的缺陷。因此,我们要从人工智能出发,完善人工智能的行业规范,切实解决人工智能的应用问题。
将安全管理与风险评估引入人工智能系统的研发、应用及反馈等过程,是发展人工智能的应有之义。强化人工智能的安全管理,就是要在生产智能机器之前,全面地分析机器的可靠性和安全性,确保机器生产出来对人类无害。在生产过程中,要加强对科研人员和工作人员的监管和教育。 在机器投入使用后,要全程跟踪、及时反馈,不断优化智能机器的运行状态。安全评价指:“主要研究、处理那些还没有发生,但有可能发生的事件,并把这种可能性具体化为一个数量指标,计算事故发生的概率,划分危险等级,制定安全标准和对策措施,并进行综合比较和评价,从中选择最佳的方案,预防事故的发生。 ”[4](11)由此可知,加强对人工智能的安全评估,可以使研发人员更清楚地认识到智能机器的危害性和潜在威胁,进而设计出更安全的智能系统。
另外,要提高智能机器人自我管控的能力,也就是研制出人工智能的安全系统,与工作的主系统同步运行。在遭遇突发险情时,智能的安全系统可以独立、及时地采用补救措施,将危害降到最低点。 正如福克斯指出, 应让人工智能安全系统来严格管理人工智能。因为随着人工智能的快速发展,它在某些领域将会超过人类的智能。在未来,人类对于自己研发的人工智能系统,未必能实施全时段、全过程的监管。而只要设计出科学合理的人工智能安全系统,就能辅助人类更好地管理智能机器。
在研发智能机器之前, 要将人类的道德准则和伦理规范转化为算法,编入智能系统中,使机器人成为独立的道德行为主体,使它们进化为“道德模范”。其一,在生产智能机器之前,就将道德要求编成机器人的行动指令,规范它们的发展进程。这种直接输入的方法简易、有效,但是需要强大的技术支持,是今后努力的目标。 其二,参照人类的思想道德形成过程,在实践中,逐步帮助机器人“培养”人的道德观和价值观。综合运用以上两种方法,将伦理道德规范编入机器人的智能系统中,使机器人做出更加人性化的道德抉择和道德行为。此外,还可以将理性因素添加进智能系统, 使机器人的行为更加理性、 更加客观。 历史上,瓦拉赫和艾伦论证了使机器人成为“道德楷模”的可行性。只要制定出人工智能的伦理规范,并将其转化为算法编入机器人的中枢系统,就有可能规避智能机器的伦理问题。
与此同时, 为了防止居心叵测的技术人员和其他人员恶意滥用智能机器, 也要加强对科研人员等的伦理道德教育。 要将道德准则纳入人工智能的从业规范中,完善相应的规章制度,规范科研人员的言行。开展常态化的伦理教育,潜移默化地影响从业人员的思想及行为,提高他们的道德素养,增强他们的社会责任感。 只有从智能机器和研发人员两个方面入手,落实人工智能的伦理规范,才能推进人工智能的良性发展。
伴随着人工智能的发展, 必然产生隐私泄露等问题。如何保护隐私成为热议的话题,隐私权神圣不可侵犯, 我们有必要加强人工智能的隐私保护。 第一,在人工智能时代,要调整并完善保护隐私的法律体系,使隐私法更契合时代要求和社会现状。人工智能的发展和普及,给人类社会带来了巨大的改变。以前的隐私法已经很难适应现在的变化。 立法部门应该回应时代之变和民众期待,及时更新隐私法,将智能机器和研发人员等都纳入法律轨道, 用严格的法律规范人工智能行业。 第二,加大国际合作的力度,制定全球通用的人工智能法律规范,用以保护隐私、维护人工智能的发展秩序。世界各国要齐心协力,借助联合国等平台,开展人工智能领域的法律合作,共同构建完善的制度规范,推动人工智能的新发展。因为,人工智能作为前沿科技,它将给全世界带来深远的影响。它不仅带来前所未有的机遇,也带来巨大的风险,需要全人类共同应对、共同行动。第三,要提高研发人员和其他技术人员的法律意识,增强普通民众的隐私保护意识。 技术人员因为工作关系可能会接触到人们的隐私信息,但一定要遵法守法,时刻提醒自己不能侵犯个人隐私,更不能传播他人隐私。侵犯别人隐私不仅会受到道德的谴责,也会遭到法律的制裁。此外,民众在日常生活中,在操作智能系统时,不要留下隐私信息,切不可泄露自己的重要信息。
短短六十年,人工智能的发展速度让世人震惊。在未来,人工智能会不会全面超过人类智能?人工智能会不会导致人类的灭亡? 这些问题让人们忧心不已。能否阻止人工智能的发展步伐,从源头上消除问题出现的可能性?显然这是行不通的,依据现在世界各国的重视程度和人工智能的发展现状, 我们很难使人工智能停止发展。 况且关键不在于人工智能发展的速度,而在于人工智能技术是否永远掌握在具有正义感的人手中。当然,我们也要限定人工智能的自主程度,牢牢掌握智能系统的控制权。正如霍金斯指出:“对于智能机器我们也要谨慎, 不要太过于依赖它们。 ”[5](224)机器人始终是人类创造的工具,我们可以利用它们为人类做事,提高工作效率。我们可以发挥智能机器在存储信息等方面的优势,为人类谋福利。而人类的感知能力和行为意义等优于机器人,在这些方面,人类要亲力亲为,掌控事件的最终决策权。 另外,我们要限制人工智能的复制能力,使其不能无限地复制下去。技术人员在研发的过程中,就要设计好智能机器的自主范围和程度, 要确保机器人完全地听从人类的指令。 要严密管控智能机器的生产和销售等环节,避免纰漏的出现。