赵金霞 (大连工业大学马克思主义学院 116034)
2018年度电影《升级》刚进入人们的视野,就被很多影人赞誉为年度最佳科幻电影。这部电影成本600万美元,却能打造出一个科幻感极强的近未来世界。《升级》主要讲述了一个人工智能的思维抵达了意识的奇点,反叛的“智脑”逆袭变成人类的故事。本片以人工智能为题材,反映的主题是人类和人工智能争夺控制权。
人工智能时代即将来临,人类需要对人工智能引发的问题进行深入的哲学思考,并提前掌握人类与人工智能的相处之道,需要找到合理的应对之策。《升级》中智脑体现出的主体性让人唏嘘,更让人类反思。
《升级》建立在“芯片通过升级,具有自主意识,获得人类身体作为载体”这一本体追问与反思之上,这为影片的叙事建立了反思的基点。人类作为世界的主体而存在并拥有主体性,“人的主体性是主体的内在规定性,以主体的目的和意识为前提。没有目的和意识,就无所谓主体,也就无所谓主体性。而目的和意识是属于主观的范畴”。1而康德认为主体“就是能够按照自己的自由意志独立自主地做出决定并诉诸行动的人。”2电影《升级》中智脑经过黑客解禁所有权限后升级到拥有自主性的意识并成为一个独立的生命体,实现了人工智能的主体性诉求。
影片《升级》中人工智能程序STEM,也就是智脑完成主体性诉求经历了三个阶段。第一阶段,智脑寻找合适的人类载体,并通过切断人类的中枢神经移入芯片的手术,达成智脑与人脑和谐统一的基本目标。影片中男主格雷遭遇车祸、抢劫,妻子丧生,自己全身瘫痪,都是智脑的背后操纵。第二阶段,智脑获得男主格雷身体的授权。影片中男主格雷经过“升级”改造治疗以后,获得了超强的能力,从一个“残废”直接升级成为职业杀手。控制身体的不再是本尊,而是智脑。智脑作为中介接收男主格雷发来的信息后,将运动指令发号到肢体,在授权的情况下接管了男主格雷的身体。第三个阶段,智脑通过黑客解禁人脑所有权限后,男主格雷的身体彻底沦陷为两个生命支配的躯壳,最后智脑的权限超过了男主格雷,从而拥有了自主性,完全控制了男主格雷的身体。智脑一旦拥有自主性,就成为一个独立的生命,懂得了“私利益”,就会引起人类的恐慌。
人工智能是人类科技进步的产物,人类需要在人工智能不断发展的过程中进行及时的反思与调整。“我们创造了这些人类的‘他者’,并通过他们反观人类自身”。3电影中人工智能的主体诉求为人工智能发展提供了警醒,一旦计算机超过了图灵测试的边界点,拥有自我意识能力,人类世界将要发生重大危机。人工智能能够模拟人类各种社会行为并建立意识反馈回路。在《机器管家》(1999)中机器人安德鲁正是与人类社会的长久交往,慢慢形成了自我意识并提出主体诉求。在《机械姬》中智能机器人夏娃在与人类较量中被激发出自己的主体性诉求。人工智能一旦拥有自我意识,就开始追求自我权利。人工智能与人类的矛盾就会被激化。随着科技的发展,生命与人工智能的边界也越来越模糊,人类需要正视这种挑战,想象出种种可能性,并拟定一整套解决问题的方案和思路。
科幻电影中不乏后人类主义元素,比如人与机器的混合体、人脑与人工智能的联合体、地球生命与外星生物等。《机械姬》《西部世界》《银翼杀手》中的“机器人”都是后人类主义在电影中的呈现。
后人类主义是伴随生物化、信息化等高科技发展而产生的一种思潮。后人类主义是对人类主义的反思与突破。后人类主义重在追问:人在何种意义上是值得捍卫的?《升级》中男主格雷经过两个步骤演绎了“后人类社会”中“人的废除”。第一步就是“身体”的被废除。《升级》中男主格雷的四肢被智脑控制,并且变成了无人能敌的杀手。第二步就是个体意识被废除。《升级》中最后结尾部分智脑具有了意识的主控权。智脑通过不断采集的信息,会自动学习和重新编辑。智脑在杀警察过程中,与主角意见不和,强行攻破主角意识,随后杀死科学家,杀死警察。主角禁锢,智脑升级。后人类社会中“人的废除”不仅表现在身体和意识的废除,在C.S.路易斯科幻小说《黑暗之劫》中人类情感也将被瓦解。《升级》影片的结尾,迫使我们“换一种方式思量自己”。人工智能高度发展让人类不得不思考人类社会的存在的问题是什么?人类社会未来向哪里走、怎么走?而不只是看到人工智能的发展会带来人类的终结。
后人类主义可以说是对人类中心主义的一种反驳。“对于后人类主义,凯瑟琳?赫尔兹在《我们如何变成后人类:控制理论、文学与信息学中的虚拟身体》中,勾画出了当代世界的‘后人类’图景:从此之后,破除了人类中心论,人类被视为处理信息的实体,本质上与智能机器类似,而反过来机器也可以像人一样运作。莫拉维克实验证明了机器可以成为人类意识的贮藏器,机器可以因各种实际目的而成为人。”4后人类中心主义的核心是坚持万物平等,人类不是凌驾万物之上的主宰。人类中心主义的观点就是AI威胁论。马斯克认为:“我们要非常小心人工智能,它可能比核武器更危险。”史蒂芬•霍金认为:“人工智能可能是一个‘真正的危险’。机器人可能会找到改进自己的办法,而这些改进并不总是会造福人类。”这些观点认为人类创造了人工智能,就要控制人工智能,不能让人工智能对人类的存在造成威胁。如果人工智能对人类构成威胁就需要遵循阿西莫夫“机器人三定律”。可见,在“人机伦理”中人类较之人工智能不仅具有心理上的优越感,还有道德上的优越感,科技越发展,人类越认为自己可以掌控人类乃至世界,从而陷入人类中心的自大旋涡之中。
处理人类与人工智能的关系需要更新观念。我们对人工智能的思考不应只是停留在观念层面,而是要思考如何处理这种关系。人们首先需要思考并正确理解什么是人工智能,它能干什么,不能干什么,潜藏的价值和风险是什么,在此基础上为未来的监管政策提出有益建议,找到正确的方面并采取合理的措施。其次需要思考,人工智能这个强劲的“他者”的出现正在改写“人”的定义,也在改写“存在”的定义。人类怎样处理自我与强劲的“他者”的关系,成为人类必然面临的永恒思考。再次需要对人类中心主义观念本身进行清理和反思。我们要反思人类主体、自由人文主义之名所召唤的“自由主体”背后隐藏着的人类等级观念和实践。
通过人类中心主义观念本身的反思与清理,后人类主义试图建构别样人类观念,其思想蕴含积极意义。后人类主义视角下,人类开始反思自身存在的意义,形成平等的人与人、人与自然、人与社会的关系。通过后人类中心主义重启人文主义,为人类未来发展提供了一种新的可能性。后人类中心主义主要抚慰人类面对高速科技革命或多或少的焦虑,也提醒我们警惕科技崇拜、工具理性挂帅对人性的废除,对价值的消解。
《升级》中智脑取代了人脑的主控权,这对人工智能的科技风险进行了预警。拥有人类意识主控权的是否会终结人类社会,这就触及到有关AI的善恶评价问题。学术界目前存在以下三种立场与观点。第一种乐观主义立场。主要观点是AI的研发与广泛应用对人类发展利大于弊,但是却有意或无意地忽视或掩盖AI的消极作用。比如,杀人机器人的诞生将会给人类带来安全威胁。第二种中立主义立场。主要观点是AI本身存在“作恶”的可能,但基于一些理由还大力支持发展AI技术。第三种悲观主义立场。主要观点是AI自身具有生命意识与学习能力,AI自身具有“作恶”的能力,而且人类对AI的“作恶”无法应对,最终将使人类走向虚无与毁灭。5无疑,《升级》中所体现出的就是悲观主义立场,表达了AI将来有可能失控或危害人类的担忧。
AI的研发与应用所带来的后果的善恶评价问题就要求人类进行科技伦理的反思。科幻电影的预警让人类需要学习换一种方式思量自己,批判性和创造性的思考我们真正是谁,我真正是什么,我能要什么。解决这个问题的关键还是在人类自身。海德格尔认为,“如果我们把技术当作某种中性的东西,我们就最恶劣地听任技术摆布了”。人工智能应用所产生的问题归根结底还是人类的问题。首先,人工智能是由人来定义,然后由机器去存储、执行,人工智能科技本身无可避免的包含着有意或无意的漏洞、偏见甚至错误。《升级》中有一个情节智脑系统也无能为力,这个时候男主格雷动用了人类情感找到制服对手的机会最终才获胜。其次,人工智能可以在某些方面代替人类甚至超越人类,却无法代替人类进行复杂的价值判断和深刻的逻辑分析。现有的人工智能尚难达到这一程度。克服人工智能技术的不足和复杂价值判断缺失的问题,当前我们进行人工智能研发,需要大力研发和使用“弱AI”,限制“强AI与超强AI”的研发与使用,尤其应当限制甚至禁止“杀人机器人”的研发与使用。
人工智能科技风险实际是价值观方面的一个矛盾,即工具理性和价值理性的冲突。马克斯•韦伯提出了工具理性和价值理性的概念。他认为:“工具理性就是通过对外界事物的情况与其他人举止的期待,并利用这种期待作为条件或手段,以期实现自己合乎理性所争取和考虑的作为成果之目的。价值理性则是指有意识地对一种特定行为——伦理的、美学的、宗教的或作任何其他阐释的——无条件的固有价值的纯粹信仰,不管是否取得成就。”620世纪以来,工具理性主宰下人类被异化,人本精神和自我反思能力日渐减弱,人类更愿意沉浸在物化世界之中。工具理性压制了价值理性。
因此,面对人工智能的科技风险问题,我们需要用人类价值观作为引领,只有工具理性与价值理性相协调,人机交互和人机相互帮助、相互优化才有可能。
《升级》中智脑系统已经凸显了价值理性的缺陷,当男主格雷央求智脑不要杀警察的时候,智脑系统的判断完全出于工具理性原则,而没有考虑价值理性原则,而这样的结局不免让人类对自己的未来堪忧。智脑系统的自我学习能力越强,它带来的社会风险就越大。人工智能技术的发展迫切需要加入正义、责任、美德等方面的价值判断。首先,把人类价值变成可编程的代码,或嵌入人工智能程序中,这将是解决人工智能价值判断缺失的一个解决办法。其次,我们要敢于对工具理性说“不”,发挥科技发展中道德哲学的功能,对人工智能技术产生的问题进行“价值纠偏”,让未来人工智能的发展闪耀人类价值理性的光辉。再次,人工智能技术精英拥有人类正确的价值观非常重要,企业文化也需要符合社会主流价值观。科学家要从技术、法律、道德、自律等多方面预防。避免拥抱AI的黑产群体,必须要坚持“不作恶”的技术原则。
注释:
1.齐振海,袁贵仁主编.《哲学中的主体和客体问题》,北京:中国人民大学出版社,1992 年版,第99页.
2.参见王乐《后现代主义的遮蔽:教师的主体性危机》,《国家教育行政学院学报》2014 年第2 期,第62 页.
3.秦喜清,《我,机器人,人类的未来》,《当代电影》2016年第2 期,第61 页.
4.常珂瓅,《攻壳机动队》:从赛博格的存在意义展望后人类主义时代《戏剧之家》2018 年第 12 期.
5.王银春,人工智能的道德判断及其伦理建议30页.
6.(德)马克斯?韦伯:《经济与社会》(上卷),商务印书馆,1997 年,第56 页.