摘要:人工智能对意识形态的操控能力,既源于法兰克福学派对科学技术与意识形态的关系的辨析,也缘于人工智能技术的特性。人工智能对意识形态的操控表现在:作为一种技术工具对意识形态的操控;资本、权力、技术的控制者利用人工智能操控意识形态;机器人本身所具有的意识形态。人工智能对意识形态的操控可能会带来透明人的法律和伦理风险、算法偏见和算法独裁风险、不同国家意识形态冲突失控风险。化解这些风险需要综合运用AI伦理、法律手段和技术力量。
关键词:人工智能;意识形态;风险化解
基金项目:教育部哲学社会科学研究重大课题攻关项目“人工智能的哲学思考研究”(项目编号:18JZD013);陕西省教育厅专项科研计划项目“信息时代的价值冲突与价值共识问题研究”(项目编号:16JK1038)
中图分类号:B022 文献标识码:A 文章编号:1003-854X(2020)02-0011-06
随着以深度神经网络为基础的人机交互、机器学习、自然语言处理、模式识别等技术的突破性进展,人工智能迎来了发展的“第三次高潮”。与以往的技术不同,人工智能是具有人类“思维”的智能机器,是一种深刻改变世界甚至深刻改变人类的变革性、颠覆性技术。当人工智能的“触角”逐渐伸入社会的每一个角落之时,当国家的各种活动高度依赖于各种智能系统之时,当意识形态被人工智能技术“俘获”和“刻画”之时,我们不禁要追问:人工智能何以能够对意识形态进行操控?人工智能对意识形态的操控表现在哪些方面?这些“操控”会带来什么风险?如何化解这些风险?
一、人工智能何以能够对意识形态进行操控?
人工智能是集众多高精尖科技为一体的交叉复合型创新技术,其对意识形态的操控能力,既源于法兰克福学派对科学技术与意识形态关系的辨析,也缘于人工智能技术的特性。
(一)法兰克福学派对科学技术与意识形态关系的辨析
关于科学技术与意识形态关系问题,以霍克海默、阿多诺、马尔库塞、哈贝马斯为代表的法兰克福学派曾倾注了极大的兴趣探究科学技术的意识形态属性、功能等问题,形成了独树一帜的科技意识形态理论。在他们那里,科学技术的意识形态功能实际上反映了其作为一种工具操控意识形态的现象。这为我们探究人工智能对意识形态的操控问题提供了学理依循。
首先,科学技术本身就是一种意识形态。阿尔都塞曾断言,科学与意识形态之间横着一条“鸿沟”。但霍克海默指出:“不仅形而上学,而且还有它所批评的科学,皆为意识形态的东西。”① 霍克海默与阿多诺在合著的《启蒙辩证法》中认为:“技术上的合理性,就是统治上的合理性本身。它具有自身异化的社会的强制性质。”② 如果说霍克海默和阿多诺对技术操控意识形态的描述和哲学批判稍显隐约,那马尔库塞则旗帜鲜明、一针见血地指出,当代发达资本主义社会由于技术装备日益自动化,技术“中立性”的传统概念被打破,技术被纳入在政治统治的框架中,具有思想灌输和操纵的作用,能够为政治统治提供概念和工具,即“技术控制看来真正体现了有益于整个社会集团和社会利益的理性”③。在马尔库塞看来,科学技术的意识形态属性是通过科学技术对社会的控制和调节实现的。因为发达工业社会是由科学技术的进步而形成的一个新型的极权主义社会,它窒息了人们对自由独立思想新鲜空氣的摄取,削弱了否定性思考的力量(物理性批判力量)。哈贝马斯也认为,在发达工业资本主义社会中,基于发达工业社会国家干预活动增加而导致的政治合法性危机和科学技术成为“第一生产力”的原因,科学技术在整个社会生产生活中变成最高评价标准,成为一种操控的手段,从而具有了意识形态的功能。
其次,科学技术对意识形态的操纵是通过生活化逻辑的隐性形式进行的。传统政治意识形态的运行主要是依靠统治阶级自上而下的政治宣传教育。进入发达工业社会,科技意识形态运行的逻辑主要通过工业文化科技产品在日常生活中的广泛应用,使人们安于眼下的生活状况而失去批判社会基本问题的能力。霍克海默指出,资本主义文化工业产品诸如电影、电视、无线广播等到处被使用,甚至在人们消遣娱乐时也会被“灵活地消费”。这种“文化工业的每一个运动,都不可避免地把人们再现为整个社会所需要塑造出来的那种样子”④。马尔库塞认为,发达工业社会生产机构及其所生产的商品和服务设施起着思想灌输和操控作用,它会引导人们产生一种“虚假的难以看出谬误的意识”,这种意识已经潜化为人们的一种生活方式,而且是形式上比以前更好的生活方式。哈贝马斯指出,统治阶级通过科技进步成果对个人需求补偿的方式(提供物质福利)获得民众对政治统治的忠诚和认可,即科学技术成为政治统治的合法性基础,表现为“技术统治的意识”。与以往旧的意识形态相比较,“技术统治的意识”所具有的“意识形态性较少”,而占主导地位的隐形意识形态“比之旧式的意识形态更加难以抗拒,范围更为广泛”⑤。
(二)人工智能技术的特性为其操控意识形态提供了有利条件
从人工智能技术的特性来看,由于AI技术具有强渗透性和广泛应用性等特征,一方面,借助于移动互联网、大数据、云计算、物联网等技术平台,其在提高劳动效率、推动生产力发展方面冠绝以往所有的技术,从而为人工智能在人类生产生活的殿堂中“登堂入室”提供了合法性基础。另一方面,其在交通、医疗、教育、安保、文化等日常生活方面的广泛应用为人们创造了享受“美好生活”的图式,满足了哈贝马斯所说的“对个人需求的补偿”,具有“技术统治意识”的特性。更进一步,由于人工智能是具有一定人类“思维”的智能机器,其可以辅助或代替人类完成很多以前必须要人类亲力亲为的脑力和体力工作,开启了智能生活的图式。比如,定位导航靠软件、出行靠自动驾驶、家务劳动靠机器人、交通管理靠智能指挥系统、社交依靠拟人化机器人伴侣,等等。智能生活图式既会使人们徜徉于眼下舒适生活的“温床”中而失去思考和批判社会基本问题的能力,也会使人类过度依赖于人工智能,产生“人工智能依赖症”,其思想和观念将在很大程度上被科技意识形态所俘获。
随着智能化技术和产品如潮水般涌入人们的生产生活,智能系统的活动正在成为一种不可或缺的社会活动方式,扮演着维系社会正常运转、保证人们生产生活顺利进行、提高工作学习效率的重要角色。这些智能系统的应用打破了以往依靠工业文化武装起来的一对多式的“信源→信宿”单向性、固定化传接模式而造成的信源与信宿之间的信息分裂,利用大数据和搜索技术进行量身定做式个人化信息的精准和动态定位、追踪、推送,从而把意识形态的输出化约为数据处理活动,形成了经济基础与大数据共同宰制意识形态变化发展的状态,其中内隐的意识形态操控不言而喻。
二、人工智能对意识形态操控的诸种表现
从人工智能的发展阶段、人工智能与人类的关系、人工智能发展的社会因素角度出发,人工智能对意识形态的操控主要表现在以下几个方面:
(一)作为一种技术工具对意识形态的操控
塞尔曾借用哲学认识论的概念,对人工智能作了“强”和“弱”的区分。这一区分立足于现实和未来,既描述了人工智能的不同发展阶段,也暗含了人工智能与人类的关系,为我们分析人工智能对意识形态的操控提供了一个视角。
在弱人工智能阶段,人工智能仅仅作为一种工具被人类使用,人类与人工智能是主客体关系,人工智能对意识形态的操控主要表现为建立在机器学习基础上的算法操纵。随着海量数据的爆炸性增长和计算机计算能力的快速提高,机器学习技术不仅广泛应用于自然科学领域,而且也开始应用于人类社会,用于分析、预测人类社会现象。机器学习是对海量数据的处理,解决的是“知识发现问题”,其本质上是一种算法,这种算法本身存在着意识形态操控现象。比如,在社交媒体上,基于越来越多的用户开始使用图片和短视频表达自己的想法,美国罗彻斯特大学计算机系教授Lebo Luo与Adobe Research 研究人员运用监督学习中的深度神经网络技术,训练计算机进行文本情感分析,以便确定给定图片可能呈现出的人类情感。这项工作可能会对预测选举结果很有帮助,从而体现出“工具属性”的意识形态操控。据统计:“图片情绪分类准确度已经超出同类Twitter消息的文本情绪分类准确度。”⑥运用监督学习中决策树的分类方法,可以建立判断个人的价值取向、政治观点、行为方式的很多数据观测点(如年龄、学历、履历、政治面貌、工作单位、工作表现等)。利用这些数据训练建立与个人的价值取向、政治观点、行为方式之间的关系,机器就可能较为便捷地预测和掌控个人意识形态的状况,一定程度上破解以往个人意识形态分散、流变带来的掌控难题。目前,人们熟悉的“今日头条”推荐浏览特定新闻而进行的意识形态渗透所运用的算法就是“推荐算法”,这种算法也是机器学习算法的一种。
(二)资本、权力和技术的控制者利用人工智能操控意识形态
从人工智能发展的社会因素来看,AI对意识形态的操控并不仅仅是一个技术问题,其背后往往交织着复杂的社会关系。其中,资本、权力和技术的控制者基于自己的利益激烈地争夺人工智能的控制权进而操控意识形态的种种“面相”,是人们不得不面对的一个重大现实问题。
在机器大工业时代,马克思立足于物质生产实践,从科学技术(生产力)与生产关系的关系出发,论述了资本和权力对工业机器的操控问题。这对于我们理解智能时代资本和权力争夺人工智能控制权提供了有益启发。首先,马克思认为,“资本只有一种生活本能,这就是增殖自身,获取剩余价值”⑦,而工业技术创新带来的相对剩余价值生产正好契合了这一要求。换句话说,资本对机器的操控表现在:“资本试图通过技术变革控制剩余价值的生产过程和实现过程,以最大化无偿占有工人创造的剩余价值”⑧。马克思论述生产资本对工业机器的操控,实际上体现了资产阶级剥削、压迫工人的意识形态问题。迈入智能时代,相比工业机器,智能化机器在资本主义社会生产中的应用更能带来“资本增值”。因此,“就实质而言,在资本主义条件下,人工智能实际上是资本谋取剩余价值进而维持整个资本主义制度体系存活的技术工具”⑨。其次,马克思从资本主义生产方式出发分析了权力和技术的关系。他认为,一方面,工业革命使得资产阶级获得了政治统治和经济统治上的权力,确立了资产阶级的意识形态;另一方面,工业机器也是工人的“敌对力量”,其不仅“成了镇压工人反抗资本专制的周期性暴动和罢工等等的最强有力的武器”⑩,而且技术上的进步意味着资产阶级对工人奴役程度的加深。因此工人想摆脱这种被奴役的状态,获得政治上的统治权力,就必须彻底打破此种技术的资本主义应用,打破资产阶级意识形态的统治地位。反观智能机器,其当然也为资产阶级的意识形态统治提供了技术支撑,但更为重要和让人心潮澎湃的是,智能机器在生产生活中的广泛应用带来的生产力高度发展、物质产品极大丰富、人的自由时间的增加、信息和知识可共享性(生产资料的真正公有制)等现象“让我们离马克思所设想的共产主义社会更近了,或者说,它正在提供实现共产主义的一些关键性的现实条件”。也可以说,这些现象为无产阶级掌握统治权力、获得解放和资本主义意识形态向共产主义意识形态转变创造了关键性的实现条件。
在工业资本主义时代技术的控制者操控技术的现象基本可以还原为当代资本和权力对人工智能的操控,因为技术的控制者大都服务于资本或者屈从于权力。但有一点需要说明,马克思在工业资本主义时代所面对的是作为工具的工业技术,而智能技术是一项能够对人、人类社会产生深远影响和挑战的颠覆性技术,其影响力已经远远超出作为一种工具而使用的范围。因此,在智能时代,智能技术控制者的作用大大增强。在这种情况下,他们掌控技术的目的有可能服务于资本或者屈从于权力,也有可能是为了享受突破技术难点带来的快感和成就感(如“黑客”),这与意识形态的操控没有关系。
(三)机器人本身所具有的的意识形态
在强人工智能阶段,机器与人类智能并驾齐驱或超越人类智能的“奇点”将会到来。库兹韦尔曾大胆预测,到2029年,“人类和机器之间的鸿沟不复存在”,并且“机器们声称自己有了主观意识,有了和人类一样丰富的情感和心灵体验”。从可知论、量变与质变的辩证关系来看,强人工智能的到来具有必然性。在强人工智能阶段,机器人与人类社会存在两种可能性关系:和谐共存或分裂对抗。和谐共存是指机器人与人类不分高下优劣,二者和谐共在,相得益彰。费尔森斯丁认为,当机器人变得足够复杂的时候,它们不会成为“主人”或“仆人”,而会成为“人类的伙伴”。《纽约时报》高级记者约翰·马尔科夫认为:“当AI和AI圈引领的技术继续重塑世界之时,未来其他的可能性就淡出了人们的视野:在那个世界中,人类和人类创造的机器共同存在,一起繁荣。” 在此种境遇下,机器人与人类共存于宇宙之中,并作为人类的伙伴与人类相互帮助、和谐共处,其没有必要建立属于自己的意識形态,即便有,也是蕴含“与人类和平共处”价值观的意识形态,此时的意识形态仍然是人类的意识形态。分裂对抗论认为,强人工智能或超人工智能的出现将使其与人类分裂、对立并危害人类。如诺伯特·维纳、埃隆·马斯克、史蒂芬·霍金等科学家或企业家都表达了此类观点。牛津大学人类未来研究院创始人尼克·波斯特罗姆(Nick Bostrom)教授则直接指出,人工智能机器一旦在智力上超过人类,它就会背叛我们。在这一阶段,如果机器人在自我意识中将自己与人类社会对立起来,那其必然会建立与人类截然相反的属于自己的意识形态。
三、人工智能对意识形态的操控可能带来的风险
人工智能对意识形态的操控既有利于意识形态的自动追踪分析、提前预判、精准推送,也可能会带来一些重大风险,主要表现在:
(一)透明人的法律和伦理风险
所谓“透明人”,是指“通过大数据的对比和信息还原,每一个个体在一系列时间段的所有行为都可以在事后还原出来,由此每个人的生活状态都将在很大程度上成为透明的”。目前,人工智能在图像、语音和图像识别、语义理解、人机交互、自动搜索和分类等领域取得的突破性进展依赖于对海量感知数据、网络数据、社交数据、商业数据等数据群的机器分析,这也是人工智能操纵意识形态的重要途径。作为知识和价值的转换器,大数据由此也成为社会各领域的重要资源。随着以网络为基础的各类App的纷纷出现和各种智能系统嵌入人们的生存环境中,人们的生产生活呈现出“软件化”和“智能感知化”的特点。在智能化的生存环境中,移动网络、传感器和各种信息处理设备会随时随地记录个人的行为数据(购物内容、居住地址、出行路线、网络言论、生活习惯等),并把其传送给服务商或政府机构,以便他们分析和掌握个人的意识形态状况。比如,智能家居会把“窥探”的目光深入到最具隐私性的“家庭领地”中;“机(智能手机)不离身”为数据中心或服务后台掌握、监控个人的意识形态状况开启了便捷的大门,等等。这种现象将个人的信息悄然、无奈地暴露在服务商或政府机构的“平台旷野”中,人们的一举一动均可被记录和还原。甚至于掌握这些数据的人比我们自己更了解自己,个人将变为透明化和无隐私化的人。可以预见,智能时代关于侵犯隐私和保护隐私而产生的法律纠纷、冲突风险以及关于隐私泄露而造成的伦理冲突风险会越来越大。
(二)算法偏见和算法独裁风险
算法偏见也称算法歧视,是指“在看似客观中立、没有恶意的程序设计中,却带着开发者的偏见,或者因所采用的数据存在倾向性,或者因设计技术局限,在实际应用中导致了种族歧视、性别歧视、年龄歧视、阶层歧视、区域歧视、仇外思想等严重的政治后果”。美国宾夕法尼亚大学沃顿商学院的Alex P. Miller 在《不想被偏见左右?那就用算法》一文中曾指出:“过去做决策的人非常糟糕,用算法代替他们,既提高了准确性,又减少了机构偏见。” Miller对于算法过于推崇的观点遭到了fast.ai的创始人Rachel Thomas的批判。后者认为:“在所有情况下,算法都有人参与,即谁收集数据(以及他们有什么偏见)、做出哪些设计决策、如何实施决策、如何将结果用于决策,了解各利益相关者对算法的正确使用和局限性等。” 这些人为因素都会影响算法的客观性。算法偏见在意识形态领域最突出的表现是社会排斥。统治阶级、控制算法技术的资本家、掌握算法程序设计的技术人员都可以利用算法故意制造算法偏见,在政治权利、经济利益、文化参与等领域形成对被统治阶级或不同意识形态阶层、人群的排斥,让冰冷的智能系统无情地将他们的各种“福利”和“待遇”挡在外面,甚至终生遭受歧视而不得解脱。在资本主义社会中,算法偏见是资产阶级排斥工人阶级的一把“利剑”。比如,通过研制和训练特定的投票统计智能机器,在选举、征求意见、争取民主权利等方面排斥工人阶级;通过研制和训练特定的聊天机器人,在社交软件上自动散布意识形态偏见信息、自动屏蔽与统治阶级意见相左的意识形态信息。
算法独裁也称为“算法黑箱”,是指算法本身的不透明性而导致的由算法来决定裁判结果的现象。在意识形态领域,算法独裁主要表现在:第一,对算法高度依赖导致的算法独裁。算法系统以大数据为基础,而对每一个人的意识形态数据进行聚合和分析,乃是算法最擅长做的事情。因此,人们常常为了省时省力和确保所谓的“客观”,会将选择权完全交给算法,从而导致算法独裁。第二,受资本和权力控制的算法程序设计人员利用算法作出对自己有利的裁判结果。更进一步,如果某领域的运行规律被算法破解和代替,他们可能会基于自己的特殊利益而利用算法主宰这些规律,造成难以预料的社会风险。在强人工智能时代,AI算法将会破解人类思维、情感、自我意识等人类最后的“秘密领地”。那时,我们将真正进入“算法统治的时代”,而基于人—机意识形态的不同,智能机器将可能成为“永久的独裁者”。
(三)不同国家意识形态冲突失控风险
不同国家在社会制度、政治体制、经济体制、文化基因等方面存在差异,使得它们的意识形态一直处在冲突或剑拔弩张的状态中,特别是中国和西方国家的意识形态冲突表现尤甚。
从意识形态的角度观之,发展人工智能是一个国家增强自己意识形态吸引力、争夺意识形态领导权和话语权的重要方式。人工智能是渗透性极强的“智慧”机器,其对意识形态具有更隐蔽、更便捷、更快速的操纵能力。在以往的电力和电磁革命中,西方国家一直使用相关技术成果(电视、广播等)抢占意识形态的话语权,极力抹黑与其意识形态对立的国家。但这些意识形态的攻击囿于人群聚合的物理时空限制而无法对每一个人产生影响。面对智能化革命潮浪,移动互联网、大数据、云计算、物联网、传感器、智能翻译机器等新技术的综合应用可以随时随地直面全球范围内分散的每一个人,并精准捕获他们的个人信息。当前,西方国家特别是美国在经济实力、文化软实力、信息科技、智能技术等方面具有的优势使得他们竭力在全球范围内抢占意识形态领导权和话语权。比如,美国经常凭借大数据挖掘技术的支撑,以人工智能算法为武器,通过制造假新闻传播虚假信息、封杀网站和别国民众在社交媒體(推特、脸谱)上的账号等手段恶意丑化、黑化、攻击与自己意识形态对立的国家,加剧了意识形态的对立和冲突失控风险。
四、人工智能对意识形态操控可能带来的社会风险化解策略
人工智能对意识形态操控可能会带来的风险是AI发展过程中必然要面对的现实问题。化解这些风险需要综合运用AI伦理规范、法律手段和技术力量。
(一)运用人工智能伦理准则规范从业人员的思想和行为
人工智能对意识形态操控可能会带来的风险向伦理领域提出了化解风险的强烈呼声。这就需要建立人工智能伦理准则,从而规范相关从业人员的思想和行为。伦理规范并不是情感、偏好、习惯、主观臆断的“代名词”。美国学者理查德·A.斯皮内洛指出:“道德判断的基础能够而且应当是建立在合乎理性的道德原则以及健全的经过细致推理的论据之上的。规范性主张的背后是那些通过理性话语展示的可以辩护的道德原则。” 人工智能伦理首先应该确立一种道德信念、信仰、理想,即这种技术是为人类服务的,而不是伤害人类;是为大多数人或国家的利益服务的,而不是少数别有用心的人或国家用来推行“技术极权主义”和“技术沙文主义”的借口。2017年美国电气和电子工程师协会(IEEE)宣布的三项新的人工智能伦理标准就是为了确保人类不受人工智能的威胁。2019年4月欧盟委员会发布的人工智能伦理准则指出,“可信赖的人工智能”应尊重基本人权、规章制度、核心原则及价值观。其次,应建立人工智能伦理规范内化机制,通过宣传教育引导、实践养成、制度保障等途径把AI道德信念、信仰、理想内化为从业人员灵魂深处的价值准则,确保他们有一颗维护公正的“良心”。
(二)运用法律手段加强个人信息保护和算法治理
法律手段是化解人工智能对意识形态操控可能会带来的风险的有效手段。
首先,通过立法,为保护个人信息和规范良性算法建立监管的法律基础。日本于2005年4月1日实施的《个人信息保护法》在保护个人信息、增强公民维权意识等方面取得了良好的效果。我国在《中华人民共和国刑法修正案(九)》(2015年)、《中华人民共和国网络安全法》(2016年)、《中华人民共和国民法总则》(2017年)中,也分别从侵犯公民个人信息罪、个人信息收集和使用以及保护、自然人的个人信息受法律保护的角度对保护个人信息作了明确规定。为了在立法层面打击违法信息与规制社交媒体,德国于2017年通过的《网络执行法》规定:“明显违法的内容在收到投诉24小时内必须删除或者屏蔽,仅在与侦查机关约定更长期限的情况下存有例外;对其他违法内容应当及时(一般在7天内)予以删除或者屏蔽。” 目前,世界各国在算法偏见和算法独裁方面的立法工作亟待加强。其次,通过加强执法力度,既促进个人信息保护法律真正“落地”,也规范和调整算法治理中多元治理主体之间复杂的互动关系,落实算法治理的法律主体责任。法律的生命力在于实施,而加强执法力度是实施善法最重要的途径。对于违反个人信息保护法、故意制造算法偏见和算法独裁、编造和散布假新闻的行为主体,必须依法打击和制裁。
(三)运用技术力量矫正技术漏洞和人为缺陷
人工智能技术是一项正在快速发展并远未定型的革命性技术,其在发展的过程中难免会出现技术漏洞和人为缺陷。对此,可以运用“技术反制技术”的思路,通过更优技术矫正技术漏洞和人为缺陷,防范和化解人工智能对意识形态操控可能会带来的风险。比如,面对个人信息肆意泄露而造成的“透明人”现象,可以通过加密技术、匿名化技术、屏蔽技术等手段防止恶意搜集信息;通过建立信息可追溯技术体系,加强对窃取、泄露个人隐私信息的源头追溯,为法律制裁提供证据支撑;通过研制和安装相关隐私保护的软件,提醒消费者哪些个人信息正在被搜集,由消费者决定是否继续浏览该网站。对于算法偏见和算法独裁风险,可采用数据采集完整性技术降低或消除数据的不准确、分布偏差等缺陷;运用区域链技术保证记录可追查与记录不会被篡改,以便技术人员矫正技术漏洞和人为缺陷;通过偏见检测技术,检测并减少可能产生的偏见(如IBM将自己研发的偏见检测工具AI Fairness 360工具包开源,从而为检测偏见提供了一个平台);为机器学习增加手动限制和为机器安装一颗“良芯”,确保用户更好地控制人工智能程序,防止算法独裁现象出现。
总之,人工智能对意识形态的操控是AI技术及其发展与意识形态问题交织而必然出现的一种现象。明晰人工智能何以能够对意识形态进行操控、廓清人工智能对意识形态操控的诸种表现、研判人工智能对意识形态的操控可能会带来的风险及其化解策略,对于发展人工智能、防止意识形态冲突失控具有重要作用。
注释:
① 马克斯·霍克海默:《批判理论》,李小兵等译,重庆出版社1989年版,第5页。
②④ 马克斯·霍克海默,特奥多·阿多尔诺:《启蒙辩证法》,洪佩郁、蔺月峰译,重庆出版社1990年版,第113、118页。
③ 赫伯特·马尔库塞:《单向度的人——发达工业社会意识形态研究》,刘继译,上海世纪出版集团2008年版,第9页。
⑤ 尤尔根·哈贝马斯:《作为“意识形态”技术与科学》,李黎、郭官义译,上海学林出版社1999年版,第69页。
⑥ Tony Thorne MBE:《奇点来临》,赵俐译,人民邮电出版社2016年版,第101页。
⑦⑩《马克思恩格斯文集》第5卷,人民出版社2009年版,第269、501页。
⑧ 蔡敏、周端明:《技术是资本控制劳动的工具:马克思主义技术创新理论》,《贵州社会科学》2012年第4期。
⑨ 蒋红群:《无产阶级会沦为无用阶级吗?》,《马克思主义研究》2018年第8期。
孙伟平:《智能社会与共产主义社会》,《华中科技大学学报》(社会科学版)2018年第4期。
雷·库兹韦尔:《机器之心》,胡晓娇、张温卓玛、吴纯洁译,中信出版集团2016年版,第288、290页。
约翰·马尔科夫:《与机器人共舞》,郭雪译,浙江人民出版社2015年版,第165页。
高奇琦:《人工智能:驯服赛维坦》,上海交通大学出版社2018年版,第215页。
汝绪华:《算法政治:风险、发生逻辑与治理》,《厦门大学学报》(哲学社会科学版)2018年第6期。
Alex P. Miller, Want Less-Biased Decisions?Use Algorithms,Harvard Business Review Digital Articles, July 26, 2018.
Rachel Thomas, What HBR Gets Wrong about Algorithms and Bias, Fast.ai, Aug. 7, 2018.
鄭戈:《算法的法律与法律的算法》,《中国法律评论》2018年第2期。
理查德·A·斯皮内洛:《世纪道德:信息技术的伦理方面》,刘钢译,中央编译出版社1999 年版,第21页。
查云飞:《德国对网络平台的行政法规制——迈向合规审查之路径》,《德国研究》2018年第3期。
作者简介:赵宝军,陕西科技大学马克思主义学院副教授,陕西西安,710021。
(责任编辑 胡 静)