田凤娟
(北京邮电大学 马克思主义学院,北京 100876)
随着第四次产业革命的深入发展,人工智能领域的人才培养竞争上升到战略层面。中国作为世界第二大人工智能强国,为加快人工智能科技的高质量发展,不断加大技术研发和人才培养力度。根据近三年来教育部发布的新增专业名录,人工智能专业稳居榜首。在人工智能相关专业迅速增长的同时,对人工智能伦理挑战的回应被提上日程。除了面向专业学生之外,基于智能应用的智慧教学、智慧校园、智慧家居和智慧城市使原有的学习方式、生活方式和社交方式发生了重大转变,这也让人工智能伦理教育从面向未来工程师的视域拓展到非相关专业大学生乃至中小学生的层面,成为学生们顺利融入智能时代的“导言”。
伦理自古就用来规范人与人、人与社会的关系,是建立良性秩序的价值遵循和规约。人工智能伦理是在人工智能开发和应用过程中,产生的对特定问题的伦理反思,如人的安全、尊严、隐私、自由等问题。人工智能伦理本质上是规范智能社会人与机器、人与人、人机与社会以及人机与自然间的关系。基于大数据、超级计算机和类脑神经网络基础的新一代人工智能对这一系列“关系”提出了伦理挑战。基于此,世界各国都加紧了对人工智能伦理的研究和教育。例如,麻省理工学院、加州大学伯克利分校、哈佛大学、剑桥大学、牛津大学、俄罗斯圣彼得堡国立大学、新加坡国立大学、韩国科学技术院和一些科研院所都启动了人工智能伦理教育。麻省理工学院的人工智能学院院长由一位技术专家和一位哲学大师共同担任,足见伦理对人工智能发展的重要性。但国外的人工智能伦理教育不能直接移植到中国大学的课堂,因为伦理体现的是一种社会关系,具有鲜明的社会性。正如马克思所说,道德也是一种意识形态,没有超越阶级的道德,“一切以往的道德论归根到底都是当时的社会经济状况的产物”[1]。社会制度的不同必定体现在伦理准则上,因此,对人工智能伦理挑战的回应既有基于技术的共性思考,也有基于价值的个性思考。高校思想政治理论课要充分发挥在时代前沿问题的引领作用,将人工智能伦理教育融入思想政治理论课堂教学,正本清源、明辨是非,用马克思主义的立场、观点和方法揭示人工智能伦理的本质,让大学生对人工智能的设计开发、使用、归责和发展趋势建立更明确、更清晰的认知,从而实现面向智能社会的人才培养。
在回应人与人工智能的关系时,马克思主义认为:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和”[2]。可见,即便人工智能在现在和未来都有可能创造更大的价值,在越来越多的方面替代和超越人类,但从社会关系的角度考察,“本质只能被理解为‘类’,理解为一种内在的、无声的、把许多个人自然地联系起来的普遍性”[2]135。所以,把人工智能作为一个群体来考虑的时候,人工智能之间不存在普遍联系的社会关系,只是片面地执行某种任务或服务。这种普遍社会关系的缺失决定了人工智能不具备人格,也就无从谈及国籍。随着超级计算机和类脑神经网络的发展,人工智能不断模仿人的意识并在某种程度上产生所谓“自主意识”,但绝不能把机器意识和人的意识混淆,因为这种意识完全是通过统计概率和算法进行深度学习、推理产生的意识,从根本上讲是“形式逻辑意识”,同计算执行的是相同的功能。人的意识不仅能计算,还有情感、价值和“意识形态”的部分。马克思创造性地吸收了费尔巴哈的思想并提出,“而意识严格说来只是在存在物的类成为存在物对象、本质的地方才存在”[2]875。人可以使自己的生命活动本身变成自己的意识和研究对象,但已知的人工智能无法把自身作为研究对象并进行分析、反思和再创造。人与人工智能之间仍然是以物伦理为表征,“物伦理是人工智能技术发展的道德性要求,两者是相互依存、并行不悖的:人工智能的发展需要伦理设计和道德规制,同样只有物伦理的植入才能保证人工物融入人类社会”[3]。这符合中国传统文化“敬天悯物”的格局,与“万事万物”以“道”生,以“德”畜,不排斥“物”德性,不突出人对物的主宰的伦理传统相辅相成。
既然人工智能的本质仍是“物”,就遵循人和机器的关系:智能机器作为人的高级生产工具和劳动资料存在。马克思在某种意义上预见了智能时代的到来并指出:“这种自动机是由许多机械器官和智能器官组成的”[4],机器“是人的产业劳动的产物,是转化为人的意志驾驭自然界的器官或说在自然界实现人的意志的器官的自然物质。它们是人的手创造出来的人脑的器官;是对象化的知识力量”[5]。所谓“人脑的器官”就蕴含了机器的更多可能性。与传统机器相比,智能机器在促进生产力的发展方面显示出更为强劲的动力。马克思的劳动价值论深刻地揭示了生产工具、生产力和生产关系之间的内在逻辑。智能机器人会写诗、作曲、编程,在形式上看似已经与人形成了就业竞争,但实际上是生产工具的进步推动了生产力的发展,对生产关系提出了新的要求。人工智能替代了一部分人类劳动,但它所引领的先进生产力改变了社会经济的增长方式,直接催生了新岗位、新职业和新机遇。中国特色社会主义的优越性在于根据生产力的发展,不断调整生产关系,使其适应和推动生产力的发展。2020年,人社部新增了16个职业,包括智能制造、工业互联网、虚拟现实工程技术人员等。新职业使原有的就业体系和格局发生了显著变化,使大学生就业逐步转入高质量发展的轨道。大学生关注的焦点不应是被人工智能抢走的“饭碗”,而是要转向新的职业需求,进一步发挥主观能动性,建立终身学习的素养,应对日新月异的社会生活,利用智能应用的契机,按照新兴职业和岗位的要求丰富知识结构,提升个人发展和社会发展的匹配度,开拓更广阔的就业空间。
按照马克思对人类社会发展阶段的前瞻性认识:“人的依赖关系(起初完全是自然发生的),是最初的社会形式,在这种形式下,人的生产能力只是在狭小的范围内和孤立的地点上发展着。以物的依赖性为基础的人的独立性,是第二大形式,在这种形式下,才形成普遍的社会物质变换、全面的关系,多方面的需要以及全面的能力的体系。建立在个人全面发展和他们共同的、社会的生产能力成为从属于他们的社会财富这一基础上的自由个性,是第三阶段”[5]52。毫无疑问,智能时代正处在从第二阶段向第三阶段的跨越中,既有对物的依赖空间,也有全面发展的空间。一方面,在大规模智能应用将人从劳动中解放出来后,虽然还无法实现上午“狩猎”、下午“捕鱼”、傍晚“畜牧”、晚上“批判”的自由,但人已经有时间、有物质条件向自由而全面发展迈进,是人进一步强化主体地位的历史契机。另一方面,大学生中出现了对人工智能过度依赖的情况,导致大学生动手能力和思考能力退化,使他们成为智能游戏和各种“宅经济”的“奴隶”,丧失主体性。在现代社会中,人的社会生产能力体现出更强的创造性,这种创造性不是在某一时刻自动实现,而是来自于人在实践中的长期积累。人的主体地位是在认识和改造外部世界的实践活动中形成,并通过实践活动体现并确证人的能动性、创造性。大学生在智能时代的学习和生活中,应当根据个人兴趣发挥创造性潜力,广泛参与到社会实践中,积极融入社会的全面发展,探索人、智能机器和环境的和谐交互。
在人工智能能否超越人类的问题上,以博士为授课群体的“自然辩证法概论”课程必然能给出掷地有声的回应。恩格斯唯物辩证法的自然史观体现了明确的社会历史向度,摒弃了形而上学和机械决定论孤立、静止的思维方式和方法,把自然科学的发展进程放在人类社会的发展历程中加以考量。人工智能的发展尤其显示了自然科学的社会性及与人类社会发展的紧密联系,因此,它的发展同样遵循辩证法三大规律:人工智能处在量的积累阶段,虽然“质”的飞越未必是科学家预言的“奇点”,但“智能”进步的上限难于设定;人工智能对“人性”的模仿和它本身的“物性”处在运动中的对立统一;人工智能的每一次跨越和沉寂都是否定之否定的螺旋上升。只要科学认识事物的发展规律,即便人工智能在更多方面超越人类,它也并不可怕。从早期的“图灵机”到“深蓝”再到“AlphaGo”,人工智能每一次突破都以人在相关科学领域的突破和进步为基础。在人工智能不断积累“量”的过程中,人的科学实践活动始终是“第一推动力”。毋庸置疑,人工智能是人类改造自然的产物,“人在怎样的程度上学会改变自然界,人的智力就在怎样的程度上发展起来”[6]。人工智能必定超越人类的观点,是静止的、片面的观点,忽视了人的能力的成长性和运动性。人工智能模仿“人性”和“物性”的对立统一,本质上是人性和物性对立统一的映射,是人与自然的对立统一。正如恩格斯所言:“我们越来越有可能学会认识并从而控制那些至少是由我们的最常见的生产行为所造成的较远的自然后果。而这种事情发生得越多,人们就越是不仅再次地感觉到,而且也认识到自身和自然界的一体性,那种关于精神和物质、人类和自然、灵魂和肉体之间的对立的荒谬的、反自然的观点,也就越不可能成立了”[7]。片面夸大人工智能威胁论,就是夸大人与自然的对立,而没有看到人与自然的统一。从人类发展史和自然发展史的规律来看,人工智能和其他科技一样,只要合理加以规范和使用,必将造福人类。
消解人工智能威胁论并不是终极目的,最终目的是让学生在合伦理的基础上,努力攻破人工智能的核心技术,使其“为我所用”。当前人工智能研究的瓶颈在于,基于数学概率和算法建立的人工智能,只能“狭隘”地解决事实问题,无法具备感性、反思和假设的能力,无法具有真正的“意识”[8]。已有的数学、逻辑和概率方法,对人类社会的“价值”问题、意识形态问题、常识类问题、人的情感问题、心理问题等支撑乏力。恩格斯在《自然辩证法》中就鲜明地反对唯“数”论,他认为,“思维规律的理论并不像庸人的头脑在想到‘逻辑’一词时所想象的那样,是一种一劳永逸地完成的‘永恒真理’”[6]42。人工智能的发展瓶颈进一步印证了恩格斯的论断。恩格斯又进一步指出,“然而对于现今的自然科学来说,辩证法恰好是最重要的思维形式,因为只有辩证法才为自然界中出现的发展过程,为各种普遍的联系,为一个研究领域向另一个研究领域过渡提供类比,从而提供说明方法”[6]42。150多年过去了,这句话依然熠熠生辉。人工智能的发展瓶颈反映的是人对自身思维认知的局限,不是人工智能能否超越人类的问题,而是人能否超越自身的问题。辩证法能为人工智能的发展提供更多元的方法论:辩证法的系统观有助于解决人、机、环境的良性融合,态势的深度感知;鉴于思维规律和自然规律的必然一致性,可以从探索自然的规律中得到更多的思维规律认知,提示研究人员从自然规律中探索思维形成的机制机理,进而完善人工智能的“思维”;从“偶然性推翻人们至今所理解的必然性”[6]95视角,思考自动驾驶过程中偶发的各类智能识别混淆问题;从同一性和等效性原理思考机器学习的方法,把不易用符号量化的“价值层”用等效或者等价来替代;从“相互作用是事物的真正的终极原因”[6]96出发,重新审视智能开发中关于“合目的的原因”是否存在的问题。自然辩证法蕴含的方法论在智能时代不仅没有过时,反而展现出了旺盛的生命力,彰显了解决系统性、整体性和协同性问题的优势,为“功能”向“智能”的蝶变提供了崭新的视角和量度。
在网站、电影、媒体和技术企业的宣传中,人工智能离人的能力越来越近。在实践中,虽然人工智能发展的第四次浪潮较第三次浪潮有了一定的技术突破,但从定性的角度讲,目前最先进的人工智能仍然是“弱人工智能”,没有形成科学意义上的“强人工智能”,更无类似于人的“自主意识”。目前的人工智能技术只能在确定性规则下解决特定问题,“强人工智能”的曙光还未出现。片面扩大人工智能威胁论,断言人类将被奴役和主宰,只能掣肘科技发展和社会稳定。在各国加紧人工智能竞争、谋求战略优势的情况下,科研人员要回归科学研究的本位,“只有在劳动共和国里面,科学才能起它的真正的作用”[9]。在社会主义制度下,科技异化的条件已经被先进的生产关系所取代,科研人员的角色发生了根本性的转变,不再是“资本的同盟者”,而是“自由的思想家”。人工智能作为前沿的技术创新,它的研究本位和终极指归是人类社会从“必然王国”向“自由王国”跨越,是社会进步的新动能。科研人员的奋斗方向不仅要达到充分了解规律的“自由境界”,还要对自由的目的性和价值性有明确的认识。正如恩格斯指出的那样:“自由不在于幻想中摆脱自然规律而独立,而在于认识这些规律,从而能够有计划地使自然规律为一定的目的服务。这无论对外部自然的规律,或对支配人本身的肉体存在和精神存在的规律来说,都是一样的”[7]120。人工智能要在同时遵循这三个规律的基础上才能服务全社会。大力研发人工智能的目的不是挑战人类智慧的极限或研究“巅峰智能”超越人类本身,而是遵循科学规律,研究多方交互的适配度,让人、人工智能、社会和环境和谐发展并最终服务于全人类的解放。
基于人工智能的社会生活,产生了新的权利和义务需求,涉及个人、社会和国家之间在研究、发展和使用过程中对安全、隐私的保护和利益的分配。人工智能伦理教育在伦理层面是探求智能理想的存在方式,在道德层面是实现应然与实然的统一,在实践中是探寻多方和谐共处的生态。只有在社会核心价值观的统领下,才能从根本上使各方权益得到有效的保护,因为“核心价值观是一定社会形态社会性质的集中体现,在社会思想观念体系中处于主导地位,决定着社会制度、社会运行的基本原则,制约着社会发展的基本方向”[10]。关于人工智能的安全、责任等问题,需要社会主义核心价值观全过程、全维度的践行体系加以保障。
党的十八大提出,“倡导富强、民主、文明、和谐,倡导自由、平等、公正、法治,倡导爱国、敬业、诚信、友善,积极培育和践行社会主义核心价值观”。从个人维度看,首先,“敬业”是个人从业的重要价值准则,是工作伦理和职业道德的核心,对工作中的责任、义务怀有敬畏之心,也是爱国的具体体现。在人工智能开发、设计过程中,研发人员不仅要具备职业要求的专业素质,更要具备埋头苦干的精神,加强突破人工智能关键技术的决心,解决“卡脖子”问题。“诚信”是道德意识与道德行为的统一,也是人机协同的起点。人工智能算法的不透明性和不可解释性,意味着在无法进行实质监管的创建阶段,研发人员应恪守行业规范,尊重公德,不擅自创建有违伦理、反人类、反社会的程序和算法。其次,在社会广泛采用人工智能用于救灾、医疗、安全、教育和司法等领域时,受众在技术信息严重不对称的情况下无从知悉人工智能可能存在的侵害,这就要求提供人工智能产品和服务的政府机构、企业、社会组织或者个人,诚敬、严肃地提示人工智能风险,同时最大限度地完善容错机制和救济手段。最后,“友善”是互相尊重和包容的价值基础。人和人工智能的关系不能简单地看作生产者和产品之间的关系,任意弃之,也不能无底线地等同于人与人的关系,而应是人机协作与融合的关系。人与人工智能的友善,既是人和人工智能保持安全距离的理想状态,也是人对自身尊严的捍卫。
从社会维度看,“马克思主义伦理学认为,正确理解的利益是道德的基础。因此,在伦理学中对道德意识和道德行为的价值目标的理解,总是同对利益的理解相联系的”[11]。人工智能伦理挑战的一个核心焦点在于,少数人工智能垄断企业以牺牲大众隐私、破坏数据安全为条件获得超额垄断利润。这个问题在资本主义社会中无法得到根本解决,所以西方社会的人工智能悲观论者大有人在,人机关系紧张的本质是资本与民众之间的矛盾。社会主义核心价值观坚持以人为本,尊重人民的主体地位。无论是国家的富强,还是社会的平等、公正,目的都是为了最广大人民的根本利益。社会主义的“平等”之所以不同于西方“法律上的平等”,在于解决了平等的前提:“生产资料的全国性集中将成为由自由平等的生产者各联合体所构成的社会的全国性的基础,这些生产者按照共同的合理的计划进行社会劳动”[9]233。在社会主义生产关系下,人工智能发展的首要目标为服务于全社会:“人工智能技术应用成为改善民生的新途径,有力支撑进入创新型国家行列和实现全面建成小康社会的奋斗目标”[12]。这确保了人工智能的发展成果能够普惠社会成员,有效解决了个人利益与集体利益、垄断企业与社会的冲突。社会主义核心价值观还确保了在同一价值层,不同角色的道德选择能够综合考量个人、家庭、社会和国家等多个层面的利益关系,而不是绝对的利己主义,这就为人工智能伦理建构,在突发环境下的智能决策和“道德编码”提供了可参考的价值依据。
从国家维度看,国家伦理是国家价值观和国家责任的道德基础。在国家伦理中,“富强”占据核心地位。人工智能的迅猛发展必然推动国家的发展和富强。国家在人工智能研发和应用的过程中不是扮演“守夜人”的被动角色,而是领路人和保护人的角色:一方面,在悄然展开的全球人工智能竞赛中,要超越西方自由市场经济以企业自发投入和研究为核心的发展战略,实施宏观调控和市场相结合的战略,加大对人工智能的规划、布局和支持;另一方面,通过明确的价值准则、统一的伦理规范和透明的监管程序,将某些算法和数据归国家所有,以增加透明度、安全性。要加快科技伦理审查制度的建立,完善和健全治理机制,形成事前审批、事中监督和事后跟踪的闭环管理,对人工智能可能造成的损害从产业链的前端加以防控,建立健全技术创新的潜在风险防控机制。在新发展理念的关照下,国家统筹全社会资源大力发展人工智能,目的是将社会主义物质文明推向新高度,解决人民日益增长的美好生活需要和不平衡不充分的发展之间的矛盾。在精神文明层面,以人形机器人的使用为例,要坚决摒弃部分国家将机器人作为“女友”“妻子”的全开放态度,不能以“私”的名义来破坏人类伦理中的“自然法则”“姻亲关系”。对建构和谐社会而言,国家伦理中对弱势群体保护的原则进一步凸显。人工智能的复杂性和不可预测性决定了相当一部分损害归责困难,可以通过建立国家人工智能赔偿基金或将人工智能损害纳入现有社会保障体系,对现阶段无法归责的事故受害方进行必要的补偿。
落实以人民和国家利益为先的人工智能伦理构建,关键要紧紧围绕中国特色,找准与课程的切入点。中国特色的人工智能伦理必将超越西方人工智能伦理的个人本位局限,植根于中国大地,反映中国人民的意愿,适应时代发展进步的要求。对中西人工智能伦理进行对比,可以最大程度地彰显中国特色人工智能伦理的优越性。
中国特色人工智能伦理优越性首先体现在党和国家的顶层设计。习近平高度重视人工智能的发展,他强调,“人工智能是引领这一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的‘头雁’效应”[13]。面对人工智能的伦理挑战,习近平指出,“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德”[14]。中国作为人工智能大国,站在第四次工业革命的制高点,于2017年发布了《新一代人工智能发展规划》。在制定人工智能技术发展战略的同时,高度重视人工智能对社会伦理的挑战,提出“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协同的伦理框架。制定人工智能产品研发设计人员的道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案”[12]。党的十九届四中全会明确提出了“健全科技伦理治理体制”。2019年,中国成立国家科技伦理委员会,进一步明确了“科技伦理是科技活动必须遵守的价值准则,提出加强统筹规范和指导协调,推动构建覆盖全面、导向明确、规范有序、协调一致的科技伦理治理体系”[15]。党的十九届五中全会指出,2035年我国将进入创新型国家行列。在创新赋能高质量发展的过程中,科学知识和伦理道德并重的教育体系,必将对创新发挥核心的支撑作用。在国家高度重视的背景下,大学生要建立起人工智能伦理意识和素养,在科技创新的过程中,自觉生成伦理边界意识和伦理底线思维,从“技术优先论”的工具理性转向兼具伦理、道德、责任旨趣的价值理性。通过国家、社会的规范性要素与大学生价值认知性要素的结合,促使人工智能伦理内化于心,外化于行,延伸到社会生产和生活中,确保合伦理的创新与发展。
中国人工智能伦理在社会治理方面的优越性体现为促和谐、保民生、谋发展和广泛的社会共识。习近平强调:“加强和创新社会治理,根本目的是维护社会秩序、促进社会和谐、保障人民安居乐业,营造稳定安全的发展环境”[16]。可见,社会治理的社会化、法律化、智能化、专业化,归根结底要围绕“和谐”进行。人、机、社会和谐才能最大限度地发挥人的能动性和智能机器的效用。未来,国际人工智能竞争的核心并不是技术的上限,而是人工智能和社会的发展匹配与和谐。在全球新型冠状肺炎疫情的大考中,中国在疫情防控中的人工智能应用迅速增长。从远程医疗、机器人消毒、测量体温、送餐,再到人脸识别、健康宝等,中国应用人工智能作为行之有效的防控措施,得到了人民的积极响应和理解,达成了广泛的社会共识,充分显示了中国社会治理创新的和谐意蕴。反观西方,由于与个人隐私权保护冲突,人脸识别等技术被多国立法禁用。即便西方拥有先进的技术,也无法有效介入抗疫过程,这正是基于西方社会的伦理起点——“人是万物的尺度”。为维护抽象的人权,而对具体的生命和社会公共利益采取普遍漠视的态度,进一步暴露了西方政府、社会、个人在社会治理体系中的对立,使智能造福社会的目标难以实现。
中国特色人工智能伦理的优越性还体现其在全球治理中的作用。“一个国家选择什么样的国家制度和国家治理体系,是由这个国家的历史文化、社会性质、经济发展水平决定的”[17]。人工智能伦理作为科技伦理的一部分,是国家治理的内容,必然由国家历史文化、社会性质和经济发展水平决定;因此,人工智能伦理也呈现出不同的治理模式。美国的人工智能伦理构建基本以行业协会的自律模式为主,如微软的《希波克拉底誓言》、谷歌的人工智能七原则、IBM的负责任AI四原则等,均是通过自律的行业准则建立社会信任。欧盟采用国际倡议的模式,2016年发布《机器人伦理路线图》,2019年发布《关于可信赖人工智能的伦理原则》[18]。韩国采用国家治理模式,2007年在国家层面通过了《机器人道德宪章》[19]。各国普遍提到的治理准则涉及人类代理和监督、人的自主性、保护隐私和数据、透明度、无歧视、公平、问责和安全等问题。从这些治理模式和原则看,人工智能伦理建构不是一国一隅的问题,而是具有鲜明的全球问题属性,是全球治理的一部分。中国不仅需要提出自己的人工智能伦理准则,更需要在全球治理中拿出中国方案,将技术优势转化成话语优势,引领全球治理。正如习近平指出,“我们从来不排斥任何有利于中国发展进步的他国国家治理经验,而是坚持以我为主、为我所用,去其糟粕,取其精华”[17]23。中国可以充分借鉴其他国家人工智能伦理的治理经验,同时发挥伦理大国的广泛社会基础,吸收优秀传统文化,建构国家主导、企业自律、社会广泛参与的治理模式,使人工智能伦理在实践中落实和完善,勾勒出具有中国特色的人工智能伦理路线图。