人工智能:道德进化的新引擎及其风险应对

2019-01-26 19:00陈万球长沙理工大学马克思主义学院院长教授博士生导师
中国科技论坛 2019年9期
关键词:决定论决策智能化

陈万球 长沙理工大学马克思主义学院院长、教授、博士生导师

新技术革命书写了人类道德进步的新范式,不仅加快了道德进化的速率,还把道德还原成一种技术性存在。随着人工智能在技术领域的全线占领,由外而内,从肉体到精神,人的道德力得到巨大释放,从 “一阶道德”到 “二阶道德”再到 “三阶道德”,传统道德进化的抑制感被突破,技术化道德智能系统正在催生道德进化的新路径。随着人工智能的步伐加快,道德AI超越个体演化成为高效、理性、精准的 “道德导航器”。道德AI是一种技术性的存在物,使人具有一颗 “良芯”,是智能化道德进步实践新形式,但同时也带来了前所未有的道德隐患和社会风险。

1 人工智能:道德进步的新引擎

人工智能将帮助人们做出道德决定,这并不是道德幻象。科学正在把我们的生命升级为一个更高的操作系统,运用技术推动人类的道德进步成为道德发展进步的一种崭新方式。正如家庭AI可以帮助腿部残疾的人行动自如,法律AI帮助公民解决法律烦恼,教师AI可以帮助人们获取丰富知识一样,道德AI——道德人工智能体可以收集信息参与道德咨询,提升人的道德判断能力,帮助人们破解道德两难问题,业已成为继生物医学技术增强人类道德之后引领人类道德进步的新引擎。不仅如此,超越人类的限制,具有道德智慧的AI还可能通过人机接口无创伤地 “走”进人体,帮助人们做出各种道德决定。

从道德演化史看,人类道德进步最初是通过传统习惯、学校教育、自我修炼等方式推进,这种方式可以称为 “一阶道德”,其特点是道德进步缓慢、技术不介入。随着生物医学技术的发展,通过注射、靶向药物、深度脑部刺激等,抑制、治疗或增强人的道德情感,改善道德动机,提升人的道德品质,这种方式可以称为 “二阶道德”,其特点是道德进步迅速、技术初步介入、还原主义和物理主义机理。这种机理强调道德进步有其生理基础,道德行为和道德品质可以还原成人的集体的连续活动,改善人的 “道德基因”,就可以改善人的道德行为。随着人工智能的崛起,技术对道德的深度干预,通过人机接口等方式改变人的道德认知,提升道德水平,这种方式可以称为 “三阶道德”,其特点是道德提升高效、技术深度介入、人机合一机理。这种机理强调道德可以像知识一样被机器传授给人类,智能化道德增强制作 “道德芯片”嵌入人体,作为人的道德参谋和道德顾问出现,咨询和帮助人进行道德判断,做出道德选择。从道德进化本质来看,从 “一阶道德”到 “二阶道德”再到 “三阶道德”,传统道德进化的抑制感被突破,实现了道德演化从以 “纯粹感性 (道法自然)”为重点,到以 “纯粹理性” (技术浅层干预)为重点,再到以 “实践理性 (技术深度干预)”为重点的框架重大转换。

人类决策的正确与否往往取决于信息的系统性和完整性。人机相联, “人脑”与 “外脑”有机结合,构建起功能强大的网络信息体系,将为道德行为决策提供新参照,能够弥补以往个人决策的不足,提高个体的智能化评估和辅助道德决策能力,极大地延展人的道德力。新一代 “道德芯片”将嵌入人体,就像 “知识芯片”嵌入人体一样,帮助人类认知世界和改造世界。道德AI可以发挥道德环境监测者、道德组织者、道德指南针和道德顾问四种角色功能。作为道德环境监测者,道德AI可以持续监控人们的身心状态及其周围环境,收集、整理、分析、评估人们的生理、心理和环境的复杂信息数据,并向人们提出相应的道德决策建议。作为道德组织者,道德AI协助人们规划设计、过程监测和行为实现,用以达成特定的道德目标。作为道德指南针,道德AI发挥一个公正中立的道德反思提示。当人们面临道德两难选择时,道德AI会通过相关的问题来帮助客户进行道德思考。作为道德顾问,人们可以向道德AI询问关于他应该采取的行动的道德建议。无论哪一种功能的发挥,道德AI都将成为人们道德决策的良师益友。

2 技术决定论:智能化道德的风险

随着智能化道德的系统性实现,给人类带来了喜悦,也带来了忧思。无限延展的道德AI,不仅是新兴技术发展的前沿,亦是道德危机生成的新场域。

一是 “经济决定论”与 “技术决定论”博弈。马克思主张,一切道德上的兴衰起伏、进退消长,从根本上源于社会经济关系的变革。显然,马克思主张 “经济决定论”,认为经济关系决定道德的发展。随着技术的公共性介入、道德AI的广泛深入发展,道德 “技术决定论”的影响在不断扩大。在 “经济决定论”的框架下,技术通过变革生产方式、生产组织形式和教育组织形式,改变社会生活来影响道德的进步,技术促进道德进步的空间是有限的,手段是间接的。在 “技术决定论”的框架下,道德AI对道德进步是直接的、无限的:一方面,道德人工智能体直接影响人的道德决策,而不是要通过改变社会生活继而来改变道德;另一方面,人工智能不是改写道德的自然属性,把道德还原成自然之物,而是企图改变道德社会属性,建构一种技术中介为推进器的道德进化模式。这样,在 “技术决定论”干预下,从过去以教育和自我修炼为主导的道德进步模式演变成技术主导的道德进化模式,从 “生产与交换的经济关系中汲取自己的道德观念”的范式演变成从技术人工物中汲取道德观念范式。 “技术决定论”挑战 “经济决定论”,两者的理论博弈将持续演变。

二是道德的自进化能力与自识别能力降低。就像计算机的出现导致人的计算能力衰退,打字机的出现导致人的书写能力下降一样,道德AI助推人类进行道德思考和道德判断,必将会导致人类道德的自进化能力和自识别能力的降低。在优化的信息、合理的判断、理性的分析基础上所做的道德判断迅速提升人的道德水平,人们不再需要经过艰苦的理性煎熬和道德沉思就可以敏锐地做出决策,这是何等的幸事!然而,就像一枚钱币有两面一样,一种道德的进步往往以另一种道德退步为代价。人的某种功能进步是以另外某种功能退步为代价,助推道德决策功能的增强,就意味着自我道德决策能力下降:人的道德决策的依赖性增长而独立性降低。人始终是道德判断的主体,而道德AI挑战人的道德主体地位,可能使人成为被 “喂食”道德成果的 “受体”,从而丧失了主体性。

三是自由空间被挤压与道德价值贬低。道德自由是人类道德的理想存在状态,人类道德自由经历了一个由大到小、不断萎缩的过程,其中技术作为一种外冲的力量,不断挤压道德自由空间。在 “一阶道德”阶段,道德自由与人身自由结合,书写了道德自由的辉煌历史,道德自由是一种常态,技术挤压道德进步成为偶然。在 “二阶道德”阶段,技术挤压道德自由空间成为一种常态,技术通过改变人的自然生理机理而改变人的道德本性,人成为技术的被动受体。在 “三阶道德”阶段,道德成为人工智能操控下的一种 “玩具”,此时,人类道德自由是一种奢侈品。道德是人格的神,一直以来人们对道德自律给予了 “有加无已的赞叹和敬畏”。在强大的人工智能淫威下,道德的人格神地位被降格、被改写。随着大数据的汇总分析、AI技术的深入,人类道德思维将会完全破解, “读心术”将使人类毫无隐私可言,个体思维行踪也将掌握在拥有AI 技术的人手中。马克思说过,未来社会如果连人类最基本的想法都得不到保护,就等于剥夺了人类的自由,就不能称之为真正意义上的 “人”。此外还存在道德隐私的风险问题,道德AI可能会同时为不同的客户服务。道德AI在进行道德算法、深度学习以及在实施精准化的道德导航时,可能会把隐私分享给其他客户,这样可能会造成用户隐私困惑。

上述智能化道德风险只是冰山一角,多种风险的相互生发、相互作用,共同演绎出一幅智能化道德风险的危机图景。智能化道德导航的道德风险,实质上是人本身的风险,是人的自身问题在机器身上的延伸和投影。换言之,智能化道德的风险其实折射出的是人类自我道德的风险问题。从根本上化解人与机器的矛盾,还要回到人本身,多措并举、综合施策。

3 化解风险:构建基于人性化的准则框架

涵括智能化道德在内的人工智能是当代最强大的社会变革力量,势必会改变人们的社会结构,其衍生的道德风险不能回避,必须主动回应,否则在人与机器的博弈中,人们就有可能会悲惨地出局。构建基于人性化的道德准则框架,是化解风险的理性选择。

一是实施自主性与可解读性的基本原则。自主性即 “保留人的尊严和道德的神圣性”,道德AI的开发应用必将涉及人的尊严和道德的神圣性。人的尊严和道德不能从属于人工智能,也不受其胁迫。在与道德人工智能系统的交互中,人类必须保持完整有效的道德自决权。这就要求人工智能的使用者有权决定是否遵守道德AI的直接或间接道德决策。有权知晓与道德AI智能系统进行直接或间接互动的知识,并有权选择拒绝或退出。可解读性即 “透明操作”,透明度是道德AI智能系统及其开发者赢得并维持信任的关键。从道德立场上来看,技术和商业模式的透明度都十分重要。技术上的透明度,是指智能系统要被理解能力和专业水平各不相同的人士所审查和理解。商业模式上的透明度,是指道德智能系统开发者与技术实施者要明确告知其意图。可解读是个体在与技术交互时实现知情同意的前提,可解读还要求必须采取追责措施。

二是基于人本的伦理嵌入和基于共生的深度学习策略。计算机领域有一句名言:垃圾进,垃圾出。就是说,错误的数据输入计算机系统,计算机一定会输出错误的结果。道德人工智能体是人设计的,其伦理风险是人的社会关系的反映。在人工智能深度干预人类决策的时代,确保人工智能的研发应用始终与人类价值观一致,至关重要。为了避免把道德AI变成没有灵魂的 “凶残机器”, “康德式机器” (Kantian Machine)应运而生。为了确保道德AI发展不偏离正常轨道,必须始终坚守人类的价值观,必须始终牢记爱因斯坦 “科技以人为本”的告诫。笛卡尔说过,实物机器单独永远不可能有道德。因此,在人工智能时代协调好人机关系,让机器具有道德,还必须实施机器深度学习策略。人性化的深度学习是机器人的进步方法,也是解决智能化道德增强风险的核心。倡导人工智能在人机共生的基础上,让机器人习得某些基本的道德感是很有必要的,而且是可行的。要使人工智能更好地服务于人类,实现 “我们制造工具,而工具让我们走得更远”的愿望,必须要转变思维,从对机器道德的要求回归到对人类自我道德的要求,在善待自己的同时也善待机器。唯其如此,才能创造一个人机和谐共处的美好时代。

三是拓展国际-行业-立法的硬约束思路。伦理嵌入能框住道德AI吗?把道德决策交给智能化系统合适吗?显然,自主性原则与伦理嵌入还不够,规范道德人工智能体的设计、生产和使用的各个环节,尤其需要在智能化道德的硬性语境中落实道德价值,这才是化解道德AI风险的正道。人工道德智能体的硬约束需要从国际、行业和立法三个层面入手。为了做好道德AI风险管控,国际社会以及利益相关方必须联合起来,推动人工智能的全球治理。联合国应采取务实的实质性行动,共同制定道德AI研发与应用的边界,确立道德AI行为框架,并适时调整。同时,道德AI应当成立行业协会,通过行业内部协商共同制定AI行业发展的伦理标准,发挥行业协会的自律功能,并确立道德AI行业退出机制。此外,高度进化的道德AI具有自主行为和智能信息处理能力,因此应尽快敦促道德AI研发与应用的法律法规出台,发挥国家强制力的硬约束功能,健全道德AI的他律机制,为智能化道德的健康发展提供法律支撑。

猜你喜欢
决定论决策智能化
智能化战争多维透视
探讨智能化技术在电气工程自动化中的应用
为可持续决策提供依据
大型公共建筑智能化系统造价控制
决策为什么失误了
国际政治中的决定论
在屈从中自败的自由意志
基于“物联网+”的智能化站所初探
决定论的黄昏:存在论现象学视角下的经济人假设
刑法中意志自由论之提倡