向玉琼
(南京农业大学 公共管理学院,江苏 南京 210095)
人类社会中的政策主体只能是人类,这是一个理所当然而不需要论证的问题。但是,随着人工智能的兴起和迅猛发展,这一传统观念受到挑战,人工智能能否成为政策主体,成为人工智能时代人类所要思考的重要问题。目前,人工智能在计算能力上已经远超过人脑,在下棋、诊断疾病、买卖股票等领域卓有成效,在政策过程中也推动了信息处理和方案设计的优化。不仅如此,人工智能还表现出了“觉醒”的趋势,这使其不能被等同于人类之前所发明的简单技术工具。政策过程中人工智能会扮演何种角色?人类与人工智能之间应建构出何种关系?结合社会发展的趋势以及对人工智能本质的思考,笔者认为,政策过程将走向人与人工智能的合作。
关于人工智能与社会治理的研究成果主要包括人工智能对社会治理的影响以及政府的回应两方面。贾开等人提出人工智能在技术层面的核心是算法与数据,机器学习会形成自主决策,因此会对传统科层治理提出挑战[1];陈水生研究了人工智能对城市治理的挑战以及政府回应策略[2];张陶等人提出智慧政府治理中必然出现人机合作的现象,关注责任如何分担的问题[3]。
具体到人工智能与公共政策的研究中,相关成果可归为以下几个视角。一是对人工智能政策本身进行研究,这集中在国际政策比较上,如曾坚朋等人从政策主体、工具和目标三个方面对中美人工智能政策进行比较[4];汤志伟等人从目标、工具、执行来比较中美人工智能产业政策[5]。二是从政策措施层面研究人工智能时代的政策应对,如贾开等提出综合性公共政策框架,以此为人工智能的发展建立制度基石[1]。三是研究人工智能对政策过程的影响,如何大安等人探讨了大数据与人工智能对福利政策制定的影响,认为政府可以通过大数据的搜集、整合、分类、加工和处理,利用云平台和运用机器学习等手段提高福利经济政策的效用函数[6];陈鹏研究了人工智能在政策议程中的应用,认为人工智能能精准识别政策问题,降低政策分析成本,提高政策分析质量,有效提升公共政策的科学性[7]。
总体来看,现有研究看到了人工智能对社会治理所带来的影响和挑战,并从政策措施的层面提出了一些对策,大多数研究将公共政策视为人工智能发展的制度基础和优化路径,而关于人工智能对政策过程的影响研究较少,少量的相关成果也只关注到具体的技术提升层面。但当人类社会进入人工智能时代,政策过程所受到的人工智能的影响不仅仅停留在技术层面,还会深入到关系和模式层面,涉及政策过程中人类与人工智能之间的关系问题。当前研究虽有关于人工智能与人类之间关系的探讨,如毕丞从人工智能的技术本质出发,探讨人类与人工智能的关系问题[8],但未具体针对政策过程来开展。公共政策作为现代社会治理的主要工具,政策过程关乎政策的科学性与治理能力的提升,政策过程中人工智能应发挥何种作用,人类与人工智能之间应确立何种关系模式,这对于人工智能时代的政策优化有着重要价值。
公共政策作为现代社会治理的主要工具,其制定过程必然是一个政治过程,但在社会理性化进程中,政策过程也寻求科学化和技术化,这使得人工智能的进入具有了可能性。
一方面,工业社会是一个科学技术迅猛发展的时代,政策过程受到科学化与技术化进程的影响,强调工具理性和技术理性,这为人工智能的进入提供了前提条件。尤其是进入20世纪之后,科学技术发展快速,很多社会问题都被归于技术问题的范畴,技术成为解决一切问题的万能途径,政策问题也撇弃了价值因素而实现了事实化。政策过程技术化采用了物理学领域中研究自然现象的范式,运用分析性思维将事物进行分类和分解,使得复杂的问题能被分解为更清晰的认识对象,能用规范的方法和固定的技术来进行分析,最后将分解开来的知识合并起来作为对原有事物的认知。另一方面,20世纪50年代国外的智库研究开始重视系统分析,在每个问题挑选出来的一部分中应用量化研究,在复杂决策环境中应用系统的常识分析,将实证主义的逻辑与方法引入到政策过程中。分析性思维与实证研究方法结合起来,成为政策过程技术化的完整路径。到20世纪60年代政策科学运动之后,代表实证主义路径的政策分析得到大力推广,政策分析的路径占据了政策科学研究的全部,政策过程纷纷寻求实证主义方法和技术的应用,并从技术发展中获得合理性支撑。这样,即使社会问题多种多样,但分析性思维将所有问题都经过分析和分解之后纳入标准化的科学分析框架之中,政策问题被分解为可见的明确符号,并通过符号的分析与计算得出政策结果。在技术化的路径中,政策过程抛弃了伦理和价值因素的考量,也避开了政治争论,转化为一个纯粹的技术化流程,成为一个模式化的程序,这恰好是人工智能能够发挥作用的地方。
技术化过程将政策问题转化为抽象的符号,符号可计算、可离身,这正好符合人工智能关于符号主义的假设。早在图灵(Alan Turing)(1)图灵(1912—1954),英国数学家、逻辑学家,被称为计算机科学之父、人工智能之父。那里,政策问题就被认为是可以符号化进而可以通过计算机来处理的,正是基于这一想法,图灵发明了一种全新的数学算法,并认为可以通过一种“通用计算机”来处理所有可能的机械运算,因此提出了通过机器来模拟人的智能的设想。既然所有社会问题都可以对应于符号,而符号又是可计算的,那么人类处理政策问题也就是在处理抽象符号,因此大脑可以被比拟成一种特殊形式的计算机,反过来说,电脑和人的大脑之间具有相似之处,计算机可以模拟人类的行为与智能来进行符号处理[9]9。图灵的“通用计算机”强调计算机模仿和协作工作的能力,强调计算机模拟“人造大脑”的可能性,以至于“人类具备的这种被称作‘智能’的符号处理的行为及能力也完全可以通过人工智能来体现”[9]9。基于图灵的观点,20世纪50年代“人工智能”的概念被提了出来,强调计算机编写程序的逻辑结构、符号操作系统以及编程语言,尤其强调“计算”对于人工智能研究的重要性。“物理符号系统具备智能行动的能力,同时一般智能行动也需要物理符号系统。”[10]15人工智能的发展有个前提假设,即符号的可计算、可离身,而这一假设在第一代认知科学中被确定下来并成为人工智能发展的基础。第一代认知科学坚守“离身心智论”的观念,认为心智可以离开人的大脑,通过符号这一载体在计算机上表达出来。计算机完全可以模仿人类来进行思维,“人在思维”实际上就是“机器在思维”,这一观点推翻了20世纪初行为主义关于人的大脑内部无法观测的假设,将人脑通过计算机呈现出来,将不可见的思维和认知变成可见的和可计算的符号,政策问题也就成为计算机可以处理的对象。之后,人工智能可以放心地致力于计算能力的提升,只要提升计算速度与准确性,就意味着提高心智能力,也就实现了政策过程中的工具优化。
人工智能的发展可以推动政策过程的科学化与技术化,而就现实来看,人工智能已经广泛涉入政策过程之中,“在特定领域中,计算机做出的决策通常比人的决策更好”[11]36。大数据和超级算法模式正在颠覆“凭借经验和直觉”的模式,使得政策的科学性显著增强[12]。如果将政策过程看成一个技术处理的过程,那么人工智能就可以替代人类而主导政策过程。但是,政策过程能否被简化为技术过程?政策问题能否通过符号来做出完整表达?假设政策问题可以通过符号得到表达,那么符号能否从情境中剥离出来而成为独立加工的系统?符号能否完全可加工、可计算?在20世纪中期,实证主义如日中天的地位使得人们对政策过程的技术化深信不疑,对符号的系统性、独立性、可计算性都持有肯定的答案。但在现实中,当美国政府的各层级部门都广泛应用科学分析思维之后,结果却出现大量的政策失灵。这推动人们开始反思政策过程的技术化,也动摇了对“离身心智论”符号主义的信心。
到20世纪60年代末,随着实证主义带来的政策失灵,人们意识到,任何政策问题都是存在于社会中的,都具有一定的历史背景并置于具体的社会情境中,是一个完整的总体性存在。如果将政策问题简化为可分析、可计算的符号,只保留其适合计算机分析的部分,那么这些符号并非就能代表政策问题的全貌。事实上,无论符号系统多么严密多么仿真,都只能从形式上对政策问题进行模仿。虽然符号是抽象思维的产物,是对日常经验和感受进行抽象化和系统化的结果,往往被认为比人的心智更为理性、更为完整,以至于当符号表达出来的问题与真实问题不相符时,人们往往认为符号表达的是“真实的”,而与之不符的现实问题是片面的。但是,“大型官僚制度所必然带来的简单抽象无法充分地表示出自然或社会过程的复杂性。他们所使用的范畴过于简单、静态和程式化,因此无法公正地代表他们所要描述的世界”[13]335。政策问题的符号化将政策问题抽象化、简单化的同时,也将真实的政策问题替换掉了。
既然政策问题无法通过可计算的符号来做出完整的表达,那么将政策过程简化为技术过程的方式就是偏颇的。工业社会通过标准化与规范化的程序来处理一切问题,通过技术和工具的优化来达到规模化和高效率的目的。其中所运用的分析性思维和技术都可证实、可重复并具有逻辑自洽性,因而是具有技术合理性的,但如果在重视技术理性的同时否定了理性所包含的其他内容,否定了常识和人的主观判断存在的空间,否定政策问题所具有的社会性构成,这却是不合适的。在哈耶克看来,离开意识和经验的理性只是一种理性的冀望,“根据理性,我们永远都无法以同样的方式重构整个规则系统,因为我们并不知道整个规则系统之型构过程中的所有经验。因此,整个规则系统决不能被化约成一种为已知目的服务的有意识的构造物,相反,在我们看来,必须被视作是一种经由继承而为人们所接受的指导该社会的价值系统”[14]7。在政策过程中,常识、想象、判断、直觉等与理性知识同样重要,“我们所做的许多常识性事情,要比吸引更多关注、获得令人敬仰的专业技能复杂得多”[15]171。这也就是说,政策过程中所需要的知识不仅仅是可以抽象化、符号化的理性知识,而且包含着人的常识和经验。但一旦涉及到经验和感知,就是符号所无法完整表达的,也是人工智能无法处理的了。
人工智能基于“离身心智”的符号主义假设,寄托于符号将人类思维完整表达出来。这时符号是抽象出来的具有系统性并且意义明确的,是具有技术合理性的,但抽象化的结果却是远离了意向性与情境性。到20世纪70年代,第二次认知革命兴起并对符号的抽象性与离身性提出质疑,转而认为所有认知都是与具体的身体、神经结构、活动等不可分离。这时,符号不再被视为是一种理性化的表征,社会中甚至不存在确定不变的所指,相反,符号不仅是在具体的情境中获得意义,而且对于符号来说意义比形式更为重要。人工智能处理抽象符号可以只需按程序来运作,但程序运作不可能恢复符号的意向性,也就无法使符号获得意义。“从没有一种纯形式模型,足以凭借其自身产生意向性,因为形式特性自身不能构成意向性,同时它们自身也没有因果能力,它们的能力不过是在例示过程中随着机器运行而产生下一步的形式体系。”[10]111-112就如国际象棋机器人“深蓝”战胜国际象棋世界冠军卡斯帕罗夫,下棋全程中 “深蓝”没有直觉,无法判断哪里危险或者有利,“深蓝”对象棋历史也毫无了解,对对手一无所知。“深蓝”只是在运作程序、在做算式,它能下棋,但不真正了解象棋。下棋尚可视为一个技术化的领域,而政策问题所涉及的语言、文化、表情等,如果只是程序化的处理,那就更难以再现真实的政策问题了。即使在一些偶然情况下,计算机进行符号处理会表现出某种意向性和目的性,但这只是计算机编程人员和使用者所赋予的意向性,而并非计算机自身具备了意向性。如果考虑到符号的意向性与情境性,那就完全否定了符号处理的完整性与合理性,颠覆了人工智能运作的原理。从符号的意向性出发可以认为,无论智能机器人如何发展,都不会有人的心智,也就无法对符号的意义做出准确的理解,对符号的处理也就变得没有价值了,甚至基于这样的符号做出的加工都不能被称之为符号处理。用语言学的话来说,计算机所做的只是句法,而没有语义,这必然是一种不完整的处理。
人工智能在计算能力和数据处理方面表现出极大的优势,尤其是随着神经网络技术的发展,摩尔定律逐渐成为现实,即计算能力每过18至24个月就提升一倍,以至于人工智能无论是在数据的容量上还是在可复制性上都显示出远超人脑的处理能力。20世纪80年代以来,人工智能在数据分析、处理和诊断方面做了大量工作,通过专家系统、计划系统、调度系统等帮助人类在管理信息、人员匹配等方面发挥了重要作用,随着知识表示、机器学习等方面的技术进步,人工智能变得更加有用。“智能机器最强大的应用就是那些人类智力有困难的地方,感觉器官不能及的领域和那些单调乏味的工作。通常,这样的活动几乎不涉及情感。”[16]224人工智能能够大幅提高计算的精确性与准确性,提升政策信息收集的完整性与真实性,能营造出一种理性决策的条件和流程,大大提升政策结果的科学性。但是,由于政策问题不仅包括可以被符号化处理的部分,还有大量不可符号化的需要经验理性支撑的部分,因此,除了应用人工智能来优化政策工具之外,政策过程也需要人类来发挥自己的优势。尤其是在全球化、后工业化进程中,政策问题更加多样,结构多变无定型,这就更难以被纳入统一的科学框架和分析路径中,解决政策问题也无法依靠单一的技术能力来解决了。“复杂性强调,存在多种多样网络化的时空路径以及经常的、大量的因果非线性关系;同时又强调,不可预见性以及不可逆性似乎是所有社会系统和物理系统的特征。”[17]9高度复杂性打破了简单的因果逻辑,意味着非线性、高度模糊和混沌状态以及非平衡态的涌现。这种复杂性超出了任何单一学科可以解释的范畴,也不再是任何单一的技术工具可以控制的,复杂性的政策问题对传统决策模式提出挑战,突出了共生共在的重要性。“人的共生共在是社会的高度复杂性和高度不确定性条件下人的本真状态,要么是人的共生共在,要么是人类历史的终结。”[18]越是在高度复杂性的社会条件下,越是需要通过共生来实现共在,这里的共生共在不仅指人类之间,而且包括人类与人工智能之间。正如弗洛里迪所说的,“除非彻底消灭信息与通信技术,否则我们的世界已经离不开它们”[19]198。在高度复杂性的社会中,人类与人工智能只能寻求共生共在之道。具体来说,政策问题不仅需要理性知识和先进技术所带来的高速计算,而且要打破科学框架的边界以寻求经验知识的支撑,需要不同学科之间、不同领域之间的共同建构,需要多元主体之间的合作行动。
政策过程中的人机合作,一方面强调人工智能在技术理性方面的力量,另一方面注重人的作用,强调人所具有的经验知识以及情感体验。在不确定性程度相对较低的工业社会中,通过程式化行动可以处理所有政策问题,继而通过工具优化来提高速度就能实现高效率,人工智能完全可以满足程式化行动需求,并推动效率的提高。但是,在不确定性程度越来越高的情况下,技术理性反而可能成为有效政策的羁绊。政策过程需要突破既定的思维与框架,需要在开放与互动中做出决策。在发挥技术理性优势的同时重视人的作用,既会推动人类与人工智能的合作,也将带来政策过程的重塑。
通过科学思维将政策问题转化为可计算的、具有离身性的符号之后,政策过程就被转变为一个程序化运作的过程。那就意味着,只要将一套程序输入到人工智能中,就能实现更加高速且精确的运算,从而实现更高的效率。早在20世纪40年代时,人工智能处理常规决策的能力就得到认可,西蒙甚至认为,如果能将非常规性问题转化为程序化运作,那也是人工智能可以处理的,其中的关键问题在于,“其一,是找到如何从实质上增加人类在非程序化环境中解决问题的潜力。其二,是找出用计算机帮助人类解决问题而又不用先将问题简化成数学形式或数字形式的方法”[20]54。这种观点对人工智能表现出了极度乐观的态度,认为计算机完全可以设计出复杂的程序来做出非程序化的决策。但是,随着高度复杂性政策问题的出现,常规性、标准化、规范化的解决方式受到挑战,政策过程更多需要的是创新与情境性处理。这里所说的创新意味着政策思维的灵活性与开放性,意味着政策流程的非常规化与非程序化,也就是说,创新会突破科学的边界,突破分析性思维所固有的逻辑和步骤,不再将政策问题视为封闭的、隔离的、可分解的对象,而是将政策问题置于具体的情境与意向性中来开展灵活性的建构。虽然现实中人工智能也在技术上不断创新,但究其实质只是技术上的发展,是人工智能基于大量的数字记忆和技术模拟所获得的技术进步,无论是计算速度的加快还是对符号表意全面性的增长,都是属于技术范畴之内。“在任何情况下,无论多么成功的人工智能也只是擅长于那些经过专门设计的领域。它们不会总结归纳,缺乏灵活性;甚至它们的创造者也认为它们不会像人一样思考。”[16]11从某种意义上说,人工智能的这种发展不能被称之为真正的创新,技术上的复制或者模拟只是被动性、程序化的运作。而高度复杂性条件下的政策过程需要摆脱这种程式化的运作与模块化的行动,当政策问题具有高度复杂性的特征且瞬息多变时,每个政策问题可能都具有不可通约的特殊性,这时任何程式化的运作都无法生产出有效的公共政策了。政策需要创新,政策模式需要创新,这种创新需要打破科学理性的框架限制,打破技术专家的主导地位,而将政策过程放置在一个开放的场景之中,在多元化的主体互动中,在多元化方法和能力的融合共生中建构出灵活的政策流程与行动。
人工智能为政策过程提供了完善的技术知识,其所擅长的符号加工与处理代表着技术发展的前沿,但是人工智能的发展也限于科学框架之内。20世纪70年代专家系统推动了人工智能的发展,却使得人工智能更加局限于技术知识的范畴,并带来以下几个方面的问题:第一,专家系统依靠技术知识,而所处理的问题一旦超出所划分的专业系统范围,人工智能就无法处理;第二,人类专家有经验,但是这种经验知识无法用符号来表达,也无法计算和推理;第三,无法提供深入的解释,因此专家系统缺乏问题域的深层知识;第四,不会开展经验学习。由于符号表征的有限性,专业知识的积累并未能扩展人工智能的知识,同时,由于专家系统对专业知识高度依赖,一旦出错会带来更为严重的后果。随后,机器深度学习的概念带给人们一种希望,即通过深度学习可以摆脱符号计算主义的限制,实现自主学习。让机器模仿人类从经验中学习知识,从例子中学习,机器会记住、识别特定的行为模式和规律,能因应数据集而自行调整,如同人类大脑一样能根据不同情况执行不同工作。机器学习开始时神经网络是无知的,但是经过一个真人或者电脑软件所形成的“老师”的教授,通过反复训练之后,神经网络所积累的知识和经验会出现爆发式的增长,无需指点就会自行组合出答案,这样,神经网络实现了自我学习,也就是具有了“智能”。但实际上,深度学习也无法使得机器有目的地涌现出自我意识,无论机器如何发展,都无法做到人在成长和发展过程中所进行的经验知识的累积。
政策问题生成于并存在于社会之中,有其历史发展轨迹和特定背景,这些是无法通过符号来做出完尽表达的。越是复杂性程度高的政策问题,越是无法被简化为符号的分析和计算,而是包含了大量无法由符号来对应表达的部分,人工智能所能处理的只是符号,这就意味着,无论人工智能如何发展,其解决问题的科学性与完整性都必然受限于符号的表达程度。“传统人工智能在视觉理解、直觉思维与顿悟、联想记忆、学习,以及求解那些信息不完善、具有不确定性和模糊性的问题上显得力不从心。”[21]158而人类除了可以习得理性知识之外,还在成长过程中带着记忆和情感,人类可以体会到同一符号在不同地方出现时所表达的不同涵义,可以感知到个体在一个细微表情甚至当其沉默时所带来的情绪与态度,这些无法由符号明确表达出来。人工智能用理性知识来处理政策问题,同时舍弃了政策问题所具有的经验成分与情境因素,因此也无法对政策问题做出科学处理。政策过程中所需要的知识除了理性知识之外,经验知识同样重要。经验知识并非指称科学化之前那种零散的技术,而是在对技术理性反思的基础上,基于直觉、感知、回忆、联想等途径所形成的知识。经验知识是对理性知识的有益补充,政策过程的开展需要经验知识与理性知识的融合支撑。
现代社会在技术理性的道路上谋求发展,但是“在新的情况下,问题是,多数人的生活和多数人的生命,与其说是在寻找不要求思考的实现目标的方法手段,不如说将在目标选择的折磨中度过。与它的前身相反,轻快的资本主义注定是迷恋于价值的”[22]94。因为价值的不可量化与不易操作,工业社会在科学发展中一直将价值排除在外,但如果失去了价值的引导,政策过程无论表现为多高的效率都是没有意义的。尤其对于公共政策而言,价值与目标是技术运作的前提和框架,关乎公共政策的内涵与方向,因此是更为核心的。“在社会科学中,我们绝对要关心总体社会情境所提出的直接任务,这只有通过质的分析才能得到充分领会。只有当这一点已经得到解决的时候,一个人才应当考虑复杂的问题怎样才能被分解为更简单的要素。”[23]136价值与目标的设定是一个总体性的问题,需要“全局”的视角,这类工作无法结构化,因此也无法被转化为计算机所能处理的符号。虽然技术工具可以帮助人类进行信息搜集和数据处理,但是在涉及价值判断时,最终需要依靠人类。“公共政策的价值和道德只能是由人类来赋予,政策的意义也是在人类的生活中得到体现,人类的参与使得政策过程更具有意义而不仅仅是产品的生产,而人工智能的参与则是在扩展人类的技术理性,提高人类的效率。”[24]
尤其是在后工业化进程中,个性化与多元化的发展推动人们更多地去关注意义、关注价值,而不是一味地追求效率,这也推动政策过程中价值的回归。实际上,当人工智能承担了更多的技术性工作时,虽然其没有体现出对情感和价值的关注,但是事实上在推动人类向非技术性工作的发展,也就是对价值的关注,并激发人类的创造性去寻求生活的意义以及如何在政策过程中体现出这种意义。从这个角度来看,人工智能不会和人类之间形成竞争关系,因为人不需要像“机器人”一样程式化地运作,人类的生活有比工具优化更为深层的意义,人类与人工智能可以突出各自的优势,在推动人工智能更大范围承担技术操作任务的同时,由人类对政策进行总体规划和定位,为公共政策注入价值和意义。
即使在主要由人工智能开展高速计算的领域,人工智能的发挥也需要人类的合作。人工智能因其技术能力突显其优越性,擅长处理可以被符号化进行技术处理的问题或环节,“所有可以被表达成一系列规则或算法,并且能够明确指出所有突发事件应对措施的智能行为或活动,都具备被计算机占领的条件”[11]25。也可以说,“一旦人类的某种智能活动可以被拆解成一系列已知的应急事件和明确的规则步骤,它就不再专属于人类了”[11]24。只要某个领域中的知识目标足够清晰透明,只要是进行数据计算和技术推理,就是算法可以发挥作用的地方,人类对人工智能的计算能力给予了极大的信心和宽容,即使人工智能出现了算法上的失误,也被认为是可以接受的。但是,高速计算并不意味着人工智能可以自行满足计算所需要的所有条件,当需要进行大规模序列计算时,就出现了“冯·诺依曼瓶颈(Von Neumann bottleneck)”(2)“冯·诺伊曼瓶颈”:在CPU与内存之间的流量(资料传输率)与内存的容量相比起来相当小,在现代电脑中,流量与CPU的工作效率相比之下非常小,在某些情况下(当CPU需要在巨大的资料上执行一些简单指令时),资料流量就成了整体效率非常严重的限制。。
另外,人工智能高速计算的实现依赖于数据的完整性与科学性,依赖于数据的结构化,如果没有这些条件,人工智能是无法进行有效计算的。如当人工智能发展到联结主义模型时,联结主义通过对个体运作的局部规则以及元素间联结的变化规则来开展工作,认知不再来自于对单独的、离散的符号的计算,而是在简单组分构成的系统中出现全局状态的涌现。“在这样的系统里,有意义的项目不是符号,而是组成系统的为数众多的单元之间的复杂模式。”[25]80涌现超出了结构化运作的框架,超出了人工智能所能计算的范畴。这也就是说,算法只发生在计算层面,而在算法得以发生的结构和系统层面,则需要人类的行动。人类为人工智能剔除坏的数据,设计出适合于计算的数据库,以弥补人工智能的盲点。“为保持有效运作,许多决策支持系统或应用程序本身就需要具备一些特定类型的信息,如构成了问题域空间(通常存储在一个知识库中)的实体和事件的相关信息,如何围绕解决问题而进行计算或推理等以及与用户偏好有关的信息。人类为机器构建了许多知识库和推理技术(例如支持推理的规则等)。尽管机器学习技术在执行这项活动上正迅速变得非常有效,但构建知识库来支持自动化这一过程目前仍然主要由人类完成。”[26]131换句话说,数据的结构化和数据的科学性等都是人工智能所无法解决的,因此,要实现政策过程中的高速计算等工具的优化,也需要人类与人工智能的合作。
通过政策过程中的人机合作虽然可以实现政策优化,但同时人机合作也存在风险。其中最大的风险在于人工智能是否可以成为人类的合作伙伴,而人类作为道德主体,又应在人机合作过程中承担何种责任以规避风险。
人工智能是否可以成为人类的合作伙伴,涉及两个问题:第一,人工智能是否可以被视为一个合作主体;第二,人工智能是否会发展到替代甚至控制人类。这两个问题相互关联,都关乎人工智能的角色与定位。
在科幻电影《机械姬》中,人工智能艾娃具有了人的所有能力,她不仅美丽、聪明、具有情感吸引力,而且可以不依赖人而进行自我修复。电影中的艾娃渴望自由,她巧妙地操纵图灵测试者,努力逃离那个禁锢她的“家”。科幻电影反映了人们对人工智能极度乐观的态度,按照这种想象,人工智能可以发展成与人类并立甚至高于人类的新物种,因而可以替代人类主导政策过程。关于人工智能与人类的关系问题,早在20世纪60年代就出现了不同的声音。一派是以约翰·麦卡锡(John McCarthy)为代表的斯坦福大学人工智能实验室,认为机器很快就能取代人类;另一派是以道格·恩格尔巴特(Doug Engelbart)代表的斯坦福国际研究所,认为机器将增强人的智能,但无法取代人类[27]130。恩格尔巴特发明了图形用户界面、互联网和虚拟个人助理,这些都属于人类智能的发明,但并不一定提高人类智能,也不一定创建非人类智能,只是帮助人类做更多的事情。就目前现实发展趋势来看,第一种观点仍然显得过于乐观了。
根据达文波特和柯尔比的研究,机器超越行动能力需要经历四个阶段[11]33-34:第一阶段是完成最基本的任务,主要是计算或单纯的数字分析;第二阶段包含艰难一些的任务,比如理解词语、图像;第三阶段涉及执行决策的领域,包括执行数字任务,通过数字方式完成行动;第四阶段是执行物理任务,包括远程操作物体等。在这几个阶段中,机器在第一和第二阶段只是人类决策的辅助工具,不具有自己的智能。只有在第四个阶段机器才开始具有自我意识,有能力去思考自身行为的目的,具有“质疑”的能力,这时才暗示机器能够脱离人类的控制。但是,“现在‘深度学习’人工智能领域的研究内容很简单,就是罗列大量的数字进行运算。这是一种很聪明的大数据集的处理方法,由此可以为数据集分类。但这种方法无需通过颠覆性模式创新来实现,只要提高计算能力即可”[27]29。斯加鲁菲认为,“暴力计算目前是统治人工智能领域的范式之一。毕竟通过数百万网页的索引,搜索引擎能够为绝大多数问题找到答案,这是任何专家系统都无法企及的结果”[27]30。而暴力计算只能实现对词语和图像的理解,对机器发展的后两个阶段是无法实现的。也就是说,目前人工智能只是通过计算或者单纯的数字分析来完成任务,只属于计算的工具,其相对于人类的优越性仍然只体现在计算速度与计算能力上。
人工智能在速度、容量、可复制性和感觉系统方面都远超人类,已经成为政策过程中的一个重要角色,但人工智能又不能等同于人类之前所发明的那些工具或者技术,人工智能通过学习和发展可以具有无限种可能性,通过深度学习甚至可以在极大程度上模拟人的心智,因此,不能将人工智能看成一般的技术工具。但是,人工智能的发展并没有出现“觉醒”的趋向,无论人工智能在速度和精细度上如何发展,就心与脑的关系来看,人工智能所能模仿的只是与“心”分离的“脑”的部分,对应于知识体系上的技术知识部分,也就是说,人工智能仍然只是程序化的运作,因此不会主导政策过程,更不会反过来代替甚至控制人类,人类可以与其建立合作关系。
尽管强调政策过程中人类与人工智能之间的合作行动,但人类作为道德主体,应当更多地承担责任来推动合作的开展。
其一,转变人类角色,确立合作意识。当人工智能越来越聪明,越来越多地参与到决策中来时,并非就是让人类出局,更不是让人类听命于机器人,而是推动人类从事更具有价值的工作。“随着人类越来越多地和机器一起工作,人们可以超越、避让、参与、专精、开创,让自己变成全局者、避让者、参与者、专精者以及开创者。最后一步涉及机器对自身的构建。我们必须提醒自己,聪明的机器仍然是由聪明的人类构建的,虽然这部分人类的数量并不多。”[11]28人类应确立与人工智能的合作意识,推动政策过程中人工智能的参与并赋予它们适当的角色。
其二,在政策过程中强调价值和意义。人工智能更擅长工具层面上的计算,因而公共政策的伦理与价值需要人类来把握。人类不仅要为具体的公共政策确定价值和目标,而且要在机器设计中为其安置一定的价值目标,这可以通过程序设计为机器注入明确的美德清单,也可以在机器学习中使其发现并识别一定的价值导向。但是,机器毕竟不可能如人类一样进行情境性的操作和自发的感知,最终还是依靠人类来对具体情境中的政策过程赋予意义和确立方向。
其三,驱动和监管整个机器运作过程。人类一方面需要为人工智能的运作做好数据准备,进行数据追踪,保证数据整理的完整性、真实性、时效性、相关性、准确性等;另一方面需要努力解释人工智能的算法模型和运作原理,基于人工智能的判断逻辑而不是人类的逻辑去理解它,扩大人类与机器之间的交流并能做到与机器之间的系统切换,监控机器的工作成果。当机器系统运转不畅时,人类有责任找出高质量的系统并对其进行更新。同时,要建立人工核查机制,预防人工智能参与所带来的风险问题。
其四,设计人工智能运作的问责系统。传统观念认为只有人类才能承担责任,但这种观念随着人工智能的发展需要做出修正。一方面,人工智能不同于一般的工具或者技术,在道德上也是可以问责的,只是不能以与人类同样的方式来对其问责,例如可以按照道德问责的方式去思考机器的设计和运作;另一方面,即使人工智能运作系统本身高度复杂、高度智能化,但是人工智能背后一定有最终负责的组织或者个体,人类在与人工智能合作过程中需要找到人工智能背后明确的责任人,并确定其责任。
人工智能代表着技术发展的最前沿,探讨政策过程中人类与人工智能的关系,实际上是探讨人类与技术工具之间的关系。工业社会在科学技术上突飞猛进的同时,也出现了对技术自主性的担忧,这在人工智能时代更为集中地爆发出来。虽然人工智能确实能在一定程度上实现自主性,甚至表现出“觉醒”的迹象,但人工智能不会完全代替人类。政策过程需要技术理性,同时也需要经验理性;需要人工智能所带来的工具优化,也需要人类来做出价值规划,在未来的政策过程中,无论是人类还是人工智能都不会变得多余,人类与人工智能以自己擅长的方式进行合作,组合起来创造价值,推动决策更加科学、更有效率。在政策过程中开展人机合作,其目标不是建设一个适合机器人发展的世界,而是一个适合人类的世界。我们相信,“当人类和机器组成强大的搭档时,制定出的政策就会更好”[11]301。因此,人类可以对人工智能进行引导,使其朝着有利于人类共生共在的方向发展。在此前提下,可以说,我们不害怕人工智能的到来,我们害怕它的姗姗来迟,害怕在高度复杂性的政策过程中只有人类独自面对。