张 乐,童 星
(1.山东大学 生活质量与公共政策研究中心,山东 威海264209;2.南京大学 社会风险与公共危机管理研究中心,江苏 南京210023)
当前,人工智能正深刻地影响着经济社会发展乃至国际政治经济格局。世界主要发达经济体几乎同时将人工智能纳入重大战略,加快部署。中华人民共和国《国民经济和社会发展第十四个五年规划和2035年远景目标纲要》更是将人工智能技术列入重点攻关计划。在可期的时间内,中国的人工智能或将在基础研究投入显著增加、重大创新平台持续建设、企业创新能力不断提高和人才队伍活力日益增强等利好环境下迎来爆发式突破。国家和地方政策的加持也将增强投资者的信心,资本市场对人工智能的追捧会加速技术的成熟与商用。人工智能迸发出的革命性力量越强,国家、市场和普通人越是对其寄予厚望,社会越是应该对这股发展热潮中的不确定性及其带来未知风险与挑战多做些“冷思考”。本文从交互视角阐释人工智能发展的动力机制和风险生成机理,尝试揭示其动力与生机中的阻碍与危机。希望借助此类分析,为加强人工智能风险的前瞻预防与约束引导提供政策依据,进而最大限度降低发展中的主要风险,确保人工智能始终在安全、可靠、可控的道路上健康发展。
驱动一项新兴技术快速发展的因素多种多样,就目前可观察到的人工智能的发展状况而言,技术进化的内生力、投资效应和政策扶持是三个最主要的动因,它们会首先按照各自领域的运行规律推动人工智能的发展。
人工智能被认为是新一代的“通用技术”(General Purpose Technology,GPT)①所谓“通用技术”是指那些可识别为通用产品、流程或组织形式的技术。通俗讲就是存在多种用途、能应用到政治、经济、文化、社会的各个领域,有很强溢出效应的技术类型。,具有巨大的发展前景。尽管未来人工智能可能会进入强人工智能甚至超人工智能阶段,超出单纯“物”的界定,但目前看,人工智能依然属于技术范畴,是人类为了自身某些目的而对自然原理的捕捉、驾驭和开发利用的工具系统。人类科技史表明,基于不断满足人类需求的技术进步动力永不枯竭,技术系统作为人类文明不可或缺的体系,早已自成一体,具有“自我创生”的能力:技术提供问题的解决方案,每次技术的进步或更新都会解决一些难题,同时包含着新问题的种子,进而形成“问题—技术解决方案—新问题—技术更新”的递归循环(布莱恩·阿瑟,2018)。[1]由此,技术系统获得了持续不断的新颖性和源源不断的发展动力。
人工智能系统非常复杂,大致包括基础层(数据和计算能力)、技术层(系统框架和算法技术)与应用层(通用应用和行业应用)三大层级。限于篇幅,本文仅以算法这个人工智能核心技术层的演进为例来展开。算法的突破性进展大体可分为三个阶段:(1)简单感知阶段。20世纪50年代,神经模拟计算研究有了新发展。罗森布拉特(Rosenblatt)的感知器模型通过算法定义出精确的神经网络学习规则,从而实现对大脑学习的简单结构和效果模拟。该算法用在像素识别与分类中获得成功,带动了人工智能发展的第一个高峰。不过,感知器算法模型存在着缺陷:单层感知网络无法解决非线性可分问题,加之网络模拟示范点计算力超过了当时算力的极限,这让人工智能陷入技术瓶颈。(2)多层神经网络阶段。遗留的难题随着“反向传播算法”的出现而得到解决。明斯基(Minsky)等人提出采用多层神经网络函数表达来解决非线性可分问题的具体方法,带来了人工智能解决复杂问题的希望。1989年,辛顿(Hinton)等研究者开发的“卷积神经网络”算法成功读取了银行支票上的手写数字,带动了人工智能第二波研发热潮。但算法多重网络梯度衰减引发的神经网络计算停滞拖慢了机器学习的速度,参数过多、学习自由度太大又带来过度拟合等问题,无法真正实现商用推广。(3)深度学习阶段。若干年后,随着辛顿等人的无监督学习算法的成熟,机器学习进入深度学习阶段。该算法较好地解决了梯度衰减和神经网络训练误差等难题,后续的“丢弃算法”进一步提高了模型的拟合精度,大数据的存储也让算法训练大幅度提高(尼克,2017;俞祝良,2017;施鹤群,2020)。[2-4]2010年以来,随着GPU等硬件的发展和“云计算”的普及,大量的计算资源被提供给高性能算力使用,不断突破机器学习的技术限制,让深度学习越发成熟,人工智能被广泛应用在图像识别等领域,获得了极高的商用价值。
马克思和恩格斯认为,资本有一种生活本能,就是增殖自身(中共中央编译局,2009)。[5]资本增值的逻辑是现代社会经济发展的主导动力;资本主要通过对生产工具、产业部门直至生产方式、生产关系的不断变革等方式实现增值。尽管当代经济的发展存在金融资本自我增值的现象,但大多数资本的增值活动还是发生在实体经济当中,通过投资与技术紧密结合形成“资本—技术”密集型产业集群的方式来实现价值最大化。正如马克思所言,资本不创造科学,但是它为了生产过程的需要,利用科学,占有科学(中共中央编译局,2009)。[6]资本最擅长的就是将它认为有利可图的事物包括高度理想化的、抽象的、形式化的技术转化为空前的生产力。在这一转化过程中,投资技术的市场风险很高,为了最大限度地规避风险,专利保护制度应运而生:一方面,法律保护专利权人对其发明创造依法享有排他性独占权,凭借专利技术获取市场优势,得到更多超额利润,实现资本更大增值;另一方面,专利还可以被有条件地公开复制,通过付费方式向他人转让或许可使用,利用专利赋予的增殖服务同样可以达到资本增值的目的。
上述人工智能技术经历的“三起两落”的波动,背后皆与资本“大量涌入和快速撤资”直接相关。资本推动人工智能技术发展的形式主要有三种:(1)资本风投。以国内为例,据亿欧智库的统计,2012—2020年,中国AI私募投资频数年复合增长率为68%,2014—2018年年均投资额约为1300亿元,单笔平均投资额达4.1亿元(张一豪,2020)。[7]资本的大量涌入催生了数以千计的人工智能企业,促进了人工智能技术的成熟和商业落地能力的增强。(2)资本并购。在过去十年里,超过600家全球AI创业公司被收购,收购方主要集中于巨型科技企业。以美国为例,仅在2018年,苹果收购了20家,谷歌收购了14家,微软收购了10家(陈林,2020)。[8]在中国,腾讯、阿里、百度、华为、京东、科大讯飞等平台企业,同样是人工智能科技产业发展的主导者,通过资助开发和资本并购的方式发展各自的人工智能技术。(3)专利垄断。国家工业信息安全发展研究中心(2020)《人工智能中国专利技术分析报告》显示,中国人工智能领域的专利申请量总体上呈逐年上升趋势,2018年达到70281件,是2010年申请量的近20倍。在人工智能专利申请量和授权量方面,百度分别以9364件专利申请和2682件专利授权处于第1位,腾讯、浪潮、华为、阿里以及西安电子科技大学、国家电网公司、浙江大学等都居前列。[9]
政策通常以技术发展的外部环境形态出现,是影响技术发展的关键因素。中国在2017年以国务院的名义发布《新一代人工智能发展规划》,美国在2016年发布《国家人工智能研究和发展战略计划》,欧盟在2019年发布《人工智能战略计划》。各国战略规划目标明确,那就是维护国家安全并赢得国际竞争。在策略方向上,各国都试图通过政策引导甚至是直接参与的方式来推动人工智能的快速发展。人工智能国家战略对外是国际竞争宣言,对内则是发展目标指南。国际竞争压力传导到国内,通过国内政策分解与阶段性实施的形式再传导给地方,成为地方政策落实的抓手。
我国推动人工智能发展采用的是“国家战略统筹、地方竞争落实”的政府主导模式。其最大特点就是“使命驱动型创新”(Mission-Oriented Innovation)(张学文和陈劲,2019)[10]:国家基于重大战略和公共利益考量推动的技术攻坚创新。政策对人工智能发展的扶持传导分为三个方面:(1)国家采用目标导向和资金税收刺激导向,双管齐下地提高地方和行业发展人工智能的积极性。在国家《新一代人工智能发展规划》(下文简称《发展规划》)①如未特殊说明,文中的国家政策规划都是指《新一代人工智能发展规划》。里,明确指出发展人工智能的战略意义、基本原则,制定了战略步骤、总体目标要求和可量化指标,发布了人工智能发展的重点任务,提出了资源配置、保障措施与实施路径。这一战略规划的政策意图非常明显:“通过全方位的智能化建设,全面提升社会生产力、综合国力和国家竞争力,加快建设创新型国家和世界科技强国,为国家民族复兴提供强大支撑。”在具体发展指标里,要求人工智能核心产业规模从2020年的1500亿元发展到2030年超1万亿元,带动相关产业规模从1万亿元增加到10万亿元(国务院,2017)。[11]国家还通过预算内资金、专项建设基金、工业转型升级基金、国家重大科研计划等渠道给发展人工智能提供充足的资金支持。2019年,科技部印发《国家新一代人工智能创新发展试验区建设工作指引》(国科发规〔2019〕298号)①2020年9月,科技部根据中央和习近平总书记的重要指示批示精神对《国家新一代人工智能创新发展试验区建设工作指引》进行了修订,进一步明确国家新一代人工智能创新发展试验区的总体要求、重点任务、申请条件、建设程序和保障措施,为打造新一代人工智能创新发展的地方样板奠定了政策基础。,鼓励地方政府在体制机制、政策法规等方面先行先试,逐步形成促进人工智能与经济社会发展深度融合的格局。(2)地方政策跟进与落实。地方政府按照中央的战略部署分别制定符合自身条件和发展目标的实施细则,包括分解目标、具体的支持内容、可量化的扶持工具和地方特色发展重点等。相关研究表明,2017年国家战略规划出台后,地方性人工智能政策跟进速度非常快,政策种类和数量都大幅度增加(宋伟和夏辉,2019;陈小亮和陈彦斌,2019;袁野等,2021)。[12-14]不过,这些地方配套主要属于供给型政策,在目标规划、金融支持和税收优惠上发力较多,在相关法律法规建设、风险治理、基础研究投入等方面关注较少。(3)政策推进竞标赛。在“央地关系”结构性背景下,人工智能发展表现出“地方锦标赛”的特点。一是目前超半数的省(市、区)出台了人工智能发展规划与实施细则,展现出各地争相落实中央决策的积极性;二是地方政策关注的重点都集中在人工智能产业集群培育、高端人才培养、智能服务平台打造等方面,政策同质性较强;三是地方竞争加剧导致政策偏向应用型人工智能产业的扶持。
技术、资本和政策三方驱动下的人工智能技术迭代、产业化规模和商用价值都得到了提升或增加,人工智能越来越多地被应用在生产生活的各个领域,科技赋能的效果明显。在这一片欣欣向荣之中也蕴含着安全隐患和各种风险,正随着人工智能的持续发展而日益显露。
1.技术对资本的裹挟及风险
其一,技术控制资本封存其内生风险。技术一旦获得足够的资金支持,就有可能不断增强自身能力,反过来“控制”资本。资本把占领市场先机、推动技术商用落地看作是第一要务,一些关键核心技术被冠之以商业秘密严加保护,而对技术内在漏洞及其潜在风险的关注较少。这就很容易让自家技术固有的安全漏洞被“封存”起来。以算法技术最为依赖的大数据领域为例,当前人工智能数据资产已开始出现寡头垄断的态势,互联网产生的数据资产半数都集中在100家左右的头部企业,这些头部企业对数据开放持谨慎态度(中国信息通信研究院,2021)。[15]它们凭借自身优势数据进行人工智能算法研究和验证,根本不会与其他公司更遑论公众分享数据及其算法成果,“有限理性”常常使它们自己也不太清楚设计出的算法究竟存在哪些漏洞,这就导致技术内部风险(如精确度不高、识别度差、能效比低、系统不稳定等)扩散到实验室之外。
其二,技术收益遮蔽风险让资本放松监管。杰里米·里夫金(2014)在《零边际成本社会》中预言,随着市场竞争和技术创新,生产力发展终将跃过“终点线”,即商品生产的边际成本趋向于零。[16]在该模式下,技术的持续改进会让产品性能和服务质量得以持续提高,会给资本带来可见的、不断增长的收益。如今,人工智能技术的快速发展让资本看到了生产率足够高、价格足够低的零边际成本的增长模式实现的希望。技术带来的巨大收益将“遮蔽”技术风险,资本会误认为,技术即便有漏洞和———— ———不完善的地方,与其带来的收益相比也是可以接受的。技术与资本间的互惠使资本加强了对技术带来高附加值的期待,放松了对技术风险的监管自觉,埋下并积累了隐患。
其三,人工智能技术改变着资本主导的生产方式,增强了资本对劳动的控制,在一定程度上激化了劳资矛盾的风险。人工智能催生的新业态让劳动者看似可以“自由”地选择工作平台、工作时间,实则又陷入App、智能算法等数字机器体系所左右的数字泰勒主义的控制之中(Staab和Nachtwey,2016)。[17]掌握数字网络平台的科技巨头竞相通过操作系统授用、应用程序编程接口和标准开发工具包等方式,精心构筑“带围墙的花园”(walled garden),攫取并垄断呈指数级增长的海量数据(黄再胜,2020)。[18]各种算法等数字机器对源源不断的人类生产生活信息进行“二次加工”,形成功能各异的数据产品或服务,人工智能技术在生产环节被用来优化生产流程、控制员工行为,成为“压榨”员工劳动的“帮凶”。无处不在的数字监控和数字化绩效考核,不断侵蚀劳动的自主性,把数字劳工的劳动强度推向极限,劳资冲突的风险在这一过程中进一步累积。
2.资本对技术发展的操控及风险
其一,资本会促逼①德语中,促逼(Herausfordern)有挑衅和挑战的意思。海德格尔在关于技术本质的论述中使用了促逼,意指一种把自然功能化、齐一化的技术模式,是人类要求自然提供出能量及其蕴藏着的能效的开发行径。本文将其用在技术与资本关系阐释上,以描述资本对技术的利用状况与程度。人工智能商业落地,导致技术领域的短视行为激增。由于资本先天对“高风险”的厌恶本能,它们更青睐那些短线的、能快速见到效益的技术项目,因此人工智能应用类技术项目获得了大量投资。2012—2018年,中国人工智能投资呈现爆发式增长,其中行业解决方案、智能风控、智能影像诊疗、智能营销等技术应用资金热度最高,相比之下,资本对人工智能基础层的投资则非常保守,针对基础元件、AI芯片的投资频数占比不足20%(张一豪,2020)。[7]资本促逼下的技术短视行为造成了技术力量的分散化,难以形成合力以开展核心技术的攻坚。为了生存,一些人工智能科技公司特别是小型的初创公司会把大量的技术力量投入短平快的技术应用开发项目上,做出一些打着人工智能旗号的低端产品,竞争力不强,市场淘汰风险大。
其二,资本对技术伦理的直接干预导致内部伦理审查失守。资本对增加安全性而进行的研究普遍缺乏耐心。如果资本意识到技术性能改进之外的设计将延迟产品服务投放市场的周期,则很容易做出干预技术的决定,这些干预在技术伦理审查领域较为突出。目前,业界对与人工智能配套的伦理规范和法律法规尚未达成共识,仅有少数科技公司自行制定的技术伦理宣言或类行业准则。例如,2019年,谷歌公司曾成立过内部伦理审查委员会,较早提出“技术不作恶”的伦理宣言。但该伦理审查与公司商业利益相悖,这个委员会仅存在一周就不得不宣告解散。可见,为保护公众安全与用户利益的科技伦理多数时候还是要让位于资本增值的目标。
其三,资本迫使技术帮其实施操纵式牟利活动。算法技术原本可以提高机器的识别效率,相关应用的开发原本是为了更好地了解用户需求,从而改善用户体验。资本在这里却发现了“商机”,一些互联网平台企业滥用市场支配地位,凭借数据和算法优势操纵价格体系,出现了所谓的“杀熟”现象。企业越是熟悉用户的习惯和价格偏好,越有机会实施有区别的定价策略,那些对企业服务或产品越忠实的用户受到不公平待遇的概率就越大。这些行为背后都有资本的幕后推动。资本为了获取超额利润,会授意乃至迫使人工智能技术部门服务于资本增值的需要。这时的技术要么由于本身隶属于企业,只能听命于资本;要么因被资本购买了服务,同样需要帮其攫取利润。
1.政策对技术的复杂态度及风险
政策对技术存在“扶持和监管”两种态度,二者的状态将影响技术发展空间、成长速度和应用落地机会及效果。就当前国内政策对人工智能的态度看,鼓励与扶持多于限制与监管。对于人工智能发展带来的道德、法律和社会影响虽然有提及,但政策采取了“无需批准式”监管逻辑(贾开和蒋余浩,2017),强调除非有充分案例证明其危害性,否则新技术和新商业模式都是允许的。[19]在这种情况下,“技术作恶”给用户利益乃至国家安全带来的损失与威胁也越来越大。
一是政策监管缺失给国家安全带来极大的不确定性。在政权安全方面,人工智能日益强大的信息采集、分析、加工和传播能力一旦不受约束或被利益集团、敌对势力控制,就存在被直接用于制造国内政治议程、干扰内部政治生态、破坏国内政权稳定等重大风险。在经济安全方面,人工智能将彻底改变经济的运作模式,产生超乎想象的经济后果,给现有的经济体制、市场机制带来更大风险与挑战。如金融领域人工智能的广泛应用诱发高频交易故障①2012年,美国“骑士资本”就因其人工智能控制的高频交易程序发生故障导致超过4亿美元的亏损,并造成美国股市大幅波动。,极易导致金融股市的大幅波动,严重时会造成金融市场混乱,影响整个国家经济运行;不受监管的人工智能还会给国家的经济数据安全带来风险,大量关系国家经济运行状况的核心经济数据一旦被境外人工智能程序抓取分析,则容易将国家经济发展的薄弱环节暴露,给国际竞争对手提供精确打击的目标。在国土安全方面,缺少监管的人工智能会滋生“技术恐怖主义”,恐怖组织和个人利用人工智能技术采集情报、动员人力,发动隐秘性更强、破坏性更大的网络袭击,大大增加了国土安全防护的难度。
二是政策监管不到位不及时会产生数据滥用与侵害用户权益等问题。在当前的商业领域,数据非法采集、超出服务范围的存储和数据贩卖等数据滥用情况呈现多发高发态势。2018年,有媒体曝光英国剑桥分析公司曾以不正当方式从美国社交媒体平台Facebook获取8700万用户的居住地、喜欢的内容、朋友信息等敏感内容,并利用人工智能分析结果精准推送政治广告,影响美国总统选举(张家伟,2018)。[20]2021年,央视3·15晚会曝光非法获取消费者人脸信息的情况(央视网,2021),众多知名企业利用人面识别技术,在没有向消费者征询许可意见等情况下,利用店内广布的摄像头收集用户人脸相关数据服务于产品销售,以此掌握定价主动权,损害消费者权益。[21]
三是缺乏监管或监管偏弱会导致算法偏见等后果,加剧社会不平等状况。“算法偏见”是指人工智能的算法程序在信息生产和分发过程中失去客观中立的立场,进而导致显失公平的社会性后果的歧视现象,包括基于技术的政治偏见、性别偏见和种族偏见。算法偏见实际上将人们困在原有的社会结构之中,加剧社会资源分配的“马太效应”。2018年,路透社揭露亚马逊公司开发的人工智能招聘系统在对大量求职简历进行筛选时,对包含“女性”等词的简历进行降权处理,人为降低了女性求职成功的概率(王凤枝,2018)。[22]一项研究表明,美国警方的人脸犯罪识别系统会认定黑人犯罪概率更高,这与美国严重的种族歧视密切相关(赵挪亚,2019)。[23]与社会文化同构的智能算法,会延续和扩大现实社会存在的偏见,进而导致歧视性后果;这些后果又成为新数据再次被人工智能捕捉学习,由此形成社会偏见的恶性循环与固化,加剧社会现实中的不平等。
2.技术自主发展对政策规划的破坏效应
人工智能系统日益显现出“高度自主”的特性,继续发展下去有可能出现脱离人类规划和控制的“技术利维坦”②“利维坦”(Leviathan)是《圣经·旧约》中的海上巨兽。霍布斯认为,国家就像一个“利维坦”,人们对强大的国家提供的“和平与安全”保障极为依赖,但又时刻防范国家滥用公权力侵害公民权利。以此类推,”技术利维坦“是指原本为满足人类需要而研发出的技术体系日益脱离人类政治和社会系统的控制,成为制造人类欲望、左右人类意志、控制人类行为甚至侵犯人类基本权益的异化力量。,在资本增值逐利的促动下“反噬”政策规划。
一是技术自主发展对政策规划的经济目标的偏离。政策规划希望借助人工智能的颠覆性力量赋能经济增长,实现社会生产力的整体跃升;现实却是随着人工智能技术的大量推广应用带来了越来越明显的就业替代效应。传统的、固定场所和固定雇主的工作越来越少,短期的、临时的、不固定场所的工作日益增多,劳动关系变得越来越不稳定,劳动保障遭遇到新障碍。有实证研究指出,工业机器人渗透度每增加1%,企业劳动力需求会下降0.18%,机器人应用对不同技能劳动力需求的影响存在差异,“就业极化”特征明显(王永钦和董雯,2020)。[24]尽管长期来看,人工智能推动的产业自动化和智能机械化可以解放人类的劳动,极大减轻劳动强度,增加社会整体福利。但是,在特定的工作情境和劳动力市场中,短期内由人工智能普及带来技术替代效应与失业风险却是政策规划不得不面对的意外结果。
二是技术自主发展对政策规划的社会建设目标的扭曲。我国的政策规划明确指出,通过在社会建设领域推广使用人工智能技术,全面提升人民生活品质;但现实的技术发展存在扭曲社会建设政策目标的倾向。在当今中国,不同阶层、年龄、行业甚至性别的人群享受数字技术红利的程度存在明显差别。由于人工智能技术普遍缺乏“社会适应性”考虑,给部分社会成员的生活带来实质性困扰,一些文化程度偏低、年龄偏大的人打不上出租车、挂不上医院就诊号,甚至在餐馆点不了餐。原本期待的服务水平的提升与生活品质的提高被扭曲成了数字鸿沟①所谓“数字鸿沟”是指,随着数字化生存特征的增强,掌握并熟练运用数字信息及技术的人与那些未曾掌握或不能熟练运用数字信息及技术的人之间产生的巨大差距。的扩大与加深,反而让一部分社会成员因为技术推广而被隔离在社会生活之外。技术鸿沟的持续累积容易产生新的社会排斥,将部分社会成员排除在数字福利之外,这当然有违政策规划推进社会建设的初衷。
三是技术自主发展对政策规划的安全稳定目标的侵蚀。我国大力发展人工智能还有一个目的,那就是将人工智能应用于日常社会治理中,有效防范和化解社会矛盾纠纷,增进群体理解和社会团结。现实的发展未必完全如此。各类新闻网站或购物平台依赖掌控的海量用户浏览使用等信息,通过人工智能数据挖掘,向用户推送有迎合意味的信息,让人沉浸在自我满足中而不自知,久而久之,一些人群会出现固化自己喜好,甚至拒绝接受更不会相信与自己喜好不一致信息的“信息茧房”现象(桑斯坦,2008)。[25]生活在信息茧房里的人与外部世界的联系将急剧减少,往往盲目自信,有狭隘心理,甚至滋生极端思想和过激行为。可以肯定,建立在大数据和人工智能算法分析基础上的信息“投喂”,最终会导致社会纽带的撕裂和社会黏性的丧失。
“政策—资本”的交互风险主要发生在国家战略的落地阶段,是地方政策本身或与产业、企业及其背后的资本关系在定位、互动和回应等方面的失策、失当和失误所诱发的风险。大体可分为两类:对区域经济—社会发展的干扰和破坏以及对企业、行业和产业造成的危害。
1.地方“经济—社会”发展层面的风险
其一,地方政策鼓励与资本无序扩张下的交互风险。由于“发展锦标赛”等体制性原因,为了吸引外部投资,地方政府通常开出攀比性优惠条件,让资本的议价能力和话语权相对提高。面对人工智能投资热潮,资本尤其是占有市场优势的金融资本开始了新一轮针对人工智能产业的“跑马圈地”运动。随着投资冲动的加剧,此类项目占用的地方经济社会资源越来越多,对地方经济结构的影响也越来越深刻。但人工智能产业作为新兴技术的商业模式目前尚不成熟,难以在短期内形成产业集群,无论是市场规模还是产品投资回报都存在较大的不确定性。一旦地方政府着力打造的人工智能投资项目出现失败或者效益不佳的情况,往往会拖累地方经济增长,甚至给财政带来沉重的“包袱”。
其二,地方发展经济的路径依赖与地方保护主义作用下的风险。具体表现为:(1)重复建设与产能过剩。由于一些地方政府没有从根本上转变经济增长模式,没有认清人工智能技术和产业的特性,更没有深入研判其对整个经济社会“创造性破坏效应”①熊彼特较早地论述了创新及其创造性破坏效应的概念(熊彼特,2020)。[26]他认为,创新是一种生产函数的转变,意味着生产要素和生产条件的重新组合,这些新组合引入到生产体系使得技术系统发生变革,让企业获得利润或超额利润。在这一过程中,新的生产要素组合实现了对原有生产体系的“创造性破坏”,形成了一种新的生产能力。经济结构的革命性变化就是不断破坏旧结构、创造新结构的过程。,而是出于常规政策惯性扶持人工智能产业落地。地方政府大多沿用以往“投资+引资”的扩张模式,在吸引资本投资类型、产业结构、企业属性上都显现出趋同化特征,过度投资、重复建设乃至产能过剩等弊病大概率会在人工智能发展道路上重现。(2)政策对投资扩张的路径依赖又会带来地方保护主义盛行,影响智能产业升级质量。一些地方出台政策时毫不掩饰对本地企业的偏爱,通过一些市场准入条件给予本地资本和企业以优先机会。像北京、广东、浙江、江苏等科技强省自身就是百度、腾讯、阿里、京东这类巨型互联网平台科技公司总部或研发基地的驻地,这些公司又与红杉资本、IDG资本等知名投资机构利益关系密切。于是,各地发展人工智能的实施方案皆重点打造依托龙头企业技术的研发平台和产业集群,力图在区域竞争中占得先机。但是,政策偏好容易形成对其他投资者和企业不利的排他性产业环境,客观上或将抑制域外企业投资积极性和行业创新力,最终会影响到地方产业转型升级的质量。
其三,政策过热与资本扩张带来的连锁风险。地方政策过热和资本无序扩张可能打乱国家发展规划,给地方或区域经济社会带来不利后果,严重时会引发连锁危机反应。例如,目前各地有关人工智能的产业布局的应用导向明显,基础理论和基础技术研严重不足。基础研究经费投入比重不高、激励机制不健全、成果长周期评价缺乏等制约人工智能基础理论创新与技术研发,很容易在关键战略机遇期错失良机,导致地方短视和部门利益替代国家长远和战略需求。国家战略在地方被部分替代,又让资本可以持续投资一些短平快项目。比如,各类智能安防企业的业务量近两年快速增长,这类二级市场的繁荣背后却存在对个人隐私保护严重缺失的风险。公民个人信息的数据化、商业化已经给用户带来了非常严重的人身安全和财产损失问题,引发社会担忧,动摇着人工智能政策落地的社会信任基础。
2.人工智能产业和企业层面的风险
一是政策过度保护下的资本扩张容易催生“虚假创新”。地方政策过度保护和有选择的企业准入行为,有可能让资本因风险厌恶触发的投资谨慎和由此带来的创新筛选与淘汰机制失灵,进而滋生“为投资而投资”的虚假创新。一方面,国内一些人工智能企业出于获得政府补贴税收优惠、获得资本市场准入资格等自利考虑,多用“国内首款”“打破国外垄断”“全球领先”等噱头来宣传自己的人工智能产品,但其中不少实质上还停留在“产品服务理念的宣传”“概念炒作”的初级阶段,缺少核心技术专利,更没有颠覆性创新产品投入商用。另一方面,政策系统也缺乏针对人工智能基础创新、应用成果创新评价与鉴定的国家标准或行业标准,对上述虚假创新行为缺少必要的刚性约束、有效识别和惩罚机制,导致虚假创新现象蔓延,影响到整个产业创新驱动质量的提升。
二是政策保护与资本热捧容易形成行业垄断。由于人工智能发展存在高技术壁垒,发展人工智能产业,需要政策的持续支持和大量资本的长期投入作为基础,并在技术人才和市场认可的不间断支撑下,才有可能换来未来产业规模和效益的增加。即便如此,也不能完全排除部分人工智能技术研发和商用失败,给投资带来极大的不确定性。这对企业和投资机构的抗风险能力要求较高。真正愿意又有能力响应政策号召,加入人工智能领域直接参与投资、基础研究和开发应用的企业的范围有限,能长期坚持持续运营的科技企业则更少。20世纪90年代以来的互联网经济的发展经验也告诉人们,高新技术行业的发展在政策与资本共同作用下很容易走向行业兼并和垄断形态,影响到技术进步和经济效率的提升,最终消费者的权益也将受到损害。
三是政策推动下的资本过热容易引发剧烈的市场波动,损伤实体经济。当前,真正有较高市场价值的智能产品或智能服务在生产、生活和管理领域的应用范围依然有限,市场的认可度和接受度并不高。市场吸纳能力不足有可能演化成系统性市场风险,这将损害投资者利益,也影响地方产业结构调整的成效。一旦资本做出“投资避险”决定,大规模的撤资会带来产业资金紧张等流动性风险。中国信息通信研究院的研究报告指出,2019—2020年资本市场对人工智能投资热度明显下降,全球这两年新增人工智能企业数量明显下降,且投融资的轮次后移趋势不断扩大,曾获大笔融资的知名创新企业由于收益低于预期、虚假宣传等原因退出产业舞台(中国信息通信研究院,2021)。[15]地方政府为避免出现更严重的经济与社会后果,又不得不做出收缩性政策调整,这会导致前期“轰轰烈烈”后期“冷冷清清”的政策起伏和市场波动,给人工智能行业及相关实体经济带来更大的风险甚至是实质性危害。
对于技术创新的动力与源泉一直以来都存在两种彼此分立的观点:熊彼特学派认为新技术沿着“惯例”以适应环境要求的方向不断更新,技术发展遵循着“创新—选择—扩散”路径不断推动着经济社会的产业化和集成化(熊彼特,2020;纳尔逊和温特,1997)[26-27];以诺斯为代表的制度学派则坚持认为,是制度等外部环境因素推动着技术的进步,制度安排的合理性决定着技术创新的成败(诺斯,1994;Raven,2005)[28-29]。也有研究者探讨过技术创新与风险之间的关系,但多是阐释营商环境、政策环境、金融结构等宏观因素以及技术研发水平、企业财务状况、企业运营管理等微观因素对技术创新的影响机制与阻碍程度等主题(Antikainen和Ualkokari,2016;Bhattacharya等,2017)[30-31];在人文社科领域,研究者对科学技术的巨大进步及其社会影响的反思更具洞见性。萨顿曾断言,就建设性而论,科技的精神是最强的力量;就破坏性而论,它也是最强的力量(萨顿,2007)[32]。这些研究鲜有从发展本身来探讨技术演化中的风险,更没有从发展与风险的互嵌视角来阐释二者的复杂作用机制及影响。
事实上,发展与风险是事物演进过程中的一体两面。推动发展的力量可能同时也蕴含着破坏甚至毁灭的反作用力。人工智能的发展不是哪一种力量单独作用的结果,技术内在进化的驱动、资本投入的增值冲动和政策规划的推动又在“技术—社会”体系中相互交织,产生复杂的、新的合力,激发出更为强大的“连锁—增强”效应,共同促进人工智能的飞速发展和风险积聚。技术固有缺陷和安全漏洞产生的内生性风险,随着资本的追捧和政策的推动而不断外溢,被放大到更广阔的经济、社会领域,产生更为深远的影响。本文将上述要素及其运作逻辑进行组合,构建一个分析人工智能发展及其风险的整合性框架(见图1)。其中,发展的动力链条沿着“政策—资本—技术—政策”的方向不断深入,从宏观政策目标导向到资本增值推动,再到技术加速进化,从而进一步强化政策系统的调节作用,开始新一轮创新驱动的发展。与此相反,风险的传导链条沿着“技术—资本—政策—技术”的方向不断外溢,从微观技术内生性安全漏洞到中观产品服务的技术滥用与市场扩张,再到宏观政策目标的偏移与经济社会风险的放大,最终政策—社会系统不得不做出响应,影响到人工智能技术的应用与推广,严重时或将提前结束技术的发展周期。
图1 人工智能发展与风险生成逻辑示意图
图1 中,三角系统外层(顺时针方向)是人工智能发展的核心动力要素及作用形式。从各自功能属性的形态看,技术的进化是人工智能发展的内驱力量,而资本和政策的推动则是外生力量。几百年来文明发展历程已经将这三种力量进行过多次融合。在现代社会,它们的地位、相互关系及其作用形式越来越明确、固定,且在不同的制度环境和文化背景中,存在着一定的差异。从目前中国人工智能发展的动力路径来分析,政策作为主导力量,不仅为技术提供发展所需的环境支持,必要时还会直接介入,通过资助研发和直接投资的形式推动技术进步,促进技术与资本间的创新融合。换言之,政策的导向性功能对于人工智能这类通用性强且极具颠覆性的技术体系的发展来说,是决定性的力量,它决定着技术发展方向、应用前景和产业化水平。同时,政策也为资本投资确定领域和重点方向,为资本市场化设定运作范围和条件,通过市场准入的方式引导优质资本流向国家社会亟须的技术领域。政策通常会为资本投入人工智能技术提供财政金融支持,以对冲资本因风险厌恶带来的过分谨慎和短视行为带来的不利后果,以此鼓励资本进行风险投资,从而为技术的研发、应用和推广寻找稳定的、持续的资金来源。除此之外,政策还会投资教育等公共服务体系,加大对人工智能技术人才的培育,储备并持续提供技术发展所需的人力资源。
当然,市场经济环境下,政策推动技术发展的路径更多的是通过资本运作和市场竞争的形式进行,国家与地方的人工智能政策规划确立的发展目标就是市场努力的方向。对于资本来说,政策提供的优惠和扶持是相对稀缺的资源,享受政策红利的同时需要企业有较高技术附加值的产品或者服务以赢得市场的青睐。竞争逻辑是市场的核心机制,而拥有更多关键技术专利及适销对路的产品和服务则是资本赢得竞争的制胜法宝。在这一过程,资本通过市场占有率的扩大完成了自身价值的增长。同时,由于这些资本(企业)让政策目标得以落实,政策将会更加支持那些在激烈市场竞争中取得优势地位的资本(企业)的扩张和发展。获得政策扶持的资本(企业)生产经营成本进一步降低,基础研究的研发资金更加充足,这会为技术的加速成熟奠定坚实的基础。人工智能六十多年的发展历史经历了多次发展高峰和低谷,最终走向成熟,有了应用推广的商业价值,很大程度上要归功于技术的不断改进,归功于未曾中断的研发资金的投入。而人工智能技术的进步提供了巨大应用前景,又进一步增强了资本投资回报的信心。于是,更多的投入换来了更完善的技术,让人工智能在通用技术的道路上加速前进,从而引发技术体系的链式突破,不断实现着政策设定的推动经济社会各领域从数字化、网络化向智能化加速跃升的发展目标。在此基础上,政策也必将更加支持人工智能的发展,开启“政策—资本—技术—政策”这一核心动力发展链条的新一轮良性循环。
图1 中,核心三角循环的内环(逆时针方向),即“技术—资本—政策—技术”链条则代表的是与发展相伴的风险生成及外溢效应。人工智能风险包括内生性技术风险和外生性社会风险两大类,二者紧密相关。与技术发展关系密切的社会系统会成为技术风险外溢的承受主体,同时也是将这些技术风险放大并扩散开来的中介。技术风险与资本(及其背后的市场与经济系统)和政策(及其背后的政府与政治系统)之间发生交互作用,生成更为复杂的风险,一旦防范化解不及时不得当,很容易产生新的超出技术体系之外的其他危险后果。在这一风险生成与放大链条之中,技术进化过程中的“固有问题”可以称之为人工智能风险的源头。也就是说,这些风险是内嵌于技术进步之中的,与之相伴而生。所谓技术风险大多数是给技术的稳定性、安全性和实用性带来负面影响的潜在或现实的威胁。对于这些棘手问题的攻克或部分解决,是技术进步的表现;固有技术难题得不到解决或没有妥善解决都会给技术应用留下风险与隐患。而且,旧问题的解决还会带来一些新问题,甚至产生新风险。新旧问题叠加,既是技术不断进步的驱动力,也成为各类风险的源头。
当今人工智能技术的计算能力和算法精度都呈几何级数增长,但这并不意味着该项技术已经尽善尽美,有待攻克的技术难题俯拾皆是。技术领域竭力攻克的难题目前主要集中在提高AI技术“可用性”上,提升算法精度、应用识别准确度,提高技术的便利性、可及性,甚至降低技术的功耗等。“可用”是技术研发应用的基础,也是资本主要关注的事项。因此,资本投资的重点领域有两个:一是从原理上解决上述可用性难题的基础研究领域,二是人工智能的应用领域。不过,具有较高的实用价值只是人工智能技术特性之一,稳定性和安全性并不能被实用性替代,更不应该被实用性掩盖。令人感到不安的是,资本逐利增值冲动很多时候以技术专利尽快转化为产品或服务为阶段性目标,进而通过扩大市场份额来实现利润最大化的终极目的。为此,技术及其衍生出的产品和服务的可用性的优先级别高于其他如可知、可控、可靠等特性要求。类似人工智能这类新兴通用技术产品和服务一旦在可用与其他安全性要求上出现失衡,就很容易引发风险的实体化。例如,一些技术厂商通过App、人脸识别设备等感知软硬件过度采集用户个人隐私的行为愈发严重,用户对人工智能及其应用的“控制力”几乎为零,而基于人工智能系统运行的各种智能终端的运作机制、智能决策结果的可解释性,已经复杂到连技术工程人员自己都无法完全说得清楚、讲得明白,使用和接受人工智能应用的用户更是不明就里。当资本和厂商对于自己因可用性增加而获利感到沾沾自喜的时候,可知性和可控性的降低却引发了人们对人工智能产品服务安全性的忧虑。社会舆论开始质疑人工智能系统的可靠性和可信度,人工智能的社会接受水平存在不断下降的危险。进一步讲,技术固有的风险被资本“贪欲”遮盖、隐藏或忽略掉,通过技术应用推广外溢到市场和日常生活场域,无论是带给用户权益的实质侵害还是由此带来的“风险想象”都会强化人们对于人工智能“未知风险”强烈担忧,任其发展下去,最终将动摇该项技术落地的社会信任基础。这当然是决策部门不愿意看到的风险情境和危险后果。如果事态演变到此种境地,政策必将做出调整,由原来的事后监管(甚至带有放任态度的自由发展)迅速地转换到“事前事中的强监管”状态,连带着可能会出现基础研究投入减少、审批收紧、产业政策优惠力度缩减等连锁反应。相应的,市场将再次对政策导向做出反应,股市的人工智能及其相关科创板块可能发生股价大跌事件,资本市场降温,技术研发和产品开发中断。这一推断并非危言耸听,毕竟人工智能发展史已经表明,“政策紧缩”与“资本寒冬”极易触发“技术低谷”。始于技术固有缺陷的这一系列风险外溢与放大,最后将反噬技术本身。
该框架最外层的三个六边形展示的是人工智能“发展—风险”复合进程所产生的严重风险后果。这些结果的形成过程在前文中已经做了交代,在此不再赘述,仅对风险后果进行简单的类型学归纳。根据风险后果的来源属性和影响程度,可以将人工智能发展的风险分为四大类:第一类称为“内生—直接”型风险,包括技术风险自我封闭、技术伦理失守和研发基础不牢靠等风险后果。它们都产生于技术系统内部,带来的影响也主要表现为系统漏洞、系统内不稳定或系统崩溃。第二类称为“内生—间接”型风险,包括算法操控、技术滥用与侵权、虚假创新和技术利维坦等形式,同样来自技术系统内部(或与技术密切相关的要素部门),但带来的威胁和危害超出技术系统边界,对产业、行业和用户乃至更广泛的经济社会场域产生连带性的损害。第三类称为“外在—直接”型风险,包括劳资风险(技术性失业)、监管失衡、社会极化、数字鸿沟和社会不平等加剧等形式,这些风险后果形成的主因来自技术系统之外的政策因素或社会性因素,带来的消极影响直接能被人工智能技术接受主体感知到,这类风险后果与多数人切实利益直接关联,人们对此普遍比较敏感在意。第四类称为“外在—间接”型风险,包括重复建设与资源浪费、地方财政负担、行业垄断、市场波动和其他连锁风险等形式,这些风险大多是由于技术风险外溢或技术风险与其他风险交互作用后形成的放大、增强的消极后果。相对于前三类风险而言,此类风险形式影响范围更大、形成时间更长、后果的显现也更缓慢,普通人的感受没有那么强烈,但是,它们一旦出现就会给地方产业结构和社会稳定带来难以估量的冲击,危害性极大,这是人工智能发展进程中必须高度重视并做好防范化解的重大风险。
当然,从方法论的角度看,理论框架的成熟与否主要取决于该理论框架对现实的解释与预测能力(童星和张海波,2010)[33]。在一个框架成熟之前,解释模型的社会性、综合性和本土化特征也是判断其有价值的重要指标。从社会性角度看,本文提出的分析框架从发展和风险这类社会科学的基本范畴出发,将人工智能技术发展及其风险问题放在“技术—社会”系统中阐释,超出了一般化的工程技术风险分析范围;从综合性考察,本框架借鉴了工程技术、经济发展、政治政策和社会风险评价等多学科领域的知识视角,将其整合在一起,构成一个相对闭环的逻辑演绎框架,力图接近事实并还原其“结构与机制”的原貌,满足科技决策与风险管理的要求;从本土化上讲,人工智能的发展与风险问题是一个世界性议题,中国情境离不开世界大环境,但一定要具有中国特色,我们的国情决定着本理论分析框架一定是立足于国内实际的理论解释工具,研究的首要目标是为国内的科技政策和风险治理提供理论支撑和工具选择,本框架从论据的选取和论点的得出上都以此为界限。仅从学理上看,本文或许只是提出了一个问题并展示了一个相对完整的逻辑思路,虽是根据现实观察和理论推导而来,但对于像人工智能这类新兴技术来说,其未来的发展趋势和风险后果都还远未清晰地呈现出来,现有的分析自然存在疏漏和不确定性,而且复杂技术—社会系统之间的交互作用和影响也并非一个简化的理论框架模型所能全部涵盖和尽述的,这些都是本框架的先天缺陷。不过,这并不意味着尝试性的理论分析没有价值,毕竟历史和经验、现实和未来之间总是存在着某种联系,分析和揭示这些或明或暗的联结是学术研究的使命,更是对即将到来的数字社会时代巨大变迁及影响的前瞻性回应与必要反思。
党的十九届五中全会决议中提出,要坚持总体国家安全观,统筹发展和安全,把安全发展贯穿国家发展各领域和全过程,防范和化解影响我国现代化进程的各种风险(中共中央,2020)[34]。这是发展中国特色社会主义现代化各项事业的行动指南。当前,大数据、人工智能等新兴技术正在加速中国向数字化社会迈进。数字社会可以被看作是工业信息化社会的高级阶段,同样具备现代社会发展进程中普遍带有的高度不确定性特征。从这个角度理解,人工智能发展中风险本质上仍属于科技理性的负面后果,它是工业社会发展到信息化和智能化社会阶段的“产品”,源自现代性的自我危害(童星,2018)。[35]既然是现代社会发展中的内生性风险,那么从发展内部探究风险的形成逻辑,寻求在促进发展的同时最大限度地减少风险的生成及其带来的危害,将是决策机构在面对人工智能这类极具通用性和颠覆性技术系统时必须采取的一种应对方式。落实总体国家安全观,处理好新兴技术发展和安全风险之间的复杂关系,必须多做些前瞻性思考,在推动和约束之间做出合理的平衡,避免政策过度、投资过热带来的技术风险越界。在顶层设计方面,政府、市场和社会都更需要尽力做到理念上的前瞻、对策上的敏捷和规制上的审慎。一旦意识到人工智能的风险与其发展随行,承认风险、分析理解风险、防范化解风险,将风险限定在一定影响范围和可接受的程度之内,将是今后相当长一个时期需要坚持的治理方向与策略思路。