黄 刚,宗铁岩
(中央财经大学 马克思主义学院,北京 100081)
科学技术的蓬勃发展使人类社会进入智能时代,世界各国都在积极探索人工智能的价值潜力。习近平总书记在向国际人工智能与教育大会所致贺信中指出:“人工智能是引领新一轮科技革命和产业变革的重要驱动力,正深刻改变着人们的生产、生活、学习方式,推动人类社会迎来人机协同、跨界融合、共创分享的智能时代。”[1]人工智能不仅开辟了人类发展的新领域,而且实现了对社会各领域的全过程深度融合,人类社会正在经历着前所未有的改变和转型。
“人工智能”(又称AI,Artificial Intelligence)实现了计算机科学、脑神经学、心理学等不同学科的有机融合。学界对“人工智能”的研究大体可分为三个阶段:首先 是GOFAI(Good Old-Fashioned Artificial Intelligence),即有效的老式人工智能。在20世纪50年代中期到80年代末,有关人工智能的研究主要以符号主义为基础。约翰·郝格兰提出“GOFAI”一词,泛指用最原始的人工智能的逻辑方法解决小领域的问题。其次是强人工智能概念与弱人工智能概念的提出。“强人工智能”由塞尔提出,他认为:“计算机不仅是用来研究人的思维的一种工具,只要运行适当的程序,计算机本身就是有思维的。”[2]“弱人工智能”是指人类无法制造出具有自觉意识的智能机器,这些智能机器一般只能应用于某一特定场域。再次是通用人工智能与超强人工智能的出现。“通用人工智能”是指一种能够像人类一样在不同领域中执行各种任务的智能系统。它可以通过自我学习、自我改进、自我调整,解决人类所面临的各种复杂问题。“超强人工智能”指远远超越最聪明人类头脑的智能,其拥有强大的运算分析和数据储备能力。基于上述研究可知,人工智能是一种以现代科学为背景的应用技术,其通过整合与分析历史数据,形成感知、推理、学习和决策的思维活动并按照预先设定的目标完成相应行为的计算系统。
目前,以美国为代表的西方国家在人工智能技术的研发和应用方面都处于世界领先地位,其实现了人工智能技术与经济、政治等领域的深度融合,并使数字化和智能化理念深入人心。但当人类沉浸在人工智能带来的便利和惊喜之中时,我们也会不禁思考:人工智能是否能够介入民主政治领域?它的介入对民主政治的发展究竟是福是祸?对此,部分学者认为人工智能介入民主政治领域不仅能够丰富民主诉求的反馈渠道,而且也为人的政治解放提供了科学的决策依据,应大力支持人工智能对民主政治领域的介入与赋能。还有学者认为,人工智能介入民主政治后,若智能技术得不到合理合规的使用,其极有可能反噬人类,出现侵蚀公平正义、弱化政治透明度、剥离人的主体性价值等问题。因此,将人工智能技术引入民主政治领域应慎之又慎。
以人工智能为代表的新兴科技在推动经济发展的同时,其与民主政治的融合也是大势所趋、不可避免的,二者的结合将会勾勒出一幅新的政治图景。但是,数智化的民主政治不仅会挑战或颠覆人们对于政治的固有认知,而且也必将面临诸多隐忧和风险。因此,我们必须给予其高度的重视,“不断提升人工智能技术的安全性、可靠性、可控性、公平性”[3]。民主是全人类共同的价值追求,是现代文明社会的显著标志。人工智能与民主政治领域的日益融合,意味着我们应剖析人工智能技术嵌入民主政治领域后所面临的风险及风险产生的缘由,立足全人类的视角探寻防范与纾解路径,进而推动民主政治向前发展。
“人工智能是一种具有开放性、革命性和颠覆性的技术,但是从当前发展状况来看,还处在一种尚未定型和更未完全成熟的阶段。”[4]人工智能介入民主政治领域后存在政治生态受损与社会公平正义遭到破坏、政治透明受朦与政府公信力下降、政治谣言肆虐与人的主体性价值消解的可能与风险。
智能技术与民主政治的融合,不仅能够使公众全天候、跨地域、低成本地参与到民主实践之中,并且即问即答的互动模式也有利于激发公众的民主参与热情。但是,人工智能技术也会破坏政治生态的平衡性,使社会公平正义体系遭到冲击。
政治生态一般指政治主体展开政治活动的时空场域及其环境氛围,人工智能的嵌入将会对以理性对话为基础的健康政治生态产生威胁。第一,政治认同感被削弱。政治认同感是指公民在参与国家政治生活中产生的情感归属,归属情感的强烈程度将关乎政治运行的稳定性。在智能时代,人的社会属性逐渐被信息化、数字化和智能化,即从“现实的人”转变为“数字化的人”。当核心程序与数据结构被不法分子掌控时,他们可以通过点对点、面对面的输出形式向公众传递虚假、消极的政治信息,消解公众政治归属感,影响民主政治的良性运行。第二,政权的合法性出现危机。政权合法性是指政权存在的正当性和有序性,其是确保政治生态永续发展的关键。近年,利用人工智能技术破坏别国政权、实施政治渗透的例子屡见不鲜,主要表现为通过数智媒体进行网络窃密、网络攻击、网络勾连,煽动公众逆反情绪,破坏别国政权的稳定。
人工智能的介入会使公平正义体系遭到冲击。第一,人工智能的算法机制容易产生偏见和歧视。算法不具备独立思考的能力,其会受到开发者价值习气的影响。人的主观性和情绪的不稳定性会侵蚀算法机制的客观性,甚至干扰运算结果,这就是算法偏见。目前算法偏见主要分为“先行存在的算法偏见、技术性算法偏见以及突发性算法偏见”[5],其中“先行存在的算法偏见”是指人的价值观念会影响算法的走向甚至运算结果,即个体或群体通过将自身价值观念注入既有的规则之中,使社会规则丧失客观公正性。实际上,“算法偏见本质是社会偏见在人工智能时代的投射”[6]。例如,网购平台利用大数据“杀熟”,造成价格歧视;某网站智能算法系统对男性求职者有着明显的偏好,对女性求职者则设置各项隐形门槛,造成性别歧视;国外某网站向白人推送高薪工作广告的频次明显高于亚裔或其他人种,造成种族歧视……算法偏见会导致人类对自己的怀疑与否定远超于对算法技术的质疑,进而成为引发社会矛盾的导火索。第二,权力失衡和资源分配不均问题加剧。“人工智能会拉大社会资源分配的差距,那些握有人工智能技术的知识精英会成为这种不平等现象的最终受益者。”[7]“那些在网络政治表达中更具‘权威’的媒体机构或博主会获得更多曝光、信赖以及话语权重,以致出现‘赢家通吃’的网络聚集效应。”[8]换言之,作为技术优势群体的社会精英、互联网巨头仍是民主政治领域的主导者,他们利用技术霸占大量政治资源,悄无声息地拉大与其他社会阶层的差距。除此之外,一部分人受年龄、外部环境等因素的影响与智能时代脱节。据外媒统计,“美国在2019 年有近40%的65岁以上老年人使用的是非智能手机,同时有27%的人群从来没有使用过高速互联网”[9]。截至2022年12月,“我国网民规模达10.67亿,其中农村网民规模为3.08亿,城镇网民规模为7.59亿。我国非网民规模为3.44 亿,其中60 岁及以上老年群体占37.4%。非网民不上网的主要原因是不懂电脑/网络、文化程度限制、年龄因素、设备不足,占比分别为58.2%、26.7%、23.8%和13.6%”[10]。这意味着人工智能在嵌入民主政治领域后非但没有改变这类人群的处境,反而加剧了他们在获取信息、表达利益诉求等方面的劣势。
公信力不仅是政府维护良好形象的评价指标,同时也体现着政治运行的透明程度。得益于智能技术的赋能,公众的民主监督权利相较于传统的监督模式有所提升。但是,人工智能的介入也会使政治透明度和政府公信力受到负面影响。
“政治透明度即政治活动的开放程度,透明程度的高低成为当代政治学评价某个政治体系的重要指标。”[11]人工智能技术给人类的生产生活带来了莫大便利,但人工智能的算法逻辑变得越来越复杂与晦涩,算法“黑箱”的存在更是引发了人们对数字智能化民主政治透明度的担忧。所谓“黑箱”就是指不能从外部直接观察其内部状态的那部分内容,它是导致政治透明度降低的罪魁祸首。第一,算法决策的隐蔽性。随着深度学习和神经网络的发展,人工智能系统在更新迭代中逐渐具备了自主学习的能力,并且智能算法可以将无法解释的事件通过客观的数据加以解释和呈现。特别是涉及政治利益和民主权利时,公众根本不能阅读到有关决策过程的细节,只能被动接受决策结果。第二,算法在收集和处理用户个人隐私时也存在透明度问题。算法程序通过收集和分析大量用户数据,为不同用户群体提供个性化的产品和服务。然而在数据收集和处理的过程中,用户根本不知道自己的个人信息被用于何处与何种目的,使个人隐私面临被泄露的风险。
人工智能嵌入民主政治领域将会使政府面临公信力下降的困境。第一,政府监管部门出现信任危机,这类现象突出表现在技术较发达的西方国家。智能算法的复杂性、隐匿性决定了其行为的不可控性和决策机理的抽象化,加之企业全程操纵算法设计、运行和测试程序,政府监管部门基本失去了对核心技术及关键数据的控制权和监督权。除此之外,个别平台利用算法“黑箱”的特性侵犯民众权益,但监管部门因算法规则的限制而无法及时、准确地进行问责与纠偏,可能就会出现“塔西陀效应”。第二,数据的偏颇失实会加大政府的治理难度。庞大的数据和信息充斥在虚拟空间中,政府要耗费大量的时间与精力对那些毫无价值的信息进行过滤、监管,这无疑加大了政府的管控难度。此外,负面舆情也会破坏政府的声誉和形象,使公众对政府产生不信任感。基于热度导向下的算法推荐系统坚持“流量至上”“热度第一”的原则,对于政治新闻的真伪和受众效果闭口不谈,政府需要时刻留意暗藏在身边的“隐形炸弹”。
人工智能介入民主政治领域虽然加快了政治新闻和其他信息的传播速度,但受信息过滤机制不完善和信息发布门槛较低的影响,政治“娱乐化”成为智能时代的普遍问题,人的主体性也因此逐渐消解。
智能技术为政治谣言的滋生和传播提供了“温床”。第一,深度伪造技术使眼见不一定为“实”。自深度伪造技术问世以来,人们一直担心该技术可能会成为扰乱政治秩序或发动战争的工具。目前来看,这种担心正在变为现实。美国共和党全国委员曾使用深度伪造技术生成了一系列虚假图像,虚构拜登连任后美国经济崩溃、非法移民猖獗和犯罪浪潮迭起等情景;Facebook中充斥着大量由AI生成的虚假血腥的“警察开枪、警察打人”的照片与视频,成为激起美国种族对立、扰乱政治秩序的“凶手”。第二,算法技术加剧了政治谣言的负面效果。平台算法逻辑的商业属性决定了其无条件地向资本妥协,当牟利之心战胜理性之心时,政治谣言会在算法平台的精心包装下,通过点面对接的输出方式传递给受众,达到有的放矢的效果。
对人工智能技术“科学性”与“合理性”的盲目认同会使人逐渐失去理性。启蒙运动标志着人类政治由以神为中心向以人为主体过渡,人的主体性价值达到以往从未有过的高度。在理性思维和主体性的作用下,人类拥有了使用工具和驾驭技术的能力。但随着人工智能的出现和广泛应用,其所具备的精准性、智能化的特点使人无条件地信任和依赖智能技术,人的自主选择权逐渐丧失,并在智能算法的被动塑造中成为人工智能的附属品。实际上,民主正在被人工智能吞噬。“2017年美国联邦通信委员会就网络中立性问题征求公众反馈,共收到2170万份回复。其中仅有6%的反馈信息具有特殊性,其余信息基本都是重复且无效的。”[12]经研究发现,半数以上的数据信息都是技术人员利用人工智能的深度伪造技术编造出来的,并且创造了若干个子虚乌有的意见领袖和数以万计的推特僵尸,使民众在毫无察觉的状态下变成政治棋盘中任人摆布的棋子。
人工智能日益与民主政治领域实现深度融合,但在现实应用和操作过程中仍存在诸多隐忧。这是由技术系统的不确定性与不可解释性、资本的侵蚀与人工智能的意识形态化、算法权力的裹挟与无限扩张性等因由引起的。
人工智能技术并不是完美和绝对的,其具有一定的不确定性。第一,技术漏洞依然存在。技术漏洞的存在会给网络黑客提供“乘虚而入”的机会,极易造成政治机密泄露和重要数据的丢失,给国家信息安全带来极大的风险。美国目前作为人工智能领域的领头羊,其也难逃技术漏洞的“制裁”。根据美国国家标准与技术研究所(NIST)发布的信息数据,“美国2021年共报告18378个安全漏洞,其中高危漏洞3646 个,中危漏洞11767 个,低危漏洞2965个”[13]。第二,智能算法的预测性不是绝对的。智能算法可以通过深度学习构建相应的模型系统预测政治事件的基本走向和发展趋势,但受涉事数据、模型本身以及外部环境等变量的影响,人工智能在嵌入民主政治领域后出现了决策精准性降低、治理效能低下等困境。可见,人工智能既可以成为社会变革和发展的助推器,也可能会成为各种风险的策源地与放大器。
人工智能技术因算法“黑箱”的固有缺陷而具有不可解释性。算法的表达方式是由技术基础层(输入端)、技术程序层和技术结果层(输出端)共同作用而成,因其具有较高的专业性和复杂性,绝大多数人难以理解智能算法的运行逻辑并对算法机制产生了怀疑情绪,认为在运算过程中存在着不为人知的算法隐层。实际上,从当前算法技术的发展形态来看,算法“黑箱”的存在使数智化民主政治的透明度远不及传统意义上的民主政治实践。与此同时,输入端对于民主政治数据的挖掘、采集以及输出端对于政治主体行为的自动化学习,使人与技术逐渐走向彼此的对立面。因为只有监管部门和技术人员知晓人工智能采集了哪些政治信息,又是如何将这些信息、数据反哺于民主决策、民主管理环节的,普通人对此却毫不知情。也就是说,算法不但没有满足公众的知情权,反而将公众的知情权变为技术的附加品,只要是智能算法得出的决策结果,公众就必须无条件地接受它。至于无条件接受的理由,算法也无法给出解释。
算法与资本的共谋会导致人工智能沦为资本的工具。人工智能技术“重构了人类的生存环境和活动条件”[14],但“技术不管再怎么飞跃,本质上依然属于资本”[15]。在2016 年的美国大选中,推特(Twitter)中的社交机器人(Twitter Bots)成为制造假新闻扰乱视听的主要工具。它们通过模仿不同用户的风格和习惯,自动发布与政治活动相关的内容或直接参与投票。幕后人员通过预设的算法程序,影响大选走向。据统计,“总统大选辩论期间,推特机器人发送推文380 万余条,占总发文量的19%。约23%的美国人分享了由推特机器人编写的虚假新闻,其中约9%的美国人在毫不知情的情况下成为虚假新闻的传播者,约7%的人明知新闻为假但仍继续转发”[16]。这些数据既证明了人工智能正在参与和影响民主政治,同时也展露出人工智能可怕的一面,即负责研发和操控人工智能的技术人员可能在资本的“威逼利诱”或“糖衣炮弹”的进攻下与其合谋。正如马克思所讲的那样,“现代的资产阶级财产关系靠国家权力来‘维持’,资产阶级建立国家权力就是为了保卫自己的财产关系”[17]。西方国家凭借自身的技术优势帮助自己和既得利益者垄断各种政治资源,并维护其在上层建筑中的地位,使民主成为明码标价的“商品”,间接撕毁了民主政治领域中的正义契约。
技术的进步将直接或间接地影响和服务于政治安全,但技术的意识形态化也将使政治安全面临严峻的挑战。人工智能在民主政治领域的应用容易被权力机构赋予特定意识形态并成为宰制民主政治的工具。第一,智能技术搭建的虚拟世界是对现实生活的情景再现。生成式人工智能通过“计算机语言”模拟人类的思维进行人机对话,其天然的意识形态属性被技术掩盖。人工智能之所以能够对民主政治领域的各类信息和数据进行精准分类与高效处理,既得益于技术自身强大的逻辑分析能力,同时也离不开人对数据源的标记。换言之,人工智能技术虽然拥有使数字之“花”结出现实之“果”的能力,但“果实”的“香甜程度”还有待考究。这是因为精英阶级凭借自身的权力优势和社会地位,将个人与阶级意志注入智能技术之中,利用智能技术和智能设备左右民主政治的发展趋势。第二,智能技术对人类意识的“再造化”。当人工智能被视为完全科学化、合理化的产物应用于民主政治领域时,人的意识会在不知不觉中被人工智能影响和控制,即智能算法的预设性和既定性会使政治主体在技术所提供的“温柔乡”中逐渐丧失独立性和自主性,人类社会也会在人工智能技术的“合理性”和“科学性”的特性下回归至单向度社会。第三,智能技术引发主体意识异化。随着社会的向前推进,人类对于人工智能技术及产品的要求也更高、更苛刻,即要求将研究成本和价值降到最低,同时也要保证技术和产品的性能和质量。这种不断推进人工智能领域发展的行为,使人工智能技术成为抑制人性的产物,人逐渐被人工智能自身所携带的“人格化”所影响,成为人工智能的“寄生物”。
权力(权利)主体凭借技术优势实现对算法权力的裹挟。在智能时代,公众既是算法权力来源的数据生产基础,又是算法权力作用和争夺的客体。算法权力表面是为公众提供最优的行为选择,实则是为了消解公众的自主性,并对其认知进行重塑。“自主性消解是指在独立自主选择的维度上,算法权力主体对公众的‘微控制’消解了公众的自主意识。”[18]算法权力通过日积月累的“微操纵”影响社会成员的认知,使每一个人都成为算法大师“玩弄”的潜在对象。当公众没有察觉到捆绑在自己身上的“操纵丝线”时,其会在算法权力的帮助下过上幸福美满、富有成效的日子。一旦“丝线”被发现,我们很快就会意识到算法大师们极力地想将我们驯化为服从算法规则的客体,即通过弹性控制收益的选择范围或实际收益效果使公众受到算法权力的干预和操纵,将公众异化为算法权力及其规则的奴仆,借此满足其成为专制独裁者的欲望。
技术占优者利用算法权力满足自身集权与扩张的欲望。第一,算法权力的向内集权。比如西方国家利用算法技术实现高度的集权,并持续拉大不同阶层对技术占有和使用的差距,基于数据收集和算法治理模糊了公共领域和私人领域的边界,将已获取和掌握的私人数据转化为政治资源。与此同时,技术占优群体将不断侵占技术弱势群体的民主权利。技术优势群体具备绝对的话语权,以至于政治资源和民主权利无条件地向优势一方偏移与倾斜,导致“数字鸿沟”的持续性存在。第二,算法权力的向外扩张,即社会达尔文主义将会在技术的助推下愈演愈烈。科学技术是决定国家话语权的首要因素,拥有顶尖人工智能技术的国家能够在国际交往中占据主导位置。国家是追求“利益逻辑”的理性行动者,个别技术发达国家会凭借自身优势不断挑战国际政治格局、干涉别国内政,将人类拉入一场看不见硝烟的战争之中。
针对人工智能介入民主政治的隐忧和因由,应通过加强核心技术攻坚,构建网络空间命运共同体;完善算法运行规制,打破算法赋权失衡状态;强化算法技术把关,提高技术监管水平;缩小数字鸿沟,提升公众数字素养等途径纾解困境。
各国应坚持以关键核心技术为主攻方向,将增强原创能力作为重点,加大对智能技术创新的支持力度,以此夯实新一代人工智能发展的基础。第一,各国政府应为人工智能的发展提供充足的人力、物力和财力支持。其一,各国政府要把培养人工智能应用型人才摆在首位。一个国家技术人才的数量和质量决定着该国人工智能发展的程度。因此,各国政府应向社会传递技术人才极为重要的信号,并通过资金或政策的支持,为培养人工智能应用型人才提供坚实保障。其二,各国政府应为人工智能技术的创新提供充足的资金。技术的积累和发展并非一日之功,其需要大量的试错和实验,充足的资金和先进的设备可以使人工智能的发展事半功倍。因此,各国政府要加大对硬件设备、数据采集、算法研究等方面的资金投入,为人工智能的蓬勃发展提供基础保障。其三,提升对算法漏洞的查找和修复能力,设立安全级别更高的网络防火墙,防止黑客利用算法漏洞破坏民主政治的正常运行。第二,企业要注重人工智能技术在民主政治领域的应用程度。企业虽然是人工智能技术研发的核心力量,但是其不能代替政府在民主政治领域的主导地位,更不能利用人工智能技术干涉本国或他国内政。因此,企业在研发人工智能技术及将智能技术应用于民主政治领域时,必须明确自身角色定位,树立健康的政企合作理念,及时将涉敏数据和关键政治信息传递给政府有关部门,做到“不越权”“不贪权”“不占权”,确保技术赋能下的民主政治保持向好的发展态势。
为了避免在技术博弈下出现的新霸权主义和新殖民主义,必须推进人工智能领域人类命运共同体的构建。世界各国应该打通技术壁垒,搭建交流合作、共赢共享的世界智能科技平台,即将技术视为助推人类政治文明实现跨越式发展的工具,而非作为抢夺资源的武器。第一,坚持公平普惠原则。掌握顶尖人工智能技术的国家不能利用各种借口阻挠他国技术发展或恶意制造技术壁垒。对此,各国要着力实现人工智能技术的全球化共建和共享,更好地造福世界各国人民。第二,坚持开放包容原则。若想解决人工智能技术的集中使用与权力扩张间的“治理悖论”问题,各国必须共商共议人工智能嵌入民主政治领域后产生的各种问题,为智能化民主政治的发展提供开放、包容的国际环境。第三,坚持和平使用原则。各国应合理合法使用人工智能技术,反对利用人工智能谋求国际霸权、破坏他国政治安全的行为。
各国政府应通过建立健全算法问责机制和风险预防机制,不断提高算法运行的透明度。算法问责是指“算法技术相关主体对算法带来的风险做出相应责任的承担,也就是技术研发企业及算法开发人员对算法造成的损害、危害责任承担情况和如何补救作出解释说明”[19]。明确算法问责有利于纾解因算法的不可解释性所导致的政治透明受朦的问题。第一,严格问责利用算法从事非法政治活动的涉事主体。对算法在运行过程中恶意植入主体价值或个人意志的行为进行严肃处理,精准定位涉事主体并要求其对后续产生的负面影响及后果负责到底。除此之外,也要严惩利用算法“黑箱”影响和干扰民主政治正常走向的行为,因为这种行为只会加重算法决策的信任危机。因此,在确保算法商业机密安全的前提下,可以将算法在民主实践和政治生活中运作的过程以可视化、通俗化的形式公之于众,提高公众对算法运行的认知水平,使决策结果变得更有说服力和可解释性。第二,落实和完善算法危害预防和补救机制。针对算法技术在赋能过程中产生的负面影响,应从事前、事后两个维度对算法风险及危害进行规约。其一,事前应对涉事数据进行预处理和价值敏感设计。在技术赋能之初,应将保护个人隐私、确保程序正义等价值理念融入算法之中,做到防患于未然。其二,事后应对算法决策进行监督审计。技术人员应以科技向善为价值导向,通过代码审计实现算法决策的自我审查,即对程序源代码逐条检查和分析,发现源代码缺陷引发的安全漏洞,并提供代码修订措施和建议。同时,政府和企业也要积极制定相关的制度和规则对算法决策进行监督审计。
各国应打破算法垄断,实现算法权力的平衡。企业由于受到商业利益的驱使,其可能背离绝大多数人的意志。因此,必须避免研发企业和技术精英成为权力寡头,防止其利用算法优势谋取私利。第一,建立开放的算法资源共享平台。在政府主导的前提下,建立能够提供虚拟化计算资源的共享平台,使算力资源普惠社会全体成员。第二,鼓励算法技术的创新发展。加强对算力技术的研究和创新,发展更加高效、可靠、安全、低成本的算力技术,最大限度避免算法偏见和算法“黑箱”的出现。第三,加强对算法技术的安全监管。建立有效的法律制度和监管机构,防止算法算力被滥用或遭到黑客攻击。
政治泛娱乐化以及算法权力的滥用与失衡已经严重威胁民主政治领域的安全,必须依法合规采集和使用数据,确保人工智能技术的向善向美。数据是人工智能的血液,应该对数据的采集和应用过程严格把控,确保数智化民主政治的真实性与公平性。第一,保障算法数据采集的真实性和准确性。其一,明确算法数据的源头和获取途径。政府应对原始数据的产生进行严格审查,避免虚假性、歧视性等恶意数据渗入数据库之中,从源头上遏制“三不”即不公平、不真实、不平等问题的出现。同时,也要对数据来源的途径进行审查,必须确保数据来源渠道为官方指定渠道、正式机构组织公布的信息或者可信度较高的组织团体通过正式调研实践得来的数据,杜绝从不正规、不合法渠道引入算法所需的各项数据。其二,提高算法数据的分析能力。数据的质量决定了人工智能在民主政治领域应用的结果,因为准确且真实的数据利于政府运用人工智能作出科学决策,进而推动民主政治的健康发展。因此,要建立相关算法模型,将不同阶段和各个环节的数据信息以图形或表格的形式加以列举,后续便于技术人员对其进行审查,避免出现计算或统计错误等问题。如果出现运算或统计错误这种低概率事件,也要能够对错误数据或信息进行快速定位和准确匹配,通过及时纠偏确保数据输出的准确性。第二,保障数据使用的合法性和合理性。其一,完善数据安全管理规定。明确界定算法数据在民主政治领域应用的合法性范围,技术人员不得擅自访问和使用数据,避免出现技术人员为谋取私利扰乱民主政治秩序的恶劣行为。其二,合法合规使用数据,实现人工智能的向善向美。人工智能在民主政治领域的应用需要大量的数据作为计算分析的条件,各国政府需要合理利用采集的数据信息,将其用于解决民主政治领域中遇到的难题,向社会传递最真实、最准确的政治信号,增强政治认同,推动民主政治的良性发展。
加大对人工智能技术的监管力度,使技术始终处于可控状态。第一,在不弱化政府监管权力的前提下,应逐渐下放算法的监督权力。算法和数据取之于民,更要用之于民。公众应在政府的指导下,通过筹建算法监督委员会,持续跟进人工智能技术在民主实践或政治活动中的应用效果。权力下放的同时也要建立完善的监督机制,避免出现个别人滥用职权的情况。第二,公众应通过自主学习了解人工智能技术嵌入民主政治领域的运行机理。一般来讲,绝大多数人自主学习和研究算法技术的概率微乎其微,但公众应该对算法的基本功能和设计原理有所了解,这样不仅可以使公众对算法在民主政治领域中的运行逻辑更加清楚,同时也能防止公众被算法偏见和算法歧视侵犯权益。
人工智能介入民主政治领域的最终目的是促进全人类的进步和解放,因此必须弥合数字鸿沟,即通过推动智能化信息基础设施建设,提升传统基础设施智能化水平,构建适应数智化民主政治发展需要的配套体系。第一,各国政府要加强网络信息基础设施建设。针对农村和欠发达地区互联网覆盖率较低以及网络基础设施薄弱等问题,政府应提供资金和设备支持,根据当地的实际情况,对标对点地进行网络基础设施建设,使欠发达地区的居民也能够参与到数字智能化民主政治中来。第二,鼓励社会边缘群体积极参与数智化民主政治。针对社会边缘群体难以融入数字智能化民主政治的问题,各国政府不仅要构建一套适合社会边缘群体的数字化互动场域和系统,同时也要加强对社会边缘群体的心理效应建设,提高其对数智化政治生活和民主实践活动的心理韧性,实现不同群体在政治参与、社会资源分配等方面的相对平等。第三,保护技术弱势群体的民主权利。企业作为人工智能技术研发的主力军,应当开发简单合宜的软件程序拓宽技术弱势群体获取政治信息及参与民主实践的途径,给予技术弱势群体更多的民主话语表达权。
提升公众的数字素养,实现工具理性与价值理性的平衡。数字素养是指人与技术之间的互动,其关乎人被技术异化的程度。“智能社会的公民素养归根结底是人与技术的互动关系问题,是人在技术面前如何实现工具理性和价值理性的平衡互补问题。”[20]智能技术作为人的功能性延伸,其正在以最大限度的工具理性将民主政治推向一个崭新的阶段。但智能技术在使世界祛魅的同时也正在将技术再魅化,即人对人工智能的绝对崇拜。因此,应通过价值重塑提升公众的数字素养,实现工具理性与价值理性的平衡。第一,坚持以主流价值观为导向。其一,实现主流价值与智能算法的深度融合。应将主流价值融入核心算法技术之中,提高主流价值权值在算法优先级中的比重,使人工智能成为维护社会公平正义、增进民众福祉的利器。其二,负责研发和操控人工智能的技术人员也应自觉遵守主流价值观念。技术开发人员应兼顾多方公共利益,树立算法伦理观念,遵循算法伦理规则,确保民主政治活动的公正性。第二,坚持以人为本与以物为用相统一的原则。人工智能的出现和应用使得人类社会发生了质的飞跃,但需要注意的是,人工智能的本质并不是智能,而是人工。这也就意味着人类不应该将人工智能视为无所不能的“全能神”,因为其归根结底离不开人的外部作用。对此,应充分发挥主体在政治实践中的能动性,坚持以维护社会公平正义为宗旨,通过引导社会成员遵循共同的价值规范或道德准则,促进工具理性与价值理性的平衡,实现人工智能与民主政治的完美结合。
科学技术是推动人类社会发展的强而有力的杠杆,人工智能亦如此。技术发展的不确定性以及算法的隐匿性使数智民主有滑向“技术利维坦”的风险,万物皆可量化的思维模式正在消减人的价值理性。但是人工智能在民主政治领域的应用是大势所趋和不可逆转的,我们不能因为其在赋能民主政治过程中出现的问题而将其冷藏。真正的问题不在于智能技术,而在于人。因为技术具有中性和纯粹的特征,人与技术之间的正反辩证关系才是值得我们思考和研究的。人工智能是一种具有远大前途的、新兴的技术,但同时也是尚未成熟、难以预料的颠覆性技术。因此,必须将人文价值植入人工智能之中,确保技术的向善向美,以此彰显数智化民主政治的魅力与价值。