算法治理:智能社会技术异化的风险及应对

2020-01-09 14:22
关键词:异化人工智能算法

陈 思

(湖北省社会科学院 政法研究所, 湖北 武汉 430070)

一、引言

2019年国际人工智能与教育大会上,习近平总书记指出:“人工智能是引领新一轮科技革命和产业变革的重要驱动力,正深刻改变着人们的生产、生活、学习方式,推动人类社会迎来人机协同、跨界融合、共创分享的智能时代。”(1)《习近平向国际人工智能与教育大会致贺信》,2019年5月16日,http:cpc.people.com.cnn120190516c64094-31088558.html,2019年12月13日。随着全球人工智能技术研发不断升温,人工智能技术已从科技领域进入公众视野,并将推动人类社会发生深刻变革。从1950年艾伦·图灵发表《计算机械和智能》一文,到能够进行自我学习的围棋算法AlphaZero打败人类棋手冠军,以及由数据驱动的学习系统AlphaFold成功预测出蛋白质的结构;从只适用于苹果手机的智能语音助手Siri,到可以广泛应用到各个设备的语音助手亚马逊Alexa,人工智能技术的价值和潜力被不断开发并应用到不同的领域与场景。在此背景下,世界各国积极回应人工智能的发展,2014年欧洲通过制定《欧盟机器人研发计划》以保持整个欧洲人工智能领域良好的发展势头;美国正在通过培养人工智能研究人员和制定人工智能教育计划,为人工智能的未来做准备。人工智能推动着世界科技创新和产业格局转型升级,为适应这一全球化的智能革命,2017年国务院印发并实施的《新一代人工智能发展规划》中明确提出了“到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心”的战略目标(2)《国务院关于印发新一代人工智能发展规划的通知》,2017年7月8日,http:www.gov.cnzhengcecontent2017-0720content_5211996.htm.,2019年12月13日。。2019年,党的十九届四中全会审议通过的《中共中央关于坚持和完善中国特色社会主义制度、推进国家治理体系和治理能力现代化若干重大问题的决定》中指出,要“建立健全运用互联网、大数据、人工智能等技术手段进行行政管理的制度规则。推进数字政府建设,加强数据有序共享,依法保护个人信息”(3)《中共中央关于坚持和完善中国特色社会主义制度推进国家治理体系和治理能力现代化若干重大问题的决定》,《人民日报》2019年11月6日,第1版。。新时代,人工智能体现了一个国家科学技术的发展水平,以人工智能、大数据等技术为载体的现代化社会治理模式和体系正在成为人类社会的发展趋势。因此,本文旨在针对人工智能时代技术异化的表现,提供以算法应对社会治理挑战的总体框架设想。文章以技术异化理论对当代社会的反思和智能背景下社会治理的研究现状为基础,分析人工智能时代我国社会治理面临的新困境,并提出相关的解决对策建议。

二、相关理论及研究基础

(一)技术异化理论及其当代发展

异化一词的英文为“alienation”,有让渡、转让、疏远、脱离等意。它最早被用于西方的宗教文本《圣经》中,指《创世纪》中亚当夏娃纯真神性的脱离。19世纪德国哲学家黑格尔将异化引入哲学领域,强调异化是主体与客体的分离和对立。与他同时代的哲学家费尔巴哈则将异化表述为人的本质的对象化和异化,彻底剥离了异化的宗教神学外衣。在吸取黑格尔和费尔巴哈异化理论合理部分的基础上,马克思提出劳动异化的具体表现,认为这是私有制发展的必然结果。在《1844年经济学哲学手稿》中,他从历史和实践层面对异化进行考察并提出劳动异化理论,明确指出异化劳动的四重规定性,即人与劳动产品的异化,劳动与劳动本身的异化,人与人之间的异化,以及人的类本质与人的异化。在对马克思劳动异化理论继承的基础上,我国《哲学大辞典》对异化作出的解释是:“异化作为社会现象,与阶级一起产生,是人的物质生产与精神生产及其产品变成异己力量又反过来统治人的一种社会现象。”(4)冯契主编:《哲学大辞典》,上海:上海辞书出版社,1992年,第702页。异化反映的是人的生产活动及其产品反对人们自己的特殊性质和特殊关系。

作为异化概念的延伸,虽然对于“技术异化”这一概念学术界还未达成共识,但国内外学者大致是从技术对人的负面影响和技术的价值中立两个方面对其进行考察。首先是技术对人的负面影响,工业社会里技术成为控制人类的新形式,逐渐脱离其作为生产工具的实体而成为一种弥散在工业社会中的文化形态,它们支配着人这一工具(包括身体、大脑和灵魂)(5)赫伯特·马尔库塞:《单向度的人:发达工业社会意识形态研究》,刘继译,上海:上海译文出版社,2008年,第23页。。这一文化形态显然同人类所向往的自由而美好的社会状态相背离。可以说技术的进步并不一定带来人性的解放,反而会成为抑制个人本性的源动力。通常意义上,人们认为技术的更迭发展是更有效率和更合理的工具取代了与社会发展不相适应的工具手段,这种技术的合理性使得人们失去了批判的思维方式且愈发信赖技术并依附于它,也就是说“人已成为一种只有物质生活而无精神生活的‘单向度的人’”(6)刘文海:《技术异化批判——技术负面效应的人本考察》,《中国社会科学》1994年第2期。。其次,关于技术价值中立的讨论,主要集中在技术是否是中性的这一问题。有学者从技术的价值属性把握其要义,认为它的中性是相对的:自然属性中的技术是中性的,社会属性指向的是非中性,因而“技术过程和对象并不总是事实上中立的”(7)弗里德里希·拉普:《技术哲学导论》,刘武、康荣平等译,沈阳:辽宁科学技术出版社,1986年,第47页。。也有学者认为技术中性是不可能存在的,技术作为人类必不可少的工具手段,产生于社会又反作用于社会。无论是技术本体还是技术的运用都不能同人类社会实践割裂开来,“离开了应用就不成其为在完整意义上的技术或现实技术”(8)陈昌曙:《技术哲学引论》,北京:科学出版社,1999年,第240页。。无论对以上观点持何种态度,都会在否定技术价值的绝对中立上达成一定的共识。对技术中性的讨论能够帮助我们认识到人的主体能动性,由于技术的本身缺陷带来的消极后果不可避免,但人在这种缺陷面前并不是无能为力的。因此,技术异化归根结底是人的异化。一方面,这种异化并不是对作为实体的人的否定,是人们的认知水平受到客观环境和历史条件的制约,存在有条件的局限性而导致的技术异化。另一方面,若将技术视为一个作用于社会的动态过程,它从产生到发展都服务于人类社会,是人类活动反作用客观世界的中介。人类在满足不断发展着的需求的实践中,一定程度上不自觉地剔除了具有价值理性的自我,使得工具理性在自我意识中占据上风从而引发的危机,其实质同样是人的异化。

以上对技术异化的讨论与反思,观照到我们即将进入的智能社会,人工智能引领下的智能革命带来的不仅仅是科学技术领域的变革,也深刻影响和改变着包括生产生活方式、社会结构秩序和运行方式等人类社会的方方面面,相应地伴生出一系列的风险挑战。对技术的垄断、资源配置不公和道德伦理等问题始终牵绊着以算法为基础的人工智能技术的发展。面对一切发展着的事物,人们要认识到它内在发展的基本规律,意识到在技术面前人的主体性和能动性,抽取技术的正面价值以提升人类福祉。

(二)智能社会的社会治理研究

2019年党的十九届四中全会公报中强调:“必须加强和创新社会治理,完善党委领导、政府负责、民主协商、社会协同、公众参与、法治保障、科技支撑的社会治理体系。”(9)《中共中央关于坚持和完善中国特色社会主义制度 推进国家治理体系和治理能力现代化若干重大问题的决定》,《人民日报》2019年11月6日,第1版。科学技术不仅是社会治理走向现代化的第一生产力,也是社会形态从工业社会向智能社会转型的关键动力。互联网、大数据、云计算、人工智能等领域的智能革命正在建构一个实体社会同虚体社会相结合的社会形态,科学技术与经济社会的高度融合推动社会各个领域的颠覆性变革,共建共治共享将成为整个社会发展的底色。

许多学者关注到智能社会发展的大趋势,但也注意到人工智能技术的发展在赋予社会治理新内涵的同时,也给社会治理带来了新风险与挑战。围绕大数据技术在社会治理中的应用,智能化社会治理可能面临信息安全与隐私保护、社会组织基础设施建设相对薄弱、缺乏公开共享机制、专业人才匮乏的问题(10)郭本锋:《应用大数据提升社会治理智能化水平研究》,《管理观察》2018年第29期。。有学者认为治理结构的僵化性,治理方法的滞后性与治理范围的狭隘性构成了人工智能时代的治理困境(11)贾开、蒋余浩:《人工智能治理的三个基本问题:技术逻辑、风险挑战与公共政策选择》,《中国行政管理》2017年第10期。。人工智能作为人类社会的重要技术发明,面临着技术自主性、数据基础、认知结构、伦理规范和社会应用方面的挑战(12)张成岗:《人工智能时代:技术发展、风险挑战与秩序重构》,《南京社会科学》2018年第5期。。针对人工智能功能的双向性,其给社会治理带来的潜在风险表现为技术权威和独裁、行政吸纳的有限性以及加剧社会碎裂(13)王小芳、王磊:《“技术利维坦”:人工智能嵌入社会治理的潜在风险与政府应对》,《电子政务》2019年第5期。。从社会治理现代化的结构需求和目标的角度,大数据时代面临着协作困境与信息孤岛、技术理性与制度滞后、技术风险与治理危机、工具理性与价值迷失的挑战(14)王振兴、韩伊静、李云新:《大数据背景下社会治理现代化:解读、困境与路径》,《电子政务》2019年第4期。。也有学者以法律治理为切入点,阐述了智能硬件系统安全、智能网联汽车系统安全、物联网系统安全和人工智能系统的技术与制度方面的风险(15)吴沈括、罗瑾裕:《人工智能安全的法律治理:围绕系统安全的检视》,《新疆师范大学学报》(哲学社会科学版)2018年第4期。。或是从秩序层面,认为人工智能引发了包括安全、法律、伦理和决策方面的困境(16)庞金友:《AI治理:人工智能时代的秩序困境与治理原则》,《人民论坛·学术前沿》2018年第10期。。

综上所述,国内对智能时代社会治理的研究众多,且取得了突出的研究成果。但缺乏对以下方面进行深入研究:首先是大数据、人工智能等技术对社会治理带来的风险研究大多停留在技术实体与治理实践的层面,没有将历史背景同客观环境相结合。尽管技术对人类社会的影响具有时代特征,但追根溯源其内核具有历史延续性。其次学者主要集中在对大数据、人工智能、互联网技术工具的研究上,算法工具对治理的影响仍是一个新的研究领域,具有较大探究空间。

三、算法的桎梏:智能社会技术异化的表现

随着互联网、移动通信、计算机、大数据、算法等新技术的发展,人工智能突破了理论与实践的鸿沟迎来了蓬勃的发展,它同经济社会、文化教育和科技创新等领域的深度融合,推动人类社会从工业社会走向智能社会。人工智能是指数字计算机或者数字计算机控制的机器人具有人类智能行为的能力,包括感知、理解、行动和学习。算法是通过数学模型建构提供解决问题方案的一种策略方式。开发人工智能的目的就是复制人类解决问题的做法,以实现更有效的解决方案输出。因此,正是算法使“人工”变得智能,机器具有了人类的学习能力。科学技术作为先进生产力的重要标志,在促进社会发展和人的发展中发挥着重要作用。但在具体的实践中,作为科学活动的创造物,技术却往往反过来成为支配、控制、奴役人的力量。当代,智能社会技术异化出现了工具理性与价值理性不平衡、技术的意识形态化等特征。

(一)工具理性与价值理性的不平衡

简言之,工具理性是指人们通过某种手段和工具实现自我需求从而达到实践目的。它强调工具对人类实践活动的作用,追求在效率的最大化中实现主体的目的。价值理性则始终以信念价值为行为的导向,它并不计较行为的成本和伴随而来的后果,其指导下的行为活动指向的是价值世界的终极意义。在两者之间获得相对的平衡,是缓解人类日益增长的发展需要同客观世界的应然价值之间矛盾的必由之路。从工业社会向智能社会转型的过程中,工具理性的膨胀正在打破这一平衡,价值理性的相对退位以及工具理性的漫溢成为社会通病。当然,通过技术的不断革新实现人类把握某一事物的精确性与高效率的行为其初衷无可指摘,算法在人工智能中的运用显著提高了机器处理数据的工作效率,能够帮助关键领域解决数据处理与分析方面的难题,某种意义上说,技术工具的进化是人类社会的必然。但在实践活动中仅仅追求技术带来的高效化,忽视道德与伦理、责任与义务、公平与正义等终极关怀问题,并不是人类社会自然选择的结果。以算法在信息传播领域的应用为例,借助算法处理互联网海量数据从而实现信息的精准投送,为用户提供个性化的内容服务以提升用户阅读体验,已经成为各大媒体传播平台竞相追逐的新赛道。但每个硬币都有两面,算法的智能化使人们迷醉在技术进步带来的便利之中,浑然不知为此付出的代价。利益驱动下新闻媒体为了点击率一味迎合用户而突破伦理道德底线,模糊算法数据来源与用户权益保护之间的冲突日益加剧。同时,算法带来的后果在人们之间是不均等地存在的,因为“同高学历和富裕的人相比,这些算法更容易影响工人阶级和穷人,富裕的人则可以毫发无损地享受他们的生活”(17)Levy R,“Taking Aim at Biased Algorithms”,Math Horizons,Vol.25,No.1,2017.。

(二)技术的意识形态化

技术的意识形态化表现在以下两方面:首先,技术本身具有的意识形态性。技术是作为满足人类改造客观世界的需求而出现的,人们通过技术实现自己对外部环境的掌控,它的存在暗喻了人与自然、人与人在权力关系上的不平等地位。当人们将技术视为合理性的象征,智能时代随着算法在各个领域的深度运用,算法则转变为技术对人的统治工具,重塑意识形态世界的样貌。在人们的脑海中,算法往往代表了科学的、系统的、可操纵的,它不仅能代替人类进行决策,还能使决策更具可行性和更高的完成度。人类利用算法实现自身的发展,并把成本尽可能降到最低的范围,在不断激发算法技术力量的过程中,日益扩大了社会对个人的统治范围以及技术抑制人性的程度。其次,技术对意识形态的导向作用。作为人类社会改造客观世界的工具,技术承担着信息传递与交换的功能。农业社会这一阶段的信息交流很大程度上受制于时间和空间的限制;发展到工业社会,机器印刷、电报、广播和电话等技术载体的相继出现,突破了由信息承载的价值传播的时空限制,实现了价值从传播到强化,进而形成价值主流反哺社会意识领域。云计算、算法等智能技术的发展与应用,使互联网成为意识形态传播的新场域,虚拟世界与实在世界的碰撞催生出独属于这个时代的精神文化形态。与此同时,精英集团(无论是资本、政治精英或知识精英)可以通过垄断技术,利用智能技术操纵舆论进行意识形态的渗透和干预。在近年来西方国家的选举中,频频出现政客通过人工智能干预政治活动的现象。他们与拥有大量用户数据的公司合谋,利用算法收集用户的偏好,对选民进行意识形态的宣传从而获得更多选票,传统民主政治的公平正义遭到损害。

四、算法的陷阱:智能社会带来的社会治理困境

人工智能技术全方位、全领域、深层次影响着社会各领域,我们在关注到技术飞跃对社会进步的推动作用时,也应认识到算法对人们的社会认知、价值观念、行为活动造成深远影响,以及技术异化已经带来或者可能带来的社会治理风险挑战。

(一)政治态度分化

人工智能技术为社会治理体系和治理能力现代化提供了新的治理理念和治理工具,是提升社会治理智能化发展的重要技术方法。对信息进行智能化的处理是解决互联网信息超载问题、优化信息分化配置的有效途径,个性化定制技术便是这一途径的具体手段。然而,“在信息传播过程中,个性化定制技术与各个领域的深度结合,则很可能加剧政治态度的分化和多极化。公共理性、互利性、包容性是协商民主系统良好运行不可或缺的条件,而个性化定制技术对信息的分类、选择、分发,强化了政治问题的差异性与不可调和性,不利于社会公共理性、群体间理解与包容的形成,甚至打破了原有协商的基础。一方面,该技术追求人与信息的快速匹配,会过滤掉用户潜在的需求与偏好,促进了信息“回声室”的发展。另一方面,大量汇聚观点趋同用户,则更容易聚集成观点对立阵营,促使同质化群体的思维走向更加极端,甚至会忽视可证明其观点错误的事实,并在总体上呈现出“自我延续,自我加强的社会分化状态”(18)Bishop B,The Big Sort:Why The Clustering of Like-minded America is Tearing Us Apart,New York:Mariner Books,2008,p.36.。协商民主是化解社会矛盾分歧,维护社会和谐的有效实现形式,但同质化群体的集结与态度分化倾向可能会对协商民主造成一定的危害,对社会稳定造成负面影响。

(二)治理出现盲区

在大数据应用于社会治理的实践中,技术至上的理念造成治理主体在社会治理过程中过度依赖大数据,忽视了海量信息带来的识别和筛选模糊的困境。善治的基础是科学的决策,而处于发展阶段的算法依赖的数据很有可能具有一定的局限性。现实中难免将不具代表性的数据作为决策基础,这必然会造成信息时代的缺席者——数字鸿沟中规模庞大的边缘人群的失语,众多未在网络世界中提交主体偏好和利益诉求数据的人群,将无法进入决策者的视野。这样,一些非数据化的社会治理问题将会被排除在决策过程之外,决策者甚至可能会在各方的压力下优先回应数据化的问题。数字鸿沟是数字化带来的技术制约(technological divide),在先进技术中占据制高点的个体将占尽先机,强化政治、经济、文化资源的差序性,导致算法优先导向该群体利益相关的领域,而倾轧非该群体利益关联的关注空间。数字鸿沟与治理盲区存在正相关的关系,社会治理的触角若不能感应到非数据化的社会问题,便形成了社会治理新的盲区。

(三)公共话语去价值化

治理是稳定社会秩序的重要途径,也包含着不同群体在话语空间中博弈互动的传播过程。新媒体时代,有效的治理是以有效的传播为前提的。但由于算法的去价值化,低质量的内容和有争议的事实交错混杂所形成的信息洪流,搅乱了社会治理赖以存在的传播秩序,去价值化成为整个公共话语生态的演进状态。算法对信息筛选和推荐所遵循的运作逻辑是一切皆可推演,即用户的行为以及偏好皆可以转换为数据。这一逻辑包含了两个隐喻:用户的行为偏好是一种算法资源;个人的行为活动是一种有价值的商品。算法将人们的行为偏好进行量化的过程,也是对用户进行去价值化的过程。同时,利益驱动下的新闻生产者为追求点击率,过分迎合用户喜好,利用算法技术使用户看到他们想看到的内容。但这种类型的新闻其实质是算法量化加工之后呈现给用户的产品,人们潜在的、不可量化的价值理性被排除在外,使得一些公共性和有价值的内容被隐去。在这一认知圈套之下,人们自认为是在消费社交软件和新闻平台的新闻,实则是算法基于人们行为心理学特征进行行为导向的设计。这些被生产出来的信息不仅违背新闻伦理,降低媒体公信力,还对社会价值导向造成严重伤害。

(四)算法公正缺失

社会公正既是国家治理能力与治理体系现代化在社会层面的具体体现,也是国家顶层设计与社会治理实践所遵循的价值依据。人工智能算法虽然有助于社会各个领域治理效率的提升,但算法决策使用的数据,及其处理的方式、应用的规则,都是由算法设计人员创建的,作为人类个体我们难以避免都有主观隐含的偏见。当设计人员的主体性偏差构建到软件中时,偏见便会进入算法中成为一种“无意的不公正”。当这些带有偏见性的算法被广泛应用时,则会产生歧视性或不公正被放大的后果。如银行根据地域或性别而不是基于财务数据提供贷款,企业根据性别或年龄而非能力招聘录用人员等。司法系统作为人类公平正义的法律防线,随着算法在司法领域的应用,算法偏见将会侵蚀维护社会公平正义的法律防线。当前的司法实践,人工智能的功能仅在于“辅助”而非“替代”司法人员的独立判断,算法对司法结果并不起直接的决定作用。但人工智能对司法过程的渗透在不断深化,司法决策对人工智能的依赖日趋增强。由于司法系统运作的特点,具有偏见性的算法带来的判例,可能会以参考、指引的方式嵌入到之后类似的司法程序中去,破坏个案司法决策的公正,并更加巩固和强化了算法偏见,有学者认为这将引发对相关类型案件司法公正的系统性威胁(19)雷震文:《算法偏见对“智慧司法”的影响及其防范》,《法制日报》2017年12月27日,第11版。。如,美国威斯康星州发生的一起案件,被告认为该州法院将算法模型应用到量刑环节中违反了正当程序原则因而提起上诉,虽然州法院最后驳回了被告的诉讼请求,但也提醒法官需要警惕算法的应用可能带来的偏见(20)李本:《美国司法实践中的人工智能:问题与挑战》,《中国法律评论》2018年第2期。。因此,当算法技术应用到司法程序中,算法作出的决策是否有效,是否会对司法系统公正性造成不可逆的影响值得长期关注。

(五)算法技术的垄断

现代社会治理中,信息资源是权威的代名词,社会治理体系中的领导者为实现有效治理,必然通过信息攫取甚至垄断来获取更大权力和影响力。当权威越来越多地通过算法表达时,对技术的垄断控制成为数字资本市场的普遍特征。逐利性驱动下的资本将算法视为操纵社会的有力武器,它们也成为技术异化的始作俑者。算法作为人工智能技术的核心,它的强大之处在于能够做出选择,进行类分和优先级排序。但人工智能技术需要海量的基础数据去喂养算法系统,进而创建人工智能场景应用,而能够拥有这样规模的主体只有商业巨头、政府部门以及超级科技型公司,它们具有数据抓取、垄断的资源和需求,相应的,社会力量或较小规模私人组织在数据化竞争场域里,权力被弱化,更不用说原子化的个人。与此同时,用于获取竞争优势的算法工具又被作为核心商业机密对公众加以隔离,这使得在关于算法透明度、合法性问题上存在着广泛争议。当互联网公司以免费服务之名获取个人数据,侵犯到个人隐私时;当算法偏见导致不公正结果,影响社会公平正义时,技术垄断不仅强化了以上风险,而且将成为治理能力现代化进程中的阻碍。

(六)责任主体模糊

与西方异化理论学者指出的异化特征所不同的是,智能社会下技术应用场景的拓展同人类有限认知能力之间的张力,使得生产者、劳动产品、消费者三者的社会劳动关系日益模糊。虽然算法提供的产品和服务越来越全面,但当新闻推送系统生成包含虚假或错误信息的新闻文章时,谁应对错误的内容负责?当人们在信贷、就业甚至法律上遭到歧视时,谁应对偏见性的决策负责?由于算法的不透明性和科技产品的非主体性,当算法做出错误的决策甚至侵犯到人们的权利时,责任主体模糊使得监管部门陷入审查难、问责难的困境。这种困境体现在两个方面:一方面是算法自身的复杂性。由于算法具有自主决策、学习的能力,它的设计者难以预测最终的结果,也无法完全解读它是如何得出现有结论的。因此,算法的复杂性使得相关部门难以进行合法性审查,这不可避免地产生责任主体缺失。另一方面是算法的隐蔽性。算法的输出是“黑箱”过程,当因算法缺陷导致决策失误,或是算法决策的结果引起社会大众的争议时,行政人员倾向于将责任推卸给算法或算法开发公司。而算法通常属于企业的“商业机密”,是受到法律保护的对象,导致司法机关难以对算法和算法开发公司进行审查,责任主体之间在算法技术的遮蔽下相互推诿。如在英国女性乳腺癌筛查漏检丑闻中,关于算法错误究竟是怎么产生的,国家卫生医疗系统(NHS)、公共卫生局(PHE)以及负责软件维护的日立咨询公司三方互相踢皮球,然而最终结果很有可能是根据目前的法律体系无法产生定论(21)汝绪华:《算法政治:风险、发生逻辑与治理》,《厦门大学学报》(哲学社会科学版)2018年第6期。。

五、算法治理的进路

对于异化马克思虽然没有直接提出解决方案,但他认为这只是特定社会和历史条件的特征。一定历史发展阶段下算法技术必然存在历史性的缺陷,技术的问题应回到技术层面解决。但不可否认的是,治理困境中技术异化的实质是人的异化。因此,应从算法技术和人的价值层面出发,充分发挥人的主观能动性,预防化解社会治理可能遇到的挑战和冲击。

(一)优化算法设计,避免决策偏差

加强对智能算法的治理,应从技术本身入手,提高算法技术的合理性。首先,针对算法本身暴露出的缺陷,技术研发人员应关注到现有因果推理技术对于优化算法的重要性。现有成果如Alan Turing Institute的一组研究人员使用因果推理的工具开发了一套严格的模型,研究结果表明因果模型能够有效捕获社会偏差(22)Matt Kusner,Joshua Loftus,Chris Russell, and Ricardo Silva,“Counterfactual Fairness”,2018-03-08,https:arxiv.orgpdf1703.06856.pdf,2019-12-20.,该模型使算法能够考虑到对个体产生的不同社会偏见,并有效地补偿这些偏差。其次,提高算法推荐的多样性。基于可定制技术造成的认知窄化现象,设计人员应根据用户偏好增加算法推荐集的多样性。尽管有学者质疑,为了多元性而强调多样性,可能会导致社会最紧迫的问题被不同的声音淹没(23)Duncan J,Reid J,“Toward a Measurement Tool for The Monitoring of Media Diversity and Pluralism in South Africa:A Public-centred Approach”,Communicatio,Vol.39,No.4,2013.。然而,从传统民主政治的价值来判断,多样性能够促进和激活公民在社会中发挥更积极的作用。最后,作为算法学习的基础,数据的代表性与分布的优化十分重要。数据采样基于尽可能全面的数据优于筛选过的“好”的采样数据,“好”的采样数据优于不均匀分布、不具代表性数据的原则。研究人员应谨慎使用采集到的数据样本,提高数据的代表性。同时,数据本身可能有一个偏差的分布,因而对执行人工智能训练的数据进行审核是降低算法不公正的重要方式,无论是采用人工介入或是开发相关技术的形式对算法进行审核,都能有效对抗算法偏差问题。

(二)搭建治理合作平台,促进跨领域交流

算法源于社会场景并因在实践中的应用而不断被优化,作为智能社会发展的重要基石,其可持续发展,需要整合社会多方力量,以形成立体的协同合作体系来助力算法的演进。从算法的基础认知、实践运用到反馈修正,涉及到关于算法的多学科理论和编码的技术。因此,对于算法的研究需要跨领域的融合,打破知识的边界,而不是仅留守于计算机学术研究领域。算法研究的学术社区有助于推进这一融合发展的进程,通过建立跨越包括数学、计算机、社会学和法律等学科领域的学术社群,从而基于复合型理论视角指导技术处理算法中的伦理、歧视、透明度和问责制等问题。这一治理结构的建立需要政府统合各方资源,由政府、专家、企业和公众组成跨领域的治理结构,这是实现算法监督与避免算法风险的有效途径。为保障这一架构的运行,政府部门可以通过组织化方式,创建研究算法相关的咨询机构或处理人工智能问题的专业组织。例如,纽约市议会通过了一项法案,成立了一个以审查纽约市各机构对算法的使用及其涉及的政策问题的工作组,该工作组由研究算法透明度、公平性方面的专家和非营利组织的工作人员组成,他们将与最有可能受到有缺陷算法伤害的群体代表一起工作。同时这一组织也将通过一套目标方案,以“解决何时公开以及算法公开方式及程度、如何评估算法中的偏见、算法偏见可能带来的影响等问题的对策”(24)Rashida Richhardson and NewYork Civill Liberties Unionn,“New York City Takes on Algorithmic Discrimination”,2017-12-12,https:www.aclu.orgblogprivacy-technologysurveillance-technologiesnew-york-city-takes-algorithmic-discrimination,2019-12-20.。

(三)制定相关法律法规,建立合理的算法问责制

面对算法导致的社会治理问题,应在政府主导下建立与之对应的法律法规体系与伦理道德框架。开展与人工智能应用相关的法律责任认定、隐私和产权保护、信息使用限制等法律问题研究,建立追责制度,明确人工智能设计者、使用者、推广者的法律主体身份以及相关权利、义务等。2018年,欧盟AI联盟在推进人工智能立法草案中强调:人工智能应考量人类能动性和监督,稳健性和安全性,隐私和数据监管,透明性、多元化、非歧视性,公平、社会环境福祉以及问责制。虽然草案规定的内容较为宽泛,且目前不具有约束力,但给我们提供了一个参照的范例。算法问责方面,一些欧美国家已有所行动。2019年4月,美国立法者提出了一项名为“算法问责”的法案。该法案要求“大公司审计其机器学习系统的偏见和歧视,并在发现问题时及时采取纠正措施。与此同时,还需审查涉及隐私和安全风险的敏感数据的所有流程,包括个人身份识别,生物识别和遗传信息”(25)Karen Hao,“Congress Wants to Protect You from Biased Algorithms,Deepfakes,and Other Bad AI”,2019-04-15,https:www.technologyreview.coms613310,2019-12-20.。英国、法国、澳大利亚和其他国家也都通过立法等形式,要求科技公司对其算法负责。算法问责制是指“算法开发人员有责任提供关于与算法相关的解释说明,即算法可能或实际上已经造成的损害,以及算法的责任分配和危害发生后的补救机制”(26)Diakopoulos N,“Accountability in Algorithmic Decision Making”,Communications of The ACM,Vol.59,No.2,2016.。结合我国的实际情况,更具可行性的算法问责制应具备以下几点:首先,坚持政府主导与行业驱动相结合的原则。人工智能领域的正向发展不应该依赖政府来发挥这一作用,过多的政府干预会给企业带来阻力并减缓创新,但缺乏外界的限制则会导致企业在难以舍弃的利益目标驱使下罔顾技术开发的边界。政府建立总体管理框架,应用算法的巨头公司应遵循框架要求,自主性地拟定公司准则,如提升透明度上,允许用户、公众或公职人员了解关于算法“正在发生的事情”。其次,严格处理恶意掩盖透明度行为,政府应强制执行问责制,明确定义责任机制和透明化的流程。大数据公司、科技型企业应积极地将责任嵌入其算法系统中,明确行动的责任边界。最后,充分考虑透明度的局限性。政府部门、相关企业和社会大众应意识到透明化并不是解决算法黑箱的万灵丹,问责只能治标,要治本还需在技术伦理层面上找到源动力。

(四)建立人工智能行业规范,发挥价值理性的作用

在这个由算法技术构成的智能社会中,想要摆脱个体对技术的过度依赖,人们应自觉发挥价值理性的导向作用,遵循社会共同的道德规范。一方面,应加强行业从业人员的道德自律,建立相关行业规范。政府可以通过定义道德准则和监督审查使行业规范制度化,建立处理人工智能道德伦理问题的道德委员会,以倡导社会正义和公平为宗旨,以人工智能的道德规范以及对公民权利、隐私和安全的保护为目标。2017年,美国电气和电子工程师协会(IEEE)作出了这样的尝试,他们发出全球倡议,以“在自主和智能系统的设计和开发中优先考虑伦理问题,鼓励建立标准和相关认证程序,促进与这些原则相符合的国家和全球政策的出现为目标,并就如何应对人工智能的道德挑战提出了具体的要求建议”(27)IEEE Global Initiative,“Ethically Aligned Design:A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems(Version 2)”,2017-12-11,https:standards.ieee.orgcontentdamieee-standardsstandardswebdocu-mentsotheread_v2.pdf,2019-12-20.。另一方面,应同我国具体实际相结合,充分发挥价值理性的引导作用。不管是个人层面表现出的偏见、歧视,还是时代背景下体现的种种社会矛盾和不公正等问题,社会主义核心价值观作为一种精神力量,都可以发挥出道德教化和正向的引导作用。在制定人工智能行业道德规范时,应将社会主义核心价值观融入制度的框架中,实现行业规范与价值导向的有机统一,从而达到约束和引导行业从业人员行为的目的。

(五)提高主体认知水平,增强抗风险能力

人工智能技术的飞跃性与人类社会法治系统迭代的滞后性并存,任何政府都难以完全与时代的发展同步赶制出调整其发展带来可能后果的法规。面对日益强大的算法、人工智能等技术,应意识到人在实践活动中的主体性。从社会层面来看,提高公众应对人工智能的相关认知水平,不仅能在社会中建立对人工智能的广泛理解和接受,还能提高人们的风险意识,理性对待智能社会可能面临的问题,以增强抗风险的能力。通过开展更广泛的人工智能专题科普活动,增加相关专业领域书籍的翻译与出版,以及强化媒体平台参与宣传等,提升公民辨别虚假信息以及理性批判思维的能力,全面提升公众的智能时代生活素养,更好地享受智能社会带来的便捷与福利。从国家层面来说,政府应加大人工智能领域人才队伍的建设,提高整个社会乃至国家的抗风险能力。以政府为主导,联合学校、科研院所、企业等主体进行人工智能的产学研合作,通过职业教育、产业扶持以及社会保障等途径,培育一批人工智能领域的尖端人才,打造科技创新更高平台,吸纳国内外智能科技精英,营造人工智能发展的良好人才环境。

当我们朝着未来向前迈进时,技术发展带来的社会变革使我们处于一个十字路口,正如霍金先生所忧思的,“成功创造人工智能将是人类历史最大事件,若不懂如何避开风险,这也将是最后的大事”(28)王世梅:《智慧与智慧场》,西安:西北大学出版社,2016年,第78页。。面对技术进步带来的治理困境和挑战,我们必须正确理解和对待算法技术,充分发挥人的主观能动性,谨慎对待智能科技,塑造向善的技术伦理观,构建以人为本、合乎道德的智能时代治理图景。

猜你喜欢
异化人工智能算法
马克思的异化观及现代西方学者对它的拓展
拒绝异化的人性之光
哪种算法简便
农村聘礼的异化与治理——基于微治理的视角
商品交换中的所有权正义及其异化
Travellng thg World Full—time for Rree
2019:人工智能
进位加法的两种算法
人工智能与就业
数读人工智能