蒋福明,陈虹冰
(南华大学 马克思主义学院,湖南 衡阳 421001)
党和十九大提出“提高社会治理社会化、法治化、智能化、专业化水平”[1],这是实现治理体系和治理能力现代化的必然要求。高新科技影响了人类社会生活的方方面面,以大数据为基础、以算法技术为核心的人工智能正以前所未有的速度、广度和深度影响着人们的工作和生活。目前,算法技术已逐渐嵌入我国社会治理的各个方面,成为提高社会治理智能化和专业化程度的重要支撑。比如,在城市管理领域,算法技术用于处理窨井盖下水位满溢、河道口晴天排污、水电异常等问题;在城市交通领域,算法技术用于解决上下班高峰期道路拥堵的问题;在司法领域,算法技术用于庭审记录,等等。
算法技术在社会治理中的应用,从主体结构、理念、方式等方面给社会治理带来新的变革。社会治理主体结构由一元主治向多元共治转变;社会治理日益精准化,由粗放型向精细型、由碎片分割向立体网络转变。算法技术使得社会治理更科学、更精准、更高效,成为加快社会治理体系和治理能力现代化的重要支柱。众所周知,科学技术所带来的影响是双重的,算法技术嵌入社会治理的同时,也不可避免地带来全新的、复杂的伦理问题。
2017年2月,全球权威调查机构皮尤研究中心发布了一份名为《依赖代码:算法时代的利与弊》的报告。该报告指出:“算法面临着一系列的挑战,过于追求数据和建模会带来弱化人类的判断、产生偏见、加深社会分歧等各种不良后果。”[2]算法嵌入社会治理的过程,潜含着诸如削弱人的自主性、有损社会公正、自我认知焦虑等伦理风险。
社会治理的概念首次于党的十八届三中全会《关于全面深化改革若干重大问题的决定》中提出。与西方以理性经济人为假设的社会自我治理本质不同的是,当代中国的社会治理强调多元治理主体的互动过程,倡导各个社会阶层、团体积极共同参与社会治理,以达到共治、共享的治理目标。换言之,我国的社会治理以人民为出发点,亦以人民为目的,这就要求治理主体在社会治理的动态过程中秉持以人为本原则,积极维护人的主体性地位。康德指出:“你的行动,要把你自己人格中的人性和其他人格中的人性,在任何时候都同样看作是目的,不能把人仅仅当作手段。”[3]也就是说,技术的发展应该以促进人的自由而全面的发展作为最终目的,而不应该成为阻碍人发展的力量。算法技术具有自我学习的能力,它能利用相关关系来预测、设计和选择未来;因而,实际上我们难以作出符合自己自由意志的选择和决定,最终的结果是算法系统越来越多地代替我们作出决定[4]。在此过程中,算法的自主性与人的自主性之间呈现着一定的负相关性,算法的自主性越强,人的自主性反而越弱。有关文献表明,32.3%的用户担心个性化推荐会让视野变得狭窄[5],削弱他们的自主性。以今日头条为例,基于用户搜索用的关键词和以往的浏览记录,个性化推荐算法可以根据用户画像来挖掘分析用户的喜好,为用户推送其最感兴趣的新闻资讯。表面看来,个性化推荐算法似乎是满足了用户对信息的需求,但其本质上是对信息接收群体的一种前置性控制,削弱了人的自主性,凸显反主体性冲突,进而形成一种新的异化现象。
马克思对异化理论作了较为详细的解释。他在《1844年经济学哲学手稿》中提到:“劳动用机器代替了手工劳动,……并使另一部分工人变成机器。劳动生产了智慧,但是给工人生产了愚钝和痴呆。”[6]技术由人创造,体现着人的本质力量。但技术一旦被创造出来,往往又有其内在的规律性,会依其特有的性质产生相关影响,表现为一定的自主性。当技术根据自身的这种自主性自我发展、自我优化时就有可能背离设计者的初衷,形成一股隐蔽甚至公然的反主体性力量。实际上,当一种技术在社会系统具有基础性地位时,表明这项技术具有较强的自主性,可能形成的对抗主体的力量往往越强。由于算法与算法工程师两者之间具有一定的相对独立性,这意味着算法一旦被创造出来将不再属于算法设计者,设计者没有随意修改或支配算法的权利,工程师能拥有的只是算法的部分使用权。由于算法的完美度、AI产品的智能化程度与其在生活中的应用范围这三者之间是正相关的关系,意味着AI产品越智能便越有可能背离算法工程师的初衷,形成一股异己的力量。
在算法嵌入社会治理的过程中,治理要素被转化成一连串数据,这些数据成为社会治理的基础。当一切皆可被数据化时,随之而来的是自我认知焦虑和个人隐私泄露问题。以笛卡尔为代表的理性主义者认为自我是意识的主体,而以贝克莱等为代表的经验主义者则认为自我是知觉的集合体。维特根斯坦从语言分析哲学的角度给出了不同的解释,认为自我是个主体,不属于世界,而是世界的界限,自我是认知的起源。在智能时代,由于自我的含义有增无减,导致人们难以对自我进行认知,而如何对自我进行认知也显得比以往更加迫切。基于一个人的定位、所访问的网站、搜索用的关键词等,算法就可以将他的性别、种族、社会阶层、兴趣爱好等信息相关联,并完成定期的统计推理,结果是通过算法得出的一种自我。但是,算法的运行逻辑是“将每个个体都作为算法逻辑体系下的参数而不考虑个体主体性”[7]。这样一来,由算法得出的自我与算法的非人属性之间的矛盾使得人类对自我的认知越来越困难,从而产生自我认知焦虑。
隐私权是基本的人权。拥有一定的个人私密空间,是情感归属的需要,符合道德的要求;侵犯他人的隐私是不道德的,但是技术的进步却在不断地侵犯人们的隐私。在大数据技术出现之前,随着社会关系的变迁、社会空间的扩大,收集、测量和分析那些分散在广阔社会空间的独立个体的行动轨迹、身份信息等是比较困难的,因而个人隐私相对安全。如今,算法在互联网领域的运用彻底改变了这种状况,人们游走于虚实交错的世界里,例如网络购物、移动支付、社交平台的使用、指纹识别、刷脸认证等都会不可避免地留下一连串的容貌数据、身份数据、行为数据。如此,慢慢地积累所有数据,直至在计算机数据库中形成一个“人”[8]。基于商业经济或其他原因,这些数据可能被共享,也有可能被进一步剖析,使得个人隐私空间持续坍塌,由公私空间明确区分的“陌生人社会”逐渐变成了私人空间日渐被侵蚀的“透明人社会”。在“透明人社会”中,私人空间甚至有可能变成公共空间,毫无个人隐私可言。《人工智能行业:人脸识别应用公众调研报告(2020)》显示:64.39%的受访者认为人脸识别技术有滥用趋势;超过三成的受访者表示已经因人脸信息泄露、滥用等遭受损失或隐私被侵犯[9]。例如,在网上只要花费10元便可以购买5000张人脸照片,这无疑会将个人隐私暴露于大庭广众之下。
算法具有黑箱属性,即机器在完成某项任务时,社会公众无法了解其是如何思考的,也无法了解其作出决策的依据是什么。由于算法决策在社会治理领域的广泛应用,人们担心社会最终会出现一个黑箱操作系统,侵害公民的基本政治权利却又无法问责[10]。首当其冲的便是公民知情权。知情权是指公民在面对信息时,有知悉和获取信息的一种权利和自由。一方面,由于算法黑箱的存在,公民在面对算法决策时常常扮演无知者的角色。当一种难以观察和理解的隐形规则越来越广泛深入地渗透到社会治理中,并开始代替治理主体作出与个人、群体利益甚至生命安全息息相关的决策时,背后潜藏的风险也一目了然。另一方面,互联网时代背景下,人们主要通过网络知悉和获得信息。比如,政府通过网络颁布政策,社会组织通过网络发布公告等,网络无疑成为人们获得相关信息、实现知情权的主要途径。当前,很多社会活动依赖于网络,但是算法时代形成了新的弱势群体,他们难以分享算法技术应用于社会治理所带来的社会利益和发展机会,比如,不少农村落后地区的老年人,由于经济条件和身体残障不能持有信息终端的人,等等。《中国互联网络发展状况统计报告》显示:截至2020年12月,我国网民规模达9.89亿,互联网普及率达70.4%,非网民群体将近30%[11]。如果算法技术进一步深入渗透到社会治理领域,毫无疑问,这些没有“网络身份”的人也会相应地被剥夺知情权。因此,算法的黑箱属性和网络作为获取知情权的主要途径便在一定程度上抑制了公民的知情权。
“正义是社会制度的首要价值。”[12]换言之,国家顶层设计和社会治理实践的首要价值追求便是社会公平正义,“公平正义是我们党追求的一个非常崇高的价值”[13]。如今,越来越多的重要决定由算法裁定[14]。但基于算法歧视的存在,事实上形成了社会偏见,损害了社会公正。算法决策本质上是对决策者成见的一种沿袭,是对已有的社会歧视的一种再现,这便“使得流行的不平等进一步加深”[15]。2019年10月,南都个人信息保护研究中心人工智能伦理课题组成员对北京朝阳区和丰台区的两个公租房小区进行了人脸识别系统测试,发现一般正常人可顺利通过人脸识别闸机,但坐轮椅的残障人士难以达到摄像头的高度,这无疑是对残障人士的一种歧视和不公[16]。以往,个人偏见只会影响少数人;现今,一旦技术人员的个人偏见被植入算法转变成算法偏见,算法偏见所带来的负面效应便会成倍扩大,这将进一步加剧社会的不公正。在此背景下,算法如何规制以及由谁控制便成为新时代必须关注的社会正义问题。
责任伦理主体是责任关系的始动者,是责任伦理的核心,是责任的承担者,也是责任的实现者,是责任认知、判断、实现和承担责任失误的主体[17]。明确责任伦理主体有利于对责任进行认定,避免出现逃避、推诿责任和玩忽职守等问题。也就是说,责任主体模糊会直接影响到事故发生时该如何对责任进行追究、问责,甚至造成归责困境。算法决策的复杂性会在一定程度上造成责任主体模糊或缺失,从而导致问责困境。算法决策的过程是一个相当复杂且难以解释的过程。由于算法的判断力基于概率论而产生,任何算法决策在处理复杂的因果关系时都伴随着不可避免的随机性问题,这就意味着算法决策必然产生误差[18]。越来越多的决策交由算法,当算法依据其规则作出错误的决策甚至危害到人们的生命安全时,谁该为此负责呢?是算法开发公司还是算法工程师?算法一旦被设定,它的设计者都无法预测最终的结果,设计者也不能追踪它作出决策的依据。当算法决策出现严重的失误时,由于绝大多数算法具有较强的隐蔽性和复杂性,相关责任主体企图在算法的遮蔽下互相推诿,现实中的监管部门难以对造成事故的责任主体进行判定划分,从而造成一定程度的审查难、问责难的困境。另外,“算法以多种方式被‘碎片化’”[19]122,这意味着难以分配责任。例如,算法有可能是由多个算法公司共同设计完成的,也可以被复制、二次销售等。当算法出现失误时难以对设计者、出售方、使用方和数据提供方进行责任比例划分,这也会对责任判定造成一定的困难。
算法的技术黑箱和解释黑箱是引起伦理风险的技术源头。由算法引起的所有隐晦或露骨的偏见,要么是一两个程序员造成的,要么是技术难题导致的,而算法技术难题之一就是不可避免的算法黑箱。类似于周边定律,算法在黑盒子的遮蔽下运行,而基于算法作决策的人根本不知道他们作出的决定是否正确,制定的政策是否公正[20]。除此之外,出于商业机密或各种各样的原因,算法技术人员在实践中并不会向社会公众公布算法的源代码,因此,社会大众无法知晓算法运行的规则,无法在算法作出决策时向其提出意见,也不能真正参与决策过程,只能被动接受最终的结果。事实上,即便公开源代码,一连串的代码符号对于非专业人员的普通民众而言无疑是天书,他们根本无法得知这些算法规则是否有利于促进人的发展,也无法得知其是否符合人类社会发展的价值追求。
“算法具有价值负荷属性,不同价值判断的人会设计出不同的算法。”[21]这体现在:算法中预设某种价值立场,算法的运行结果具有伦理效应[22]。尽管设计人员可以尽量使算法保持客观性,但是设计人员的知识背景、所处的社会规范体系及伦理观念等都会潜在地影响其所设计的算法,所以算法本质上不是客观的。由于算法日益复杂,对没有专业技术知识的人而言,算法技术本身就是一个不可解释、难以预测后果的黑箱,伴随着诸多的伦理风险。顾名思义,伦理责任以伦理规范为判断依据,违背伦理规范需要承担相应的伦理责任。“责任”一词在伦理学中主要有两层含义:一是主体或者行动者有义务给出相应的解释,二是客体处于可以被说明或者解释的状态[23]。第一层含义显而易见,设计人员有义务遵循伦理道德规范,在必要的时候对用户或公众进行解释。第二层含义则要求客体具有可解释性。如果算法本身是黑箱子,即使是专业技术人员,也难以对输入、输出数据之间的对应关系建立逻辑可靠的解释,这种情形下将难以界定伦理责任,导致伦理责任缺失。例如,将人工智能技术用于自动驾驶,由于自动驾驶涉及人、车、交通指示系统等诸多交互因素,算法设计人员很难有效地将有限的训练方法与算法学习过程中建立的数据关系推广至一般,也难以对复杂的情况进行有效解释。如果极端偶然因素的出现导致决策失误,算法设计人员是否该对此负伦理责任?答案显然为否。另一种情形是,即使算法能够清晰解释输入数据与输出数据之间的关系,因受计算流程和硬件载体的影响,算法的输出结果出现小概率的不确定性,这种不确定性是超乎专业人员的预期的,发生事故后难以进行伦理问责,也会出现算法设计人员的伦理责任缺失问题。
在算法技术应用于社会治理的实践中,算法技术使得治理主体具备精准且高效的能力,在捕获、筛选海量信息的同时,也促使推崇技术、效率的工具理性思想逐渐占据主导地位。算法技术作为实现社会治理精准化、高效率,提高社会治理能力的一种工具,却在实践过程中逐渐异化,日益背离关注人类福祉的价值理性,造成过分依赖工具理性的不当倾向。为提高社会治理效率,一些地方政府过分倚赖大数据技术平台建设和推广应用,基于算法对数据的相关分析而制定决策。随着算法嵌入社会治理的不断推进,原有的人类决策对算法的依赖程度提高,甚至逐步转交给算法。这无疑是对决策主体的工具理性的一种强化,使得治理主体在进行决策时越来越重视技术手段是否科学,忽视决策背后本应追求的伦理价值。另外,算法助力社会治理为人类带来前所未有的便利与高效的同时,也会逐渐消弭人类的主观能动性。“人类在海量信息面前逐渐丧失思考能力、辨析能力、批判能力”[24],使得治理主体陷入算法技术带来的“梦幻效果”的积极情绪中,忽略甚至无视技术应用背后的意义世界。如此一来,算法技术的推进将不断加深治理主体的“权力幻象”错觉,促使他们日益“热衷于通过技术手段提高对社会的控制能力”[25],对公众真正的权益诉求置若罔闻,从而与增进人民福祉的价值追求背道而驰。
一方面,占据技术高峰的企业或公司,容易利用算法对公众不透明的特点或者某些法律灰色地带,滥用算法,采集与侵犯公众隐私数据,导致公众权益受到伤害。例如,2020年7月央视“3·15”晚会曝光多款手机App软件涉嫌采集用户的身份证、上网购物习惯及电话等私密信息,用于商业牟利。而像指纹、人脸这类具有唯一与不可再造属性的生物信息,一旦被侵犯和贩卖,即使政府能追踪犯罪踪迹、进行问责,也难以消除隐私泄露对个人带来的潜在不利影响。另一方面,尽管政府相关部门已经尝试性地对数据和算法平台企业进行监督,但是在人员、技术和理念等方面仍存在很大滞后性,这些滞后性导致政府机构未能及时对企业的算法使用权力进行合理的监督。
为减少科学技术应用过程中的负面影响,应积极倡导科技向善。所谓“善”的理念是指一切有利于人和人类社会发展的正向价值,譬如尊重生命、维护社会公正、增进人类福祉等。因此,在技术层面,应从事前、事后两个维度对算法伦理风险进行规约:事前应该对数据进行预处理和价值敏感设计以预防算法歧视;事后应以科技向善的价值维度对算法决策进行监督审计。
其一,事前亦即算法技术设计之初,遵循“善”的理念原则进行价值敏感性设计。价值敏感性设计是指为了弥补技术与人文之间的差距,在技术设计阶段便将人类价值特别是伦理道德价值与行为方式嵌入其中。在技术设计之初,应当考虑诸如“福利、所有权和财产、隐私、普遍可用性、公平、自主性、信任、知情同意、责任以及环境可持续性”等人类价值[26]。另外,数据质量的好坏会直接影响算法的好坏。根据香农提出的信息论,信息可以消除系统的不确定性。但是数据除含有信息外还不可避免地夹杂着噪音,容易受到环境影响,往往在场景上做了些小变化,算法判别就出现错误了。因此,需要对数据进行降噪处理,提高数据的信噪比。还要确保输入数据满足公平属性,以防产生歧视。
其二,事后亦即算法技术应用阶段,对算法决策进行监督审计。尽管设计人员尽可能公平地设计算法,却不能保证算法决策符合“善”的原则,也不能保证决策不触及伦理道德的底线。因而还需要监督审计应用阶段的算法。一方面,技术人员应以科技向善的导向设计出相对应的审计设计,如代码审计、非侵入式用户审计、抓取式审计等。另一方面,政府机构、科技公司应该积极采取措施,制定相关的制度规范对算法决策进行监督审计。算法监督机制应以风险防范为基本原则,重视内容审查,明确算法设计者和使用者各自需要承担的技术责任和平台责任。
算法技术的应用伴随着严峻的伦理问题,急需对其进行伦理调适。算法的伦理设计是路径之一,而实现算法的伦理设计首先要求算法技术人员具备一定的责任伦理意识。这意味着算法技术人员在从事算法设计开发活动和选择具体的应用场景时,承担着前所未有的社会责任。事实上,在技术研发之初,技术人员难以对其可能产生的社会后果进行准确预判。而当技术引发负面效应时,“它往往已经成为整个经济和社会结构中难以抽离的一部分,以至于难以对它进行控制”[27]。因此,算法技术人员应树立一种“前瞻性”的责任伦理意识,以预防为原则,在技术研发阶段尽量预防可能的潜在风险,倡导人文道德关怀,规避和减少技术应用阶段所带来的负面效应,保证技术应用的正当性和合理性。另外,算法工程师的培养不仅需要专业技能教育,更需要人文和伦理学教育,以期培养负责任的科技人才。如,大学开设的相关科学技术伦理学课程应包括“算法风险评分的普及、如何保证数据无偏倚、是否应当用机器来评判人类等问题”[19]124。因此,应积极培养算法工程师的责任伦理意识,提升其责任伦理素养,强化其社会责任感,促使其自觉承担一定的伦理责任。
各个社会治理主体要平衡好工具理性和价值理性,不仅关注社会治理的效率和智能化等,更要彰显价值理性,以人为本,重视决策背后本应追求的伦理价值。伦理为制度提供了价值合理性,而制度则可能使伦理成为具有强烈约束力的普遍意识[28]。国际社会高度重视人工智能伦理问题,经过共同商讨,一致达成治理应以人本主义、可信赖性、负责任、包容性、可解释性为原则的基本共识。针对人工智能伦理问题,国家新一代人工智能治理专业委员会于2019年6月发布了文件《新一代人工智能治理原则——发展负责任的人工智能》,为人工智能治理提供了治理蓝图和行动指南。但是,我国目前还没有专门的算法伦理制度规范。针对算法引起的伦理风险,政府部门应以包容审慎为原则,采取灵活弹性的方式建立与之相对应的法律体系和伦理框架。例如,在算法技术开发初期可以制定相关的伦理指南和公约,在算法技术应用后期则可出台相应的法律法规进行管控。制定规则及立法是应对算法技术引发的伦理风险的重要手段。建立合理的算法问责制,作为一种在算法技术应用中造成事实损害的“责任分配和危害发生后的补救机制”[29]。建立合理的算法问责制需要立足本国国情,借鉴他国经验。我国在建立算法问责制时应当着重考虑以下三点。首先,将数据作为当前的重点规范对象,在法律层面明确数据权属问题,建立“谁使用谁负责”的责任机制,保障数据流动的合法性和合理性。其次,明确数据共享的范围和场景并建立相应的保护和惩罚措施。最后,算法治理中需要加强算法规则的透明度、可靠性、可解释性和可验证性。
总之,算法技术嵌入社会治理是新时代社会治理体系和治理能力现代化的必然要求。算法技术要不断释放其带来的技术红利和价值,也要进行相关的伦理规约,以期真正实现算法技术促进公平正义、增进人类福祉等愿景。