社会治理智能化伦理问题的技术之维

2023-09-15 17:33王海建
贵州省党校学报 2023年4期
关键词:公平正义

摘 要:社会治理智能化是国家治理体系和治理能力现代化的重要内容。社会治理智能化的发展,推动了社会治理现代化的进程,但同时也衍生出许多伦理问题,影响社会治理的效能。从智能技术应用的维度分析发现,智能技术的化约主义、情感计算、错误学习、不透明性等在应用于社会治理过程中生成了不公平、不公正、不透明、情感缺失等伦理问题。这些伦理问题的产生,部分是由智能技术自身的不成熟引发的,部分是由智能技术的滥用误用造成的。在实践中,可通过内外结合的方式,开发出更加符合社会治理需要的智能技术、加强对智能技术应用于社会治理的规制以及构建与社会治理智能化相适应的伦理秩序等,推动社会治理智能化为公众提供高品质的公共服务供给,真正追求社会治理的公平正义。

关键词:社会治理智能化;公平正义;技术生成;负责任

中图分类号:D630文献标识码:A文章编号:1009 - 5381(2023)04 - 0065 - 08

党的二十大报告指出,“到二〇三五年,我国发展的总体目标是:经济实力、科技实力、综合国力大幅跃升,人均国内生产总值迈上新的大台阶,达到中等发达国家水平;实现高水平科技自立自强,进入创新型国家前列;建成现代化经济体系,形成新发展格局,基本实现新型工业化、信息化、城镇化、农业现代化;基本实现国家治理体系和治理能力现代化”[1]24。要想顺利实现这一目标,需要加快推进社会治理智能化进程,即把人工智能、算法、大数据等智能技术应用于社会治理之中,提升治理效能,追求社会治理的公平、正义等。目前,全国各地的数字政府建设、“一网通办”“一网通管”等,都是社会治理智能化发展的具体形式。从已有的社会治理智能化实践看,智能技术在社会治理过程中的应用,的确提升了社会治理的效能,推动着国家治理体系和治理能力朝着现代化的方向发展。然而,智能技术的应用也并非有百利而无一害。智能技术本身的缺陷,以及人们在进行社会治理时对智能技术的使用不当等,都会产生社会治理智能化的伦理问题,影响社会治理的效果。因此,需要尽快从智能技术的角度,分析社会治理智能化伦理问题产生的技术生成、技术归因,进而提出技术规制之道,从而更好地发挥智能技术的社会治理功能,推进社会治理智能化高质量、高效能发展。

一、社会治理智能化伦理问题的技术生成

从智能技术应用于社会治理所要追求的伦理目标看,智能技术的应用无疑是为了增进社会治理的公平正义,让治理对象能够公平地被看待、公正地获取公共产品,进而推动整个社会朝着良性发展的方向进步。但是,“技术的胜利,似乎是以道德的败坏为代价换来的。”[2]通过考察智能技术在社会治理中的应用发现,智能技术在推动社会治理智能化高质量发展的同时,也带来了许多伦理问题。

(一)智能技术的“化约主义”引发社会治理的不公平

智能技术之所以能高效、快速处理数据信息,是因为其算法逻辑中的“化约主义”,即把复杂、多元、多样的数据信息通过一定的输入规则,简化为智能机器可以处理的数据信息。正是这个“化约”的过程,会引发社会治理中出现不公平的伦理问题。智能技术之所以被应用于社会治理领域,是因为它能够“客观、公正地处理数据信息并得出相关结论”[3],即在处理治理对象的数据信息时,因为智能技术对数据的处理是依据既定的程序、逻辑、规则,且能够独立对数据进行处理,这样得出的结论会更加科学、公平,规避了以往社会治理过程中可能出现的徇私舞弊、个人偏好等不公平现象。但是,在采集和处理治理对象的数据信息时,智能技术的“化约”过程,会引发社会治理的不公平。

一种是无法量化的数据信息会在“化约”过程中丢失,导致治理方案或者行为的不公平。智能技术对治理对象数据信息的处理,只会对符合既定标准的输入数据进行量化处理。“一些非量化或者无法记录的数据会被算法简化”[4]。在社会治理过程中,智能技术所要处理的治理对象的数据,既有可以量化的、标准化的数据,还有许多无法量化、无法记录的数据。如,社区的约定俗成、村民的行为习惯等。如果这些数据信息未被识别,智能技术所形成的治理方案很难达到真正的公平。另一种是无数据输入会导致“化约”失败,造成治理方案或者行为的不公平。智能技术对治理对象的判断,需要治理对象相关的数据输入,但是,在有的情况下是没有数据可以参考的。第51次《中国互联网发展状况统计报告》显示,截至2022年12月,中国网络用户为10.67亿户,互联网普及率为75.6%[5]。也就是说,在中国还有近四分之一的人群是不上网的。如果采用智能技术对这部分人的事项进行治理决策,那么,他们的需求和权益很难被真正考虑到,显然,这对他们来讲是不公平的。

(二)智能技术的“情感计算”导致社会治理的情感缺失

智能技术在社会治理中的应用,会产生另外一个伦理问题,即情感缺失的问题。早在20世纪80年代,图灵奖获得者马文·明斯基教授就提出在计算机应用时可以开发情感计算技术[6],以提升技术的亲和力。近年来,智能技术发展的一个重要方向就是情感计算技术开发,人们期望通过这一技术进步,使智能机器人能够理解人的情感,从而推动智能机器与人类的高质量交互。目前,情感计算技术被广泛应用于社会治理的各个领域。如,因为智能机器对人们“情感极性和强度的计算,可以反映人们对公共服务的文化感知情况”[7]。在政府进行城市公园建设、社区休闲场所规划等公共设施建设时,用情感计算技术对公众的感知、意向进行采集计算,使方案更符合公众意愿,建设出的公共设施也更具亲和力。

从本质上看,当前的情感计算仍然遵循情感信号识别(对人的面部表情、肌肉变化、血压变化等)-情感信号建模-情感信号理解-情感信息表达的逻辑。在这一过程中,情感计算技術并不能对个体的性格特征、情感情绪有全部的把握,也不能对人的脑神经网络的运行情况进行识别。科学研究表明,即使是当前最先进的脑机接口技术,也没办法用“意念控制智能机器人”[8]。也就是说,智能技术还没有办法与人的大脑实现“无缝衔接”。因此,可以说,目前的智能技术仍旧是“没有意识和价值观念的”[9]技术工具,它既不能拥有像人类一样的情感,也没有办法真正“理解”人类的情感。正是这样,使得智能技术在社会治理中应用时,既“不能代替领导干部亲历亲为的调查研究”,也不能代替多元治理主体之间面对面的交流互动,成为只会根据工程师设定的技术逻辑程序回答用户提问的冷冰冰的机器。把这样的情感计算技术应用到社会治理领域,治理主体用智能技术的情感工具替代原本面对面的沟通交流,会割裂政府与社会、治理主体与对象、官员与群众之间原本的“鱼与水”般的亲密关系,从而造成社会治理中的情感缺失问题。

(三)智能技术的“错误学习”致使社会治理的不公正

智能技术中的机器学习在实践中常被用来改善社会治理流程,以达到更为公正的治理效果。然而,智能機器真的就如人们所愿,能够通过学习不断提升赋能社会治理的能力,从而推动社会治理更为公正吗?答案是不确定的。如,前几年发生的美联航超售事件。因美联航超售机票,在乘客登机结束后,没有乘客自愿改签的情况下,由电脑随机抽取了4名乘客强制改签。结果,抽中了3名亚裔乘客,并把其中一名乘客强行拖下飞机。在亚裔乘客占乘客总数的比例很低的情况下,为什么电脑会抽中多达3名亚裔乘客呢?显然是电脑中的参数和机器学习起了作用。因为在美国,人们一般会认为,亚裔脾气温和、不爱惹事,智能机器显然是学习到了美国社会对亚裔这种性格的对应行为模式,故在随机抽取时,抽中了更多的亚裔乘客。

实际上,智能技术中的机器学习只有在很严苛的条件下才能够真正学到有用的知识,提升自身的功能。这些条件包括:高质量的数据输入、外界的“杂音”很低、机器的建模与工作契合性高等。社会治理作为一种非常复杂的社会工作,很难达到机器学习所需要的严苛条件。那是因为,社会治理过程不仅是多元主体共同参与的过程,还需要考虑治理范围内的社会政治经济条件、风俗文化传统、对象群体特征、社会制度规范以及其他流动性的变化因素等。在这样复杂的情况下,机器学习很容易偏离正确的方向,并不能总是“做正确的事”[10],由此便产生了诸如上述例子里的性别歧视、群体歧视等社会治理过程中的不公正问题。

(四)智能技术的“不透明性”引致社会治理的不透明

运用智能技术增进社会治理过程的透明,是社会治理智能化的伦理目标之一。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》明确提出,要提升国家数据共享交换平台功能,推动高价值数据集向社会开放。[11]即要通过智能技术赋能,将更多决策信息、决策流程向公众开放,增进社会治理的透明度。目前,智能技术赋能社会治理的应用主要体现在通过精准预测需求,进而精准满足治理对象的个性化需求等方面。借助于智能技术,治理主体可以根据治理对象的数据信息,预测出其个性化的需求。随着“计算机的运算速度和内存容量以指数级速度增长”[12],以及算法技术的不断更新迭代,精准预测出“治理对象”的需求似乎已经成为智能技术一项必备功能。如,算法通过对大样本治理对象数据的计算赋值,从中找出治理对象需求的一般规律。根据这样的逻辑,智能技术可在社会治理的许多领域进行用户需求预测、治理决策制定、治理方案完善等,以提升社会治理效能,推动社会治理的智能化发展。

但是,在这个过程中智能技术有一个缺陷,就是其“不透明性”。也就是说,智能技术在应用于社会治理过程中,其做出的治理决策、产生的治理方案,所依据的逻辑是什么、决策的过程是什么,是不透明的。在现实的社会治理中,一项治理决策或者方案的达成,需要遵循一定的价值取向,经过多元治理主体的共同商讨才能形成。如果一项治理决策或者方案是“暗箱操作”的结果,那么,其在应用于社会治理实践时,会衍生出巨大的社会风险。治理对象可能质疑这一决策或方案的合理性、合法性,进而酿成社会舆论危机,削弱治理主体的权威性和合法性。从实践角度看,即使是处在弱人工智能的当下,智能技术在社会治理中做出的许多决策和行为仍然是不透明的。比如算法黑箱问题,即使是治理主体,也不能说清楚算法究竟是依据什么样的前提或者程序做出某一决策的,这就会给社会治理带来风险。随着技术的发展,这种“不透明”会进一步加剧。比如随着人工智能向深度学习的演化,将产生具有主体意识的智能体,他们做出的治理决策或者方案,不仅是不透明的,还可能对人类本身产生威胁。最坏的结果可能会像科幻电影《阿丽塔》里面的剧情一样,智能机器人战胜人类,导致人类的灭亡。

二、社会治理智能化伦理问题的技术归因

从智能技术的视角分析,社会治理智能化产生的伦理问题,有部分是因为智能技术自身存在的缺陷造成的。智能技术的不成熟和原生性问题等的存在,会造成其在社会治理应用时产生技术伦理问题。同时,人们对智能技术的误用、滥用,也是产生伦理问题的重要原因。

(一)智能技术自身缺陷所致

智能技术自身缺陷导致其在应用于社会治理时,无法确保治理决策、治理行为等社会治理的公平正义,造成社会治理智能化过程中出现伦理问题。这些伦理问题产生的原因集中体现在两个方面。

首先,智能技术自身不成熟所致。从智能技术的发展看,尽管摩尔定律[13]仍然在起作用,以算力、算法、大数据等为主要内容的智能技术在21世纪迎来了井喷式的发展,人们把其称之为“第四次工业革命”。然而,一个不可否认的事实是,智能技术仍然没有达到“随心所欲”的程度。以大规模语言模型Chatgpt为例,这款被称之为当前最先进的智能技术工具,能根据人们输入的信息输出较为符合人们需要的结果,但它输出的结果常被用户诟病为“一本正经地胡说八道”。就连Open AI公司也提醒Chatgpt的用户,要注意其产品输出内容的真实性和安全性。此外,社会治理领域常用的情感计算、脑机接口、机器学习等智能技术尚处在较为低级的阶段。当这样的智能技术应用于社会治理时,势必会产生伦理问题。如,智能技术的情感计算还不能够真正理解人类的情感,只能根据人们的表情、神态变化予以相应的反应,其应用于社会治理时,如果无法对治理对象的情感需求作出正向的情感反应,就会产生情感缺失的伦理问题。

其次,智能技术存在原生性问题所致。马科库塞认为,“不管科学现在如何确定自然客观性及其各部分间的相互关系,它都不能按照‘终极因来科学地设想它。”[14]而智能技术应用于社会治理之所以产生伦理问题,在很大程度上是因为智能技术用“终极因”来科学地设想复杂社会问题的解决流程、解决方案。在科学研究上,把复杂问题简单化有助于科学问题的解决和人类科学事业的进步。但是,在社会治理领域,把复杂问题用“终极因”来简单地解决,则有可能会漏掉解决问题的关键要素,导致不一样的治理结果,因而会产生伦理问题。这实际上就是智能技术原生性问题所导致的伦理问题。从本质上看,智能技术仍然是一种基于程序逻辑、机械逻辑的技术工具。也就是说,智能技术对数据信息的处理,只能根据“输入”的信息得出一定的结论,得出结论的过程是基于程序员已经给定的程序。即便是目前有的智能体能够通过机器学习、深度学习,形成一定的自主观点,然而智能体的学习过程,仍然是遵循程序员已经给定的程序。因此,智能技术应用于社会治理,把复杂的社会治理问题简单化为一定的程序、一定的流程,这必然会造成一系列伦理问题。

(二)智能技术滥用误用所致

作为一种快速发展且功能强大的技术工具,智能技术在推动社会治理的智能化发展进程中具有重要的现实意义。但是,在智能技术推动社会治理智能化的过程中,因智能技术的滥用和误用,产生了伦理问题。习近平指出,“治国有常,利民为本。”[1]46这里是说,无论是国家治理,还是社会治理,最根本的目标是为了“利民”,即让人民群众过上幸福生活。因此,社会治理智能化发展,根本的目标是通过智能技术赋能,让人民群众享受到智能技术带来的高品质公共产品供给,使其工作更加便利、生活更加舒心。然而,在现实中,智能技术在社会治理领域滥用、误用的现象比较突出,不仅没有起到赋能社会治理的功能,反而会起到相反作用,解构人民群众对政府的信任,造成社会信任危机和伦理风险。智能技术在社会治理中的滥用误用,主要有三种情况。

第一种是智能技术的过多使用。在《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》《国务院关于加强数字政府建设的指导意见》等政府文件中,均把智能技术应用作为推动社会治理智能化发展的一项重要指标。各地的社会治理智能化实践表明,智能技术的应用确实推动了社会治理智能化的快速发展。然而,因在社会治理中把智能技术运用作为一项重要考核指标,催生出各地政府不顾当地实际情况,过度上马各种智能政务数据库、智能政务平台的情况。如,在2022年第四季度国务院政务新媒体检查中就发现,部分省份的政务新媒体长期不更新、没有互动交流等[15]。这种过多使用智能技术,最终导致在实践中把许多智能政务平台当作摆设,不仅会割裂政府与人民群众之间的密切关系,还会产生技术形式主义,影响社会治理的公平正义。

第二种是智能技术的过度使用。智能技术在社会治理应用中产生伦理问题,还有一个原因是智能技术的过度使用。城市社区里到处都是摄像头,老百姓的日常生活长期处在被监控状态。智能天眼的使用,在让不法分子无处可逃的同时,也让普通老百姓暴露在视频当中,而且随着智能家居、智能机器人、智能汽车的使用,这种情况会进一步加剧。人们不仅在住所之外会受到智能技术的监控,在原来的私密空间也会被智能家居、智能机器人、智能汽车收集数据信息,为别人所掌握。智能技术带来安全、便利的同时,因过度使用,也会造成人们信息的泄露、尊严的丧失等伦理问题,还会造成人内心的恐惧[16],进而产生心理问题,影响社会稳定。

第三种是智能技术的过界使用。智能技术开发遵循技术理性、利益至上的逻辑,即智能技术要在使用过程中为拥有者创造出最大的财富,只有这样,智能技术才能不断创新,开发出新的技术和应用。但是,在社会治理领域,公共产品的供给、公共决策的执行等是治理主体为公众提供服务的过程,是追求公共利益、公共价值的。智能技术与社会治理之间在价值追求上的内在张力,决定了智能技术在社会治理领域的使用是有边界的,不能过界使用,否则就会消融社会治理的公共价值,造成伦理问题。在实践中,哪些智能技术可以应用于社会治理,哪些不能使用,并没有明确的界限,这就造成智能技术可以没有门槛地随意进入社会治理领域,用智能技术的技术理性、利益至上等逻辑“规训”社会治理过程,使社会治理成为追求利益最大化的治理行为,最后造成社会治理过程中的不透明、不公平、不公正等伦理问题。

三、社会治理智能化伦理问题的技术规制

因为智能技术应用于社会治理所产生的伦理问题,需要通过规范智能技术发展的过程予以解决,所以在推动社会治理智能化发展过程中,可采用内外结合的方式,对智能技术进行规制,引导智能技术发展“向善”。

(一)引入多元主体参与智能技术开发,确保智能技术公平、透明和负责任

开发“公平、透明和负责任的人工智能”[17]是解决社会治理智能化进程中,因智能技术的应用产生伦理问题的最直接的途径。在具体的操作层面,可以从四个方面着手。

一是引入多元主体参与智能技术开发。智能技术与社会治理不适配,出现伦理问题,主要产生于技术开发环节。即智能技術在开发之初,没有社会力量的介入,也没有相应的价值导向,只是单纯从技术应用、技术效率最大化等逻辑出发开发新技术。这样开发出来的智能技术固然能够提升社会治理的效率,却不能保障社会治理朝着公平正义的方向发展。因此,要在智能技术开发之初就引入社会力量,共同参与技术开发。具体来说,就是构建包括工程师、社会工作者、公众、学者、政府等在内的多元主体共同参与的智能技术开发协同机制,推动智能技术开发“向善”。

二是将公平正义、社会规范等伦理原则嵌入智能技术。智能技术在社会治理时出现错误学习、算法歧视等问题,原因在于人工智能在机器学习、深度学习等过程中,学习到人类社会的偏见、歧视等错误的观念,且没有正确的伦理原则、价值原则予以规制。因此,在智能技术的开发过程中,要把公平正义、价值原则等社会伦理规范嵌入其中,以规避在使用过程中可能出现的伦理问题。如,Chatgpt在开发过程中,把相关的社会伦理、社会规范纳入考量范围,在一定程度上规避了许多可能出现的偏见、歧视等伦理问题。

三是用技术革新推动智能技术追求公平正义。智能技术在社会治理应用时出现伦理问题,一个很重要的原因在于技术本身还不够完善,存在缺陷。如,智能技术助力社会治理决策出现不公平的伦理问题,原因可能是智能技术所使用的数据统计模型出了问题,没有办法对复杂多元、多价值背景的数据信息进行有效的处理。因此,要进行技术革新,开发出能有效识别不同文化背景、不同价值背景的数据信息的智能技术,特别是要开发出能够真正识别人类情感的智能技术。这样,才会在社会治理智能化进程中,真正追求社会治理的公平正义。

四是开发社会治理专用的智能技术以确保其追求公平正义。为规避智能技术的技术理性、利益最大化逻辑对社会治理所追求的公平、透明、负责任等伦理原则的消融,可以尝试根据社会治理的具体需要,开发真正适合社会治理应用的智能技术工具,用于智能政务数据中心、智能政务平台等的建设,从源头上解决社会治理智能化出现的伦理问题。

(二)构建多维体系规范智能技术的应用,确保智能技术追求公平正义和善

要想发挥智能技术的最大功能推动社会治理智能化的发展,确保社会治理智能化追求公平正义,需要对智能技术进行“规训”,而不是让智能技术“规训”社会治理。具体来说,可以从三个层面着手。

一是从法律层面“规训”智能技术,使其在社会治理应用中追求公平正义。首先,要针对智能技术应用中已经出现的问题,有针对性地对立法进行规范。如,近年来,国家针对智能技术应用时对个人利益的损害、对社会规范的冲击,制定了《中华人民共和国个人信息保护法》《网络安全法》等一系列法律法规,规范智能技术在社会治理领域的应用。其次,要有前瞻性的立法对智能技术的应用进行规范。近几年,智能技术发展速度加快,不断有新的智能技术被开发和应用,且很快被引入社会治理领域进行使用。这就要求国家立法时,要有前瞻性,针对可能出现的新技术,或者智能技术在社会治理中使用可能出现的问题,进行前瞻性立法予以规制。

二是从行业领域“规范”智能技术,使其在社会治理应用中追求公平正义。从智能技术视角分析社会治理智能化的伦理问题发现,部分伦理问题是智能技术使用不规范所造成的,因此要从行业领域对智能技术的使用进行规范。首先,要设置行业标准。通过设置行业标准,规范智能技术的应用边界,防止智能技术在社会治理中过多、过度、过界使用,从而避免社会治理智能化伦理问题的生成。其次要建立行业规范。如,2021年国家新一代人工智能治理委员会发布了《新一代人工智能伦理规范》。在此基础上,应该更进一步设置更多的行业伦理规范,使智能技术在社会治理中的应用,真正起到增进群众福祉、追求公平正义的作用。

三是从具体实践“管理”智能技术,使其在社会治理应用中追求公平正义。在具体的社会治理实践中,要通过内外结合的方式,加强对智能技术应用于社会治理过程的管理。从内部看,政府部门、公共服务机构要定期审查智能技术在推进社会治理进程中出现的伦理问题,及时予以纠正和解决。从外部看,要引入社会组织、企业、公众参与智能技术应用于社会治理的过程监督,建立反馈监督机制,让受众对社会治理智能化的效能进行评价,推动智能技术在社会治理中应用的“向善”。

(三)超越既有伦理归因思维模式,构建与社会治理智能化相适应的伦理秩序

恩格斯指出,“每一历史时代的经济生产以及必然由此产生的社会结构,是该时代政治的和精神的历史的基础”[18]。智能技术的快速发展和应用,已经对原有的社会伦理、社会秩序、社会规范产生了强有力的冲击,在经济社会进入智能化时代的当下,解决社会治理智能化产生的伦理问题,还应该从社会伦理的自身着手,构建符合智能技术应用的新的伦理秩序。

一是尝试打破传统因果关系的伦理思维模式。传统伦理秩序强调因果关系,有因才有果。根据传统伦理因果思维模式,社会治理智能化出现伦理问题,是因为智能技术存在缺陷或者原生性问题,所以会造成其在使用时产生伦理问题。这种思维模式固然是人类观察认识世界的一种思维方式,但并不是任何时候用这一思维模式得出的结论都是正确的。事实上,智能技术正是在相关关系思维模式下发展起来的。如,对治理对象需求的数据搜集分析,就是把不同治理对象的不同需求进行比对,找出其中最大的相关性,进而确定治理对象的需求。因而,在社会治理实践中,可以尝试综合运用因果关系思维模式、相关关系思维模式进行治理决策,进而尝试构建基于智能技术发展现实的新型社会伦理规范。

二是尝试构建“集体人格”破解社会治理智能化的伦理难题。在智能技术推动社会治理智能化发展的进程中,之所以出现伦理问题,责任归属不清是一个很重要的原因。一旦发生伦理问题,治理主体把责任推给智能政务平台,治理对象认为是治理主体的责任,智能政务平台会把责任推到技术供应的公司,公司会把责任推给开发平台的工程师。显然,这样是不能有效推动伦理问题解决的。因此,在具体的社会治理智能化发展实践中,可以尝试构建“治理主体+治理对象+人工智能公司+工程师”的新型的集体人格,加强参与社会治理智能化各主体之间的协同,推动社会治理智能化追求公平正義和善。

四、结语

社会治理智能化伦理问题的产生具有多重因素,既涉及智能技术方面的因素,也涉及社会经济发展状况和治理对象群体等因素,更关涉到国家的社会治理目标、相关法律制度规范以及治理实操者运用智能技术的水平等。社会治理智能化的展开,智能技术的发展和应用无疑是其中最直接的推动力量。因此,从智能技术应用于社会治理的视角,考察社会治理智能化伦理问题的发生、归因、规制,具有重要的学术价值和现实意义。值得注意的是,目前社会治理智能化发展尚处在早期阶段,人们对社会治理智能化的伦理问题认识还不够深入,这一方面意味着人们可能会忽略社会治理智能化的伦理问题;另一方面则意味着可以尽早采取相应的措施,把问题处理在萌芽阶段。因此,全面系统分析社会治理智能化产生的伦理问题,将成为学术界义不容辞的责任,只有这样,才能把社会治理智能化的伦理问题集中呈现出来,为进一步地解决存在的问题提供智力支持。

参考文献:

[1]习近平.高举中国特色社会主义伟大旗帜 为全面建设社会主义现代化国家而奋斗——在中国共产党第二十次全国代表大会上的报告[M].北京:人民出版社,2022.

[2]马克思,恩格斯.马克思恩格斯选集:第一卷[M].北京:人民出版社,2012:776.

[3]王海建.算法治理的伦理风险及其纾解[J].深圳大学学报(人文社会科学版),2023,40(1):152-160.

[4]Newman D T,Fast N J,Harmon D J. When eliminating bias isn't fair: Algorithmic reductionism and procedural justice in human resource decisions [J]. Organizational Behavior and Human Decision Processes, 2020(160):149-167.

[5]中国互联网络信息中心.中国互联网络发展状况统计报告[EB/OL].(2023-03-03)[2023-04-06]. https://www.cnnic.net.cn/n4/2023/0303/c88-10757.html.

[6]Minsky M. The Society of Mind[M].New York:Simon and Schuster,1986:5.

[7]Koblet O, Purves R S. From online texts to landscape character assessment: collecting and analyzing first-person landscape perception computationally[J]. Landscape and Urban Planning,2020,197(5):1037.

[8]Musk E. An integrated brain-machine interface platform with thousands of channels [J]. J Med Int Res, 2019(21):161.

[9]郝宇青,王海建.人工智能进入基层社会治理的限度[J].苏州大学学报(哲学社会科学版),2021,42(5):18-25.

[10]Packin N G. Regtech, Compliance and Technology Judgment Rule[M].New York:Social Science Electronic Publishing,2017:91.

[11]中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要[EB/OL].(2021-03-13)[2023-04-07].www.gov.cn/xinwen/content/2021-03/13/content_5592681.htm.

[12]梅拉妮·米歇尔.AI3.0[M].成都:四川科学技术出版社,2021:62.

[13]卢西亚诺·弗洛里迪.第四次革命:人工智能如何重塑人类现实[M].杭州:浙江人民出版社,2016:8.

[14]赫伯特·马尔库塞.单向度的人:发达工业社会意识形态研究[M].上海:上海译文出版社,2008:117.

[15]统计局关于2022年第四季度政府网站与政务新媒体检查情况及全年总体情况的通报[EB/OL].(2023-02-04)[2023-04-06].www.gov.cn/xinwen/2022-02/03/content_5739835.htm.

[16]胡键.大数据技术条件下的城市治理:数据规训及其反思[J].华东师范大学学报(哲学社会科学版),2019,51(5):53-59+237.

[17]杨立昆.科学之路:人、机器与未来[M].北京:中信出版社,2021:308.

[18]马克思,恩格斯.马克思恩格斯全集:第二十八卷[M].北京:人民出版社,2018:8.

The Technical Dimension of Ethical Issues in Intelligent Social Governance

Wang Haijian

(East China Normal University,Shanghai  200241,China)

Abstract:The intelligence of social governance is an important part of the modernization of the national governance system and governance capacity. The development of intelligent social governance has promoted the modernization of social governance, but at the same time, it has also derived many ethical issues that affect the effectiveness of social governance. From the perspective of the application of intelligent technology, it is found that the reductionism, affective computing, false learning, and opacity of intelligent technology have generated such ethical problems as unfairness, injustice, opacity, and lack of emotion in the process of applying them to social governance. The emergence of these ethical issues is partly caused by the immaturity of intelligent technology itself, and partly by the abuse and misuse of intelligent technology. In practice, intelligent technologies that are more in line with the needs of social governance can be developed through a combination of internal and external means, and regulations for the application of intelligent technologies in social governance can be strengthened. An ethical order that is compatible with the intelligence of social governance can be constructed to promote the intelligence of social governance and provide high-quality public service supply to the public, truly pursuing fairness and justice in social governance.

Key words:social governance intelligence;fairness and justice;technology generation;responsible

責任编辑:刘有祥 李祖杰

猜你喜欢
公平正义
统一赔偿标准促进公平正义
审判执行不停摆 公平正义不止步
推进“类案同判”构筑司法公平正义
选任好人民陪审员 让群众感受更多公平正义
坚持公平正义 增强裁判效果
让公平正义在“最后一公里”提速
司改正向着维护社会公平正义方向前行
论自由人联合体与公平正义
沧县人民法院:坚持司法为民保障公平正义
关爱弱势群体 维护公平正义