中共秦皇岛市委党校 张宇,于晓川,姚兰
2022年10月16日党的二十次全国代表大会顺利召开,社会治理的格局迎来新发展趋势。党的二十大报告指出,完善社会治理体系,健全共建共治共享的社会治理制度,提升社会治理效能,畅通和规范群众诉求表达、利益协调、权益保障通道,建设人人有责、人人尽责、人人享有的社会治理共同体。随着互联网、大数据和人工智能技术不断取得新突破,积极运用现代智能技术,使其与经济融合并进,推动社会治理创新,进一步加大社会治理的智能化水平。然而,我们也必须注意人工智能应用于社会治理智能化建设中可能产生的各类问题。本文旨在探析“三共”社会治理格局下,社会治理智能化应用人工智能的现实问题及解决对策,为我国提升社会治理智能化水平提供理论一些参考。
人工智能是人类按照一定的理论、方法、技术创造出来的机器智能,是对人类的思维、行为的延展和模拟。当前,人工智能已经广泛的应用于信息处理、决策选择以及辅助治理等领域,并且达到了预期成果。从整体发展趋势预测,人工智能将深入社会治理领域发挥重要作用。2017年人工智能写入十九大报告并且颁布《新一代人工智能发展规划》,2020年中央网信办等等五各部门颁布《国家新一代人工智能标准体系建设指南》,2021年国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》明确人工智能发展目标、重点任务,重点的应用领域。近期,中国信息通信研究院发布了《人工智能白皮书(2022年)》,从政策、技术、应用以及治理等领域回顾发展,分析了人工智能新的发展趋势以及所处的发展阶段,尤其在社会治理领域的应用受到高度关注。观察关于人工智能部署与安排,社会治理过程中利用人工智能实现了政务智能化、交通智能化、环保智能化,安全智能化等方面的发展。同时,在医疗、教育、养老等社会关注领域,我国逐步加大人工智能的应用力度和融合深度,公共服务智能化进入新的阶段,推动了人民群众生活品质的提升。通过人工智能技术,提升社会运行的智能化水平,促进社会治理能力的巨大进步。
杭州是我国最早将人工智能应用于社会治理的城市,经过反复技术研发,设计可应用于城市社会治理的人工智能中枢,杭州市将城市智能中枢定义为“城市大脑”。杭州市政府通过收集、分类和平台接入社会治理相关的数据,城市大脑平台设计算法建模进行准确分析,实时将分析结果转入城市治理相关部门,应用于基础设施,优化公共资源配置,实现城市智能化运行。“城市大脑”是由数据采集系统、数据交换中心、超大规模计算平台、开放算法和数据应用平台这五个系统组成。其中数据采集系统是负责各类社会治理数据的采集,通过各类城市应用终端,例如:摄像头、指纹采集器、客户端设备等。数据交换中心是城市大脑平台对各类数据进行转换、融合,使其成为城市大脑可用的数据。超大规模计算平台则是对城市内大数据提供各类大数据分析。开放算法平台则是城市大脑用来进行社会治理各种算法建模的决策层,通过各种算法来对数据进行分析,帮助政府采取相应的社会治理决策。数据应用平台负责社会治理决策的指令下达,指挥各基层做好相应的社会治理工作。
从社会治理应用人工智能的一些案例中可以看出,人工智能在社会管理与社会治理中应用,可以有效提升管理和治理智能化水平。然而,人工智能应用于城市社会治理可能也会带来各种问题和挑战。
社会公平是一种社会关系总称,体现在人与人之间的平等。社会不公是打破公平的一些现象。随着社会快速发展,多种多样、类型复杂的不公平现象逐渐显现,如歧视、失业等。社会出现的不公平现象越多,公众的社会公平感、幸福感就越低,由此给社会带来的潜在矛盾风险就越多,可能会产生影响社会稳定的因素也就越多。因此,推进社会治理智能化,应用人工智能,需要考虑社会公平问题。
1.传统就业岗位减少
随着人工智能应用领域的不断增加,就业岗位势必发生变化。根据影响程度的不同,有关学者将人工智能带来的影响分为三个阶段,即近期、中期和远期,并指出近期的最大影响是大量重复性标准化的就业岗位将逐渐被智能机器人取代,一些需要人脑计算、规划等的工作岗位也逐渐被人工智能取代。人工智能持续发展,深入应用,现在索引类的工作岗位也进入实验室阶段,创造性、监管性方面等工作仍然处于理论研究阶段。
2.社会贫富差距加剧
人工智能作为新技术可能吸引更多的资本持续投入,转向已经实现的发达经济体,利润越高的行业将吸引越多人工智能研究者参与研究、经营者参与经营,进而可能对其他行业的发展状况产生不利影响,从而拉大贫富差距。在衡量社会贫富差距方面,全球公认的唯一指标是“基尼系数”,近几年从数据上看我国基尼系数不断上升,人工智能的研究应用在基于公共服务均等化、行业平衡性、区域协调性的基础上基扎实推进。
我国社会主要矛盾发生转变,社会治理也进入了新的发展阶段。在推进人工智能与公共服务融合的同时,需要关注网络化对信息安全的影响,需要关注智能化对信息安全机制的影响,关注网络化、智能化对国家公共安全的影响。
1.算法容易受到人为影响
人工智能技术的底层核心是算法,算法本质是解决问题的指令,容易受人的决策影响出现偏离。算法在实际运行过程中,也可能出现程序漏洞和程序紊乱情况,如果通过漏洞破坏学习算法,智能应用程序就会出现运行错误进而引发信息泄露等公共安全问题。如果黑客破坏系统识别的图像和语音,导致甄别错误,有可能非法利用系统进行信息诈骗和思想意识影响等。
2.技术垄断影响公共信息安全
人工智能的研发者拥有人工智能获得技术优势,先进的技术手段、数据和算法也有可能被用来达成垄断协议。从国家公共安全的角度来看,如果开发者在利用技术、数据垄断优势寻求私利,那么可能导致严重后果,智能产品的应用则失去本来的发展目的。与此同时,应用智能程序的治理机构和公民个人的信息存在泄露的可能性,导致对人工智能应用的约束力下降。一旦缺失治理、约束的能力,那么会对国家安全、信息安全造成潜在风险。
人工智能技术迅速发展,涉及人工智能的法律法规体系建设尚未完全匹配技术发展的速度、程度,在社会治理中应用人工智能可能存在一些法律困境。
1.难以界定人工智能产品的法律地位
智能机器人是人类创造的人工智能衍生品。机器人在人工智能技术的加持下,可以思考、判断、行动,但智能机器人是否可以具备与自然人同等的法律地位,现有法律体系尚无定论。基于人工智能衍生的机器产品具有使用时限,与人类的生命权存在本质不同,功能设计取决于人类支配和使用权限,法律权利和地位必然低于人类。如果突破现实法律边界超越人类,势必会给人类社会法律适用带来巨大影响。
2.难以界定人工智能产品的法律责任
人工智能衍生产品是创新技术和创新应用,智能机器人是程序、编码、指令的执行者,缺少接受教育,辨别道德、审验伦理等人类要素难以具备区分善恶标准,也就难以具备主体法律责任。法律是伦理道德的底线,法律约束人的行为并且加以矫正,机器行为是被设定,难以按照人类标准进行约束,智能机器只能明确使用者、销售者以及制造者等法律责任。人工智能产品与传统机械设备也有所区别,人工智能产品具备一定的学习能力,能够在一定条件下实现功能的自主性,如果由人工智能产品使用导致的法律问题,责任难以厘清。
“共建共治共享”是中国式现代化的社会治理的发展方向,是习近平新时代中国特色社会主义思想科学理论中在社会治理方面所倡导的价值取向。“共建共治共享”的社会治理原则要求人工智能在社会治理中应用时,必须坚持人工智能的公共性和社会性为基础。此外,人工智能作为新兴技术,有关部门也应加强人工智能的宣传普及,使人们能够对人工智能有一个正确的认知,积极参与技术创新,最终共享人工智能所带来的社会红利。在“共建共治与共享”原则下,可以从以下几个方面来探讨人工智能推动社会治理智能化的对策
1.加强社会公平风险的评估
针对人工智能技术在社会治理中应用带来的各类社会不公的问题,推动社会治理与人工智能融合,需要科学全面的评估各类风险,提前预防在应用人工智能后可能会给社会造成的不公平现象,并做好解决预案。若应用人工智能后造成的社会不公平风险超出了当地监管部门的范围,就当前的监管举措进行研判,或者对当前应用人工智能的必要性做重新评估,围绕着风险程度开展政策配套的研究。比如,当前自动化公共交通是当前应用人工智能最为广泛的领域之一。对此,在应用人工智能技术前,相关应用以及监管部门可以在保证安全和具备实验条件的实验基地中积极开展各类自动化公共交通实验,并基于实验结果制定监管举措。积极制定和出台有关政策,既确保顺利应用,同时避免由于人工智能的应用造成从业人员岗位替换等问题带来公平风险的出现,推动人工智能所带来社会红利全民共享。
2.做好人工智能方面的宣传教育
除了做好对社会不公风险的评估之外,需要关注人工智能普遍使用带来的贫富差距加大的问题。针对拉大贫富差距的问题需要严格遵循“共建共享共治”的使用原则,通过开展宣传、教育、培训等方式方法,全面提高公众在人工智能方面的认识和素养,积极推动全民共享人工智能技术的便捷,构建智能化社会治理的群众基础。在这一方面可以借鉴一些先进做法和经验,比如将计算机科学教育纳入整体学科教育,帮助适应智能化技术以及发展智能化技术。同时,可以通过教育培训来积极引导公民参与到社会建设和社会治理中来,防范由于人工智能导致社会问题的进一步加大。
对于人工智能应用于社会治理可能引发的公共安全问题应针对性的建立相应的监管体系和应急体系。
1.构建人工智能应用的监管体系
在推动人工智能技术发展的同时,需要建立健全公开透明的人工智能应用的监管体系,相关主管机构或者部门可以围绕人工智能的设计问责以及应用监督建立统一的标准机制,实现对人工智能算法设计、产品研发和成果应用等全过程监管。并且相关部门统筹规划、制定行业政策,促进人工智能行业以及研发经营企业自律,构建人工智研发应用一体化的管理体系。明确监管机构和监管人员对系统设计规则和逻辑进行监管权责,重视智能系统在应用前的风险评估和测试,加大对人工智能领域的数据滥用、信息泄露等行为的惩戒力度。
2.构建人工智能风险的应对预案
按照趋利避害原则,处理好智能化应用与总体安全关系,既要发展人工智能技术促进社会治理智能化,也要在安全、可靠和可控的基础之上设计功能、实际应用。加强对人工智能安全体系建设的规划部署,围绕使用人工智能带来的安全风险因素,借鉴先进经验,推进人工智能综合安全防控体系建设。同时,组织模拟人工智能应用社会治理的场景,模拟容易产生的公共安全突发事件,制定有效的应对预案。比如,对于人工智能应用可能带来的用户隐私数据泄露的网络公共信息危机,组织专人从技术与管理两个角度建立相应的应对预案。
当前,各国对于应用人工智能在社会治理过程中可能产生的各类社会问题均处于探索阶段,政府必须积极作为,明确应用的法律边界。
1.以立法的形式明确人工智能开发边界
从发展的角度积极引导提供基础公共服务的人工智能,对于具有特殊功能的人工智能采取谨慎态度加以评估,以立法的方式明确人工智能各项功能开发的边界。对于人工智能产品不需要普遍具备的功能禁区,相关管理机构部门和行业发展规范主体可以共同商讨和制定法律标准,明确造成损害后应该承担的法律责任。
2.完善人工智能安全评估的立法工作
在围绕人工智能技术开展立法建设的过程中,可以参考国外在人工智能方面的法制建设经验,积极推动我国在人工智能产品伦理和安全风险评估等方面的立法工作。作为基本的应用原则,“共建共享共治”要求在立法过程中,社会公众享有知情权,人工智能产品在更新迭代中不仅要征询专业学者的意见和建议,而且也要倾听公众声音,确保自然人权益不受伤害,并努力维护国家和社会的共同利益。
面对人工智能产品技术在社会治理中广泛应用可能带来的伦理道德问题,组织研发智能产品程中,推动人工智能应用于社会治理的过程中,关注社会普遍认同的伦理道德标准。同时,强化人工智能功能设计以及应用领域的具体监管。
1.建立研发组织的准入机制
在制度层面,建立一套健全的企业准入机制,建立产业健康发展长效管理机制。社会普遍伦理到标准作为功能设计标准之一,明确功能产品的上市标准以及智能化应用的标准。研发组织建立合规部门,通过合规部门来做好人工智能应用在开发方面的合规工作,政府部分可以与开发企业签订相关的法律文书,明确研发企业法律责任、社会责任。
2.加强对人工智能开发从业者的伦理道德教育
政府有关部门也要加强对人工智能开发从业者的伦理道德教育,加强对技术人员的伦理教育,提高社会责任意识。同时明确每一个参与开发的成员的主体责任,在功能最初的阶段预防和降低功能设计伦理缺陷风险和公众社会权益的侵害。