范文姝
社会治理智能化是适应新时代社会建设和人工智能技术发展而提出的重大决策[1]。党的十九大报告指出,提高社会治理社会化、法治化、智能化、专业化水平。其中,提高社会治理智能化水平,契合当今时代信息化、智能化快速发展的实际。随着互联网、大数据和人工智能技术不断取得新突破,要积极运用现代智能技术,使其与经济融合并进,推动社会治理创新,进一步加大社会治理的智能化水平。人工智能技术应用于社会治理智能化建设,有助于社会治理手段的创新,有利于构建共治共建共享的社会治理格局,全面提升社会治理智能化水平[2]。
人工智能是由人类创造出来的机器智能,是对人的理论、方法、技术的延展和模拟[3]。当前,人工智能已经成功应用于信息处理、决策选择以及辅助治理等领域,未来,人工智能将深入社会治理领域并发挥作用。如通过智能摄像头识别与跟踪犯罪嫌疑人、查询识别失踪儿童等。在社会治理智能化发展过程中,人工智能可以推动智能政务、智能法庭、智能城市、智能交通和智能环保等发展。在教育、医疗和养老等领域逐步加大人工智能的应用力度和融合深度,可以促进公共服务精准化和均等化水平迈上新台阶。通过人工智能技术,可以对社会运行的方方面面做出精准的预测或预警,加强对公众认知心理变化的把握程度,进而促进社会治理水平和能力的进步。如杭州是我国最早将人工智能应用于社会治理的城市,杭州市政府借助阿里云人工智能技术,开发了可应用于城市社会治理的人工智能中枢,也就是杭州市的“城市大脑”。杭州市政府将与城市社会治理相关的数据通过归集、分类和平台接入后,城市大脑平台便可通过算法建模进行快速分析,实时将结果传入城市相关基础设施,促进公共资源优化配置,实现城市智能运行[4]。
人工智能为社会治理提供了全新的技术和思路,将人工智能运用于社会治理,是降低治理成本,提升治理效率,减少干扰最直接、最有效的方式。因此,我们既要顺应人工智能的发展趋势,把技术进步与社会治理相结合,重视人工智能对社会治理的推动作用,又要防范人工智能可能给社会治理带来的新风险与新挑战。
在社会治理中应用人工智能,必须考虑其可能带来的社会不公问题。一是传统就业岗位减少,社会失业率增加。随着人工智能的快速发展,其应用领域不断增加,“机器换人”成为必然,导致某些领域就业岗位减少。根据影响程度不同,可以将人工智能带来的威胁分为三个阶段,近期的最大威胁是大量就业岗位消失。世界经济论坛发布的《2018年未来就业报告》显示,目前平均71%的总任务时间是由人类完成的,而由机器完成的这一比例只有29%。但是到了2022年,预计人类完成任务的时间将减少至58%,机器完成42%。二是薪资差异化严重。人工智能对经济发展和国家经济转型起着至关重要的作用,是国家的战略发展方向。而人工智能竞争又以高端人才为根本,在推动国家人工智能领域的发展上发挥着关键性作用。高学历、高技能的人工智能人才相比于普通就业者拥有更高的薪酬收入。同时,高端技术的学习对人才的要求更高,且需要长时间的精力投入,这加剧了人们的薪资收入及财富分配差距[5]。
当前我国社会主要矛盾已经转化为人民日益增长的美好生活需要和不平衡不充分的发展之间的矛盾,这对国家治理能力与水平也提出了新的挑战。在积极做好人工智能与国家公共服务体系融合的同时,也要关注因网络信息安全导致的公共安全问题,以及人工智能对公共信息安全机制的影响:一是人工智能技术的底层核心是算法,其易受人为影响和控制,在运行过程中,还可能出现程序紊乱和存在漏洞等情况,如果黑客攻击成功,可能导致程序运行错误进而引发公共安全问题[6]。二是由技术垄断催生的国家公共信息安全威胁。人工智能开发者可能利用技术垄断优势寻求私利,非法操纵智能应用程序谋取私利,造成国家信息泄露等严重后果;而人工智能产品应用者则处于被监视的不利地位,应用智能程序的治理主体和公民个体的隐私信息可能受到侵害,甚至涉及国家安全和公民个体的有关信息可能被转移或出卖,给国家公共信息安全带来潜在威胁。
虽然人工智能技术发展日新月异,但与此相关的法律法规体系建设尚未跟上技术发展的步伐,存在立法缺位的问题。一是难以界定人工智能衍生产品的法律地位。作为人工智能衍生产品,机器人可以像自然人一样思辨、行动和判别,但其是否具备与自然人同等的法律地位,目前尚无定论。基于人工智能而创造的机器产品,与人类拥有生命权不同,其只具有使用寿命,且受人类的支配,法律权利和地位也应低于人类。若突破现有的法律底线,可能给人类社会带来巨大威胁。二是难以界定人工智能衍生产品的法律责任[7]。法律是道德的最后底线,人的行为受到法律约束和矫正,而人工智能产品是一种技术的创新和应用,与自然人接受教育,拥有道德、伦理和良知等人性因素不同,人工智能产品只是程序执行者,没有良知和善恶判断标准,也就不具备民事主体责任,所以应当明确使用者、销售者以及制造者各自的责任。虽然人工智能产品具备一定的学习能力,能够在一定条件下实现运算和运行的自主性,但其如果造成了安全事故发生,事故责任难以厘清。
人工智能被广泛应用后,一些原本由人处理、决策和控制的领域,改由人工智能产品替代执行,由此导致人的主体责任开始缺失,人的方案和决策转为机器意志代为执行,那么在执行过程中的合法性、合规性以及伦理性等都将受到影响,使原本清晰的伦理界限逐渐模糊。从一定程度上来说,人工智能产品归根结底是代替人的意志在执行社会治理工作,若程序算法的设计者存在思想道德问题,或严重的个人偏见和私利,那么人工智能产品在应用中就可能存在偏差和不公,导致对使用者正当权益造成侵害,或者对社会伦理产生侵害。
“共建共治共享”的社会治理原则要求人工智能应用于社会治理时,必须坚持人工智能的共有属性,坚决遏制私有属性,并在开发过程中以公共性和社会性为基础品格,以人工智能助推社会治理能力现代化[8]。
一是在推动社会治理与人工智能技术融合过程中,针对人工智能技术在社会治理中应用带来的社会不公、社会矛盾激化等风险,要兼顾效益和公平,进行科学、全面评估,做好应对预案。二是关注人工智能技术应用导致的贫富差距进一步加大的问题。政府要严格遵循和贯彻“共建共享共治”原则,通过教育培训等手段,全面提高公民在人工智能方面的知识和素养,积极推动全民共享人工智能技术带来的红利,以此提高社会治理智能化水平。
一是积极组织专门力量统筹建立人工智能公共安全突发事件监管体系。建议围绕人工智能技术建立统一的质量和监管标准,统筹规划和建立行业、监管机构一致认可的道德和行为规范,对人工智能不应涉足的开发领域明确禁止。随着人工智能参与的领域越来越广,当信息安全遭遇非法利用时,需要通过立法来明确追诉和问责制度,以及人工智能应用涉及到的民事和刑事责任确认。建议建立贯穿人工智能产品(包括算法和数据使用)从设计开发到投入使用全流程的监管制度,对于国家机关和政府在使用智能系统过程中生成的数据信息,应当保障公众对其享有知情权。二是模拟人工智能应用复杂场景下可能出现的公共安全危机突发事件,制定各类应对预案。
一是采用立法形式明确人工智能开发的边界。在社会层面,积极引导和鼓励提供基础服务的人工智能,对于增强型的人工智能应当采取谨慎和保守的态度加以限制,以立法的方式明确禁止开发超级智能。对于人工智能不应涉足的开发禁区,应由政府和行业利益相关者一致确定,并共同商讨和制定法律标准,对造成的损害要明确应承担的法律责任。二是做好人工智能产品伦理和安全风险评估的立法工作。在围绕人工智能技术开展立法建设的过程中,可以借鉴发达国家在人工智能方面的法制建设经验,积极推动我国在人工智能产品伦理和安全风险评估等方面的立法工作,确保自然人权益不受伤害,维护国家和社会的共同利益。
一是要求开发企业建立合规部门。在制度层面,政府部门应要求相关开发企业建立合规部门,做好人工智能应用在开发方面的合规工作,政府要与开发企业签订相关的法律文书,让开发企业明白如果公众权益遭到损害时,所要承担的法律责任。二是加强对人工智能开发从业者的伦理道德教育,在开发过程中本着对社会公众有益的原则进行研发。