胡建华, 叶丽霞
(江西理工大学应急管理与安全工程学院,江西 赣州 341000)
受知识的局限,传统经验难以预测未知风险的到来,尤其是随着知识深度和广度的拓展及科学技术的飞速发展,社会风险全面迅速增长。人类用以往的思维模式和措施去应对和治理风险,这些措施又反过来形成新的风险,风险社会由此形成。乌尔里希·贝克提出,在风险面前,科学负责“确定风险”,而人们依赖“感知风险”,这就导致了风险的科学界定与公众感受之间存在巨大偏差[1]。现代社会中,人们通过科学人为地界定了很多“标准”,自然灾害有风险等级,人为事故有伤害程度,也正是因为这些风险标准降低了人类对风险的敏感度。人类以科学界定风险,其实科学本身也会带来风险,在现代化风险社会里,科学带来的风险也亟须关注。
21世纪以来,人类步入一个互联网、大数据和人工智能共同发展的时代,人工智能技术的迅猛发展引起了社会的广泛关注。人工智能作为新一代信息技术,风险与收益并存,目前多以智能软件和智能机器的形式存在于人类的生产生活中。人工智能为社会经济转型升级提供了技术支撑,培育了新的创业创新机会,给人类生活带来了极大的便利,但是对于人工智能这种新兴技术,如果不加以引导和规范,任其野蛮生长,可能会破坏社会稳定,成为风险社会的重大隐患。因此,人工智能发展中已存在或未来可能出现的问题,迫切需要我们在风险治理的过程中加以重视、引导和规范。
人工智能概念的出现最早可以追溯到1950年图灵在《机器能思考吗?》中提到的“图灵测试”,该测试为测试机器是否拥有智能提供了一种方法。图灵作为计算机科学与人工智能之父,最早提出了他所理解的人工智能:如果一个机器在隔壁和人对话,这个人无法分辨他是机器还是人的时候,它就是人工智能。在1956年美国的达特茅斯会议上,麦卡锡首次提出人工智能概念,从此,人工智能成为一个专业术语出现在计算机等领域。麦卡锡认为人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。其实,人工智能是计算机科学与自然科学、社会科学的交叉学科,它是在数据计算的基础上研究如何使机器模拟、拥有甚至超越人的智能的、通过机器人等形态体现出来的一种科学技术。人工智能能够在各种复杂条件下完成人类甚至人类无法完成的任务,目的在于满足人类对于更先进的生产和生活的需求。
人工智能技术的不断突破和应用领域的不断拓展,使人工智能治理逐渐成为一个研究热点,人们在使用人工智能的同时会思考其带来的一些影响,我们必须做好应对的准备。对于人工智能治理的理解,学术界还有一定的争议,有能力说、过程说和方法说,但基本问题比较一致,那就是如何规范人工智能的发展,使其符合人类社会的预期。陈伟光认为人工智能治理是对人工智能研究、开发、生产和运用过程中可能会出现的公共安全、道德伦理等问题进行协调、处理、监管和规范的过程[2]。而汪亚菲等认为人工智能治理的核心是如何规制算法问题[3]。算法、安全、伦理、法律等问题是学者们特别关注的方面,人工智能治理的目标是引导和规范人工智能的技术方向,使其能够健康稳定发展,规避未来风险,促进人类经济社会稳步向前。因此,所谓人工智能治理,就是指通过政策、法律法规等方式,对人工智能技术及因人工智能发展而可能对社会秩序、伦理道德、价值观念和法律规则等产生冲击而形成的规制和管理。总体而言,人工智能治理主要涉及以下两个方面的内容。
第一,对人工智能技术的治理,保障人工智能技术系统安全、可控。目前人工智能按其应用可以分为三个阶段:一是弱人工智能阶段,指机器人只具备某项特定的认知和用途,如语音识别、人工智能翻译、扫地机器人等。虽然其用途单一,但是这一领域的发展最为迅猛,近年来已有大量弱人工智能机器人进入市场。二是强人工智能阶段,指具备人类认知水平的人工智能,能在同一系统内执行多个认知操作,目前这一阶段的研究还未取得较好的进展。三是超级机器人阶段,它的特征就是完全超越人类的认知,全方位强于人类。人类对机器人是否会毁灭人类的担心也来源于此。人们对于机器人的争论正是因为科技所处的阶段与思想所处的阶段不一致。技术是人工智能发展的基础,技术治理与管控的基本目标是保证系统安全可控。对此我国和世界上很多国家都已经出台了许多相关战略和规划,确保人工智能初始设计阶段就要在技术上严格把关,保证人工智能安全、可控。
第二,对人工智能产生的社会影响的治理。人工智能影响的对象是整个人类,所以针对人工智能的治理应该以人为本,确保人类的利益和主体地位。人工智能的社会影响问题主要是人的价值问题,尤其是人工智能的出现对人的政治和经济主体地位的挑战,表现在未来如何实现人机共处;人工智能的滥用也会带来人与机器之间的法律责任问题,人工智能的法律地位与责任如何确定;怎样确保人类在人工智能的发展过程中的主体地位。人工智能的伦理治理目标是要先确保人类的安全,机器不会取代、控制和伤害人类,以及机器如何遵循人类已有的道德和价值体系等[4]。尤其是近年来,人工智能的革新在大数据和互联网的加持下更加突飞猛进,人们对未来超级人工智能潜在风险的担忧和恐惧不断加深,要求政府治理人工智能带来的社会影响的呼声越来越高。
人工智能走进了每个人的生活,尤其是许多由人类才能胜任的复杂工作和那些人类无法承受、无法胜任的工作领域,人工智能机器扮演越来越重要的角色。越来越多的人意识到人工智能的发展随着人们对它的依赖程度不断取得新的突破[5]。科技发展带来社会红利的同时也给治理带来了巨大挑战,我国已有超过三分之二的人口进入智能网络空间,形成了巨大的治理场域。目前人工智能的发展给人类带来的挑战主要集中在技术、伦理、社会、安全和法律五个方面。
人工智能技术并非十全十美,人工智能的技术风险主要表现在三个方面:一是技术失控度引起人类的担忧。随着技术发展到一定程度,拥有思想可能不再是人类的专利,当人工智能学习能力不断延伸,获得超越人类的能力时,其可能会对人类的生存造成威胁,甚至取代人类[6]。这种风险假设机器和人类一样拥有了自主意识、创造性、情感和自我保护行为,那么人类在其面前将会毫无还手之力。二是人工智能技术缺陷导致的隐患。未来人工智能产品将会根据数据和算法自主进行学习,在得到计算结果之后实施行动,但没有人能保证在这个过程中不存在数据缺少或者纰漏,所以其依据计算结果的行动有可能会给人类的生命、财产带来损害。三是科学技术是由人创造出来的,则必然有其不足之处。人类是一个有自我意识的个体,其行为具有主观性,算法或者智能软件被设计出来就是为了达到设计者的初衷,而且人们不能要求一个技术人员在进行技术设计的时候放弃自己的偏好和情感,这也是未来科学技术要面临的一大难点。
与此同时,在治理过程中存在一些技术困难。一是人工智能技术本身没有统一的原理或范式指导人工智能研究,在很多问题上研究者都存在争论。并且技术更新换代速度迅猛,政府难以制定统一制度去规范人工智能研究。目前人工智能开发者众多且没有统一的组织,生产人工智能产品的企业规模大小不一,难以保证流入市场的产品质量。二是各国政府非常关注人工智能的发展,也注重社会信息的收集,但是人工智能正处于快速发展时期,信息更新的速度快、频率高,各国对信息的采集多是事后采集,对人工智能了解和认识的准确性、实时性还有待加强。三是人工智能技术在社会发展中风起云涌,属于自然科学、社会科学、技术科学交叉学科,涉及知识面广,掌握这一技术的要求较高。当前,信息技术在任何领域都起着非常重要的作用,信息的处理能力直接决定着组织的运行效率和成本,但我国相关人才缺口较大。
伦理是指人应该遵守的行为规范和道德准则,而人工智能面临的伦理挑战则是指如何处理好人和人工智能产品之间产生的各种关系。伦理主要关心的是在某个情况下某件事情正确与否,伦理是人类普遍具备的能力,但是人工智能并不会充分理解伦理。伦理风险主要体现在:一是是否承认人工智能的行为,人类在不同的事情中可能会犯错,如果人工智能也这样,人类能接受吗?比如机器人致害事件如何归责等伦理挑战问题,在人类自身遇到都无法解决的问题情况下,如何让智能机器人去选择[7],其做出的选择又由谁来负责?又比如智能机器人在手术上操作失败,医疗事故责任又将落在何处?二是人工智能是否要遵守人类道德,随着科学技术的发展,人工智能通过深度学习会发现隐含的价值观和原则,因而可以理解甚至很可能模仿。当人工智能的计算学习能力远超人类时,它可以在人类生产生活的各个方面各个阶段为人类提供建议,人类如何去判断人工智能的建议正确与否,人类该不该信任它们?这个时候人工智能是否需要人类道德规范,人工智能应载入谁的道德规范,又该怎样实现?三是当人工智能达到了人机共生的技术时,人们该如何对待这些超越人类智力的仿生机器人,是否应该赋予它们一些权利?这些已经发生或即将发生的伦理问题都是人们争论不休的焦点,是需要解决的现实挑战,也是人工智能治理成功与否的关键。
人工智能衍生出来的一系列产业创新、经济转型无疑为各国经济快速健康发展作出了重大贡献。人工智能具有提高生产力的巨大潜力,最明显的是,它可以帮助公司和人们更有效地利用资源,并简化人类与大量数据交互的方式,它还可以启用全新的业务模型和解决旧问题的新方法。当然,人工智能在带来发展机遇的同时,也带来了金融风险、行业垄断、劳务就业等负外部效应,这些负外部效应容易引发社会风险危机。一是人工智能一旦介入高风险的金融领域,其背后的大数据信息很有可能会导致雪崩似的金融灾难。在全球市场,拥有人工智能先进技术的企业为数不多,极有可能形成技术垄断态势,他们生产的人工智能及其产品可能会在短时间内,导致其他行业的破产或消失。二是机器替人的现象将越来越普遍,目前人工智能带来的就业冲击仍小于经济周期和行业景气带来的影响,但从长远来看,人工智能的发展可能带来产业结构的巨变。已经有相关学者研究计算出各行各业将被人工智能替代的年份,这加剧了人们对人工智能的担忧。三是人工智能的发展可能会加重各国尤为重视的人口失业问题,大量工厂机器人的开发与应用,大量单一、重复的工作被人工智能所取代,如亚马逊的快递机器人和我国的无人超市。智能革命对就业的最大冲击在于,它不仅仅取代体力劳动者,对脑力劳动者也会造成冲击[8]。在新一代信息化、智能化技术的推动下,人工智能技术逐渐应用于需要高学历及高智商的新闻、金融、医疗、教育、科研等领域,在其迅猛的发展中,如果国家和社会并没有做好相应的预防治理措施,可能会导致较多社会问题的爆发,破坏正常的生产生活秩序。
在对人工智能及其治理的研究中,大部分学者持乐观谨慎的态度看待人工智能的发展,也有部分学者认为人工智能会给人类带来许多威胁,比如引发世界大战甚至毁灭人类,这种观点显然过于悲观,但结合现实却也有其合理之处。人工智能治理面临的安全风险确实包含诸多方面,如数据安全、国防安全、社会安全等。人工智能基于大数据进行算法操作,因此存在泄露个人隐私、国家机密等安全风险,如经常发生的用户数据被窃取、军用人工智能武器的线路被入侵等。另外,网络信息安全威胁加剧,网络攻击形势将更加严峻,使人工智能的安全问题更加突出,人工智能的大数据分析能力一定程度上加剧了数据安全问题。人工智能运行的算法本身就是建立在数据的收集和分析之上,就像现在利用爬虫技术收集信息进行新闻推送,或者各种视频软件在媒体预设的框架内辨别用户的喜好进行短视频推送[9]。个人信息在智能时代早已不是秘密,每人每天几乎都能收到垃圾短信或者垃圾电话,手机上的智能软件在与人类进行信息交互时,或多或少都会导致个人隐私外泄。人工智能所带来的安全问题是至关重要的,其所带来的不仅仅是用户个人的信息安全问题,国家也有可能面临政治和军事安全威胁,人工智能的安全风险可能会给人类社会的和谐稳定带来灾难,人工智能时代的风险治理迫切需要重视人工智能的发展并提出治理措施。
21世纪以来人工智能技术的迅猛发展,极大地冲击了现有法律体系和社会治理方式,人工智能产品法律主体界定和责任划分等方面的法律法规的滞后性,可能影响相关产业发展,同时也会带来巨大的法律风险。一是确责问题。比如在智能机器人致害事件中人类能否起诉机器人?现在各国都在研发无人驾驶,也产生了一系列法律问题,无人驾驶的汽车与人类驾驶的汽车相撞发生交通事故,若无人驾驶汽车的驾驶模式无明显瑕疵,其他参与方均无过错,事故最终由谁来负责?这就产生了法律责任的划分与承担、对人工智能的法律界定、人工智能能否以人的标准被问责等问题。从法律上来说,无过错就无责任,那么执行系统运行程序的人工智能如何认定责任便是一个难题。二是法律失效困境。在人工智能时代,人们是否还有必要参与立法?法律能否保护人们的权利?在人工智能的环境下,每个人的习惯、性格、偏好等都牢牢掌握在技术人员的手里,这种情况下为了强调技术效率,忽视社会参与和社会公平,将烦琐的立法程序、立法调查方式抛弃,普通民众的需求被等同于抽象的数字,将失去参与民主的途径[10]。传统的法律规则虽然有着程序复杂、效率不高等不足,但若是一味地用硬规则“被民主”,会使法律逐渐失去其权威性和民主性。三是“知情同意”现象。网络服务者虽然告知了用户获取权利的条款,但是这种条款相当于霸王条款,只有让渡自己信息之后才能获得相应的网络服务。最常见的莫过于下载智能软件后,如果要进入主页就必须点击各种授权条款的“同意”,使个人资料、通讯录信息被人工智能机器读取。那些条款用户无法选择,企业却可以借助条款合理地规避法律风险,造成格式条款的实质性作用缺失,那么对个人隐私的保护就流于形式。这些硬性规则在很大程度上剥夺了人们保护自己隐私的权力,破坏了整个社会正常运转的民主秩序,引发法律失信失语现象。
人工智能时代的到来,加剧了社会治理的风险,对此国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南,强调了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理的八条原则[11]。这些治理原则无不是人类在面对如火如荼的人工智能发展态势和对人类命运的期待与担忧之下,寻求二者平衡的举措。人工智能的发展应以维护风险社会的稳定和人民的幸福生活为前提,这也是人工智能治理的呼声日益高涨的原因。人工智能治理涉及每一个人,为实现负责任的人工智能,应从不同维度探讨风险治理举措。
掌握最先进的人工智能技术无疑拥有了强大的话语权,对此,美国较早提出将人工智能技术上升到国家战略层面。我国也非常重视人工智能技术的发展应用,早在2015年就提出将人工智能纳入国家级的优先发展领域,连续几年将人工智能的发展写入政府工作报告,推动人工智能与互联网、大数据的深度融合,成为我国经济健康稳定发展的新增长点和新动能[12]。对于人工智能的发展,要明确政府的支持和引导作用,借助国家强制力实现对其进行规范化引导。
第一,建立起制度化的人工智能设计和运作机制及技术防控措施,推动建立完善统一的行业准则。将人工智能的发展上升到国家战略层面已是世界各国的共识,政府相关部门应及时建立与各研究平台、核心企业的产学研合作机制,制定标准化的人工智能规范和认证体系,确保进入市场的是符合生产和使用伦理规范的人工智能产品。国家可为人工智能治理的跨学科研究提供资金支持,并且利用人工智能技术提升自己的社会管理和治理水平,建立人工智能技术成果推广体系,打通人工智能与社会之间的联系与沟通,加深政府公职人员和普通群众对人工智能的了解与运用。人工智能是人类智慧与利益的结合,如果说企业开发利用人工智能的目的是获取利益,那么在商业价值和数据安全、公民隐私之间,如何规范企业行为则在很大程度上影响了数据隐私安全。政府推动建立完善统一的行业准则,加强企业的社会责任宣传,推动人工智能行业自我净化和自我规范。
第二,利用技术控制和保护数据,建立技术开发应用的监管制度。比如,使用输出扰动法或同态加密模式解决公民对信息安全的担忧。运用输出扰动法在输出结果中加入相应的干扰,从而避免原始结果直接输出;同态加密是在数据处于加密状态下,使用密文对数据进行运算后再对结果进行解密从而得到和明文进行相同运算的结果,同态加密是一种最直接有效的数据保护技术[13]。建立健全人工智能开发应用的监管制度,加强开发者对人工智能自身技术缺陷的监督,规范开发者的行为[14],同时鼓励公众在应用环节的监督,预留应急风险方案,减少危机事件带来的损失。人非圣贤,如果对于技术人员没有相关规则约束和监督,没有人能预料这种强大的人工智能技术会带来什么灾难,所以加强开发应用的监管势在必行。
人工智能在未来将深度进入人类的生产生活之中,那么人与人工智能是一个什么样的关系,人工智能在人类社会中的地位和责任如何确定,如何保证人的主体地位不受影响?人类的主体地位和自我判断力要得到很好的保留,人们就必须具备人工智能的知识,了解其运作的机制及优缺点,以保持相对审慎的态度对待技术的冲击[15]。加快普及人工智能认知教育,使人们能够正确认识人工智能,并积极参与到开发和使用中去,拥有识别正确信息的能力和态度。
第一,明确人工智能使用责任的划分。从更深层次来看,伦理规范是技术、法律与其他相关原则的基础。人工智能不同于传统技术,其具有自主学习和决策能力,如果责任划分不明确,将会出现“机器替人”的现象,导致多方主体的利益受损。所以应当加快建立人工智能在设计、制造和使用中的归责制度,明确人工智能创造者、生产者、使用者和消费者之间的权利和义务,健全相应的责任追究制度,以防在现实使用中出现互相推诿和技术依赖风险。在人工智能的未来发展中必然会出现人工智能为人类做出决策的情况,这并不意味着人类可以放弃自己应负的责任而归咎于人工智能,而需要在人与人工智能的合作中重新界定各方利益。
第二,加强自身伦理道德的规范和教育。人工智能是人类智慧的产物,建立全覆盖的伦理教育与技术培训体系,为符合伦理标准的人工智能产品的推广提供道德和智力保障。首先,可以在学校的教学系统中加入伦理教育和人工智能知识普及,学校的知识普及往往能达到比较理想的效果。其次,要加强对技术人员的伦理教育,使其能够自觉地将人本理念融入人工智能的开发与选择中。人都是有主观能动性的,要加强对技术人员的伦理道德培训,使其树立正确的世界观、人生观、价值观。最后,加强对政府公职人员的培训。政府工作人员作为政府推广人工智能产品的前沿助手,是人工智能推广的直接动力,因此要使其在知识、道德、态度等各方面满足推广的要求。
相比人工智能的蓬勃发展,各国关于人工智能方面的法律法规制定具有一定的滞后性和不足。因此,各国应尽快健全相关的法律法规,限定人工智能技术的法律边界,防止有人扛着“法无禁止即可为”的名号打法律的擦边球。
第一,健全人工智能数据安全的法律法规,推动人工智能有序健康发展。应积极出台相关法律法规,重点加强对人工智能技术涉及的个人隐私、电子商务、无人驾驶等领域的立法工作,完善促进人工智能健康发展的法律框架。对此,我国颁布和出台了许多相关法律,比如《电子商务法》《个人信息保护法》《数据安全法》等,这几项法律都曾在全国人大常委会立法规划中被列为一类项目,表明人工智能治理的立法工作具有现实紧迫性。政府部门和监管部门也纷纷出台了相应的规章制度,积极响应本领域人工智能的监管需要。
第二,规范人工智能技术发展的法律边界。防止“法无禁止即可为”的滥用,限制一些破坏性的人工智能发展,比如无人机、杀人机器、黑客入侵等,加大对破坏人工智能健康发展的惩罚力度。健康有序的行业需要法律的规范,法律法规的制定为人工智能技术的发展扫除了制度障碍,减少社会的负面影响。法律法规的制定原则应该包括有序、创新、公平,人工智能是新兴技术,其规制应该充分包容创新性的开发和利用。同时,加强对技术开发者、制造者和使用者的法律责任规范,明确他们的主体责任义务。
构建多元主体合作共治的人工智能治理模式,搭建各方主体参与人工智能治理决策的平台,通过网络调查、民众倾向性预测、意见征集等方式,让不同层次和诉求的主体了解、参与人工智能治理的决策和修订过程。今天人们要面对的已经不是是否接受人工智能的问题,而是如何以科学理性的方式运用人工智能技术造福人类。人们应该提早研究如何应对人工智能带来的各类社会风险问题,人工智能的不同类型、不同行业甚至不同发展阶段所需要的政策支持、行业规范和伦理制约都是不一样的,这就需要政府、市场和公民等多元主体协同合作、共同参与,从而构建多层次、多样性的治理模式。对于搭建人工智能治理多方参与模式问题,我国已有相关实践探索,比如2017年我国成立了新一代人工智能发展规划推进办公室,目的是推进新一代人工智能发展规划和重大科技项目的组织实施,各高校、科研院所和企业专家也组成人工智能相关委员会,为国家人工智能的部署和实施提供咨询,这些措施促进了我国人工智能治理的健康发展。人工智能的发展应该协同共治,加强不同主体之间的相互协调,共同推进人工智能健康发展体系。
人工智能治理更重要的一点在于从整体性、全局性的政策层面进行全球协商,对人工智能技术的发展节奏和相关社会变革做出相应的战略部署。受“经济全球化”开放性的发展,人工智能的影响是全球性的,人工智能的进步主要由民族国家和跨国企业推动,人工智能技术的跨国流动性、社会渗透性很强。人工智能的重要性不言而喻,各国政府都出台相应政策以期在本国范围内促进人工智能技术的快速发展,但是全球各国的发展阶段、政治制度、经济发展程度不同,很难保证人工智能技术的发展节奏和发展方向一致,加之有些大国为了自身利益采取封锁人工智能研发技术等手段,这既不利于全球技术创新合作共赢,也不利于共同应对人工智能的风险。如何掌握技术的发展节奏和方向,如何制定相关标准,如何搭建共享合作平台,如何共担人工智能风险责任等问题,都需要各国在平等互助的基础上加强国际合作,实现信息共享,共同构建全球人工智能治理体系。