颜 可 陈 滢 邱 楠
(重庆大学,重庆 400030)
随着科技的发展,人类已进入智能时代,人工智能俨然已成为新一轮产业变革的核心驱动力,成为各国竞争的焦点。人工智能在移动互联网、深度学习、大数据、云计算、脑科学等新理论新技术的驱动下,迅速发展,呈现出人机协同、跨界融合、深耕细分、群智开放、自主操控等新特征,对经济发展、社会进步、人类生产生活方式、国际政治经济格局等方面产生重大而深远的影响。同时,也带来了各种“创造性破坏”、难题和挑战,使得制度体系、运行机制、规制方式和社会秩序等面临着很大程度的“颠覆”,甚至“重建”,其引发的社会风险将给当下的法律规则和法律秩序带来一场前所未有的挑战。要保证人工智能技术安全、可靠、可控的发展,从技术、伦理和法律三个路径,进行前瞻预防与约束引导,最大限度降低风险,构建符合人工智能运作基本逻辑的规制体系和国家新型治理体系,推进国家治理体系和治理能力现代化,“不断提升人民群众的获得感、幸福感和安全感”。
人工智能是计算机科学的一个分支,目前学术界对人工智能尚无统一的定义,根据众多学者的表述,可以理解为人工智能是计算机依据设定的学习策略,通过读取海量的“大数据”,利用自然语言处理、图像识别、音频处理等技术,从中发现规律和联系,实现预测和决策,生成多种解决方案。近十年来,人工智能的发展突飞猛进,赛迪智库的研究认为人工智能从专用智能向通用智能发展、从人工智能向人机混合智能发展、从“人工+智能”向自主智能系统发展、人工智能将加速与其他学科领域交叉渗透,人工智能产业将蓬勃发展、欣欣向荣,将推动人类进入普惠型智能社会。人工智能与多学科领域和行业交叉渗透,催生了许多新兴产业,深刻地改变着人类社会关系。
人工智能在带给人类巨大进步与福利的同时,也带来了不可忽视的“伦理风险、极化风险、异化风险、规制风险和责任风险”。数据信息采集应用可能侵犯公民隐私;医疗机器人的应用可能引发新的医疗事故责任问题;护理、陪伴机器人等人机交互产品可能带来情感依赖;人工智能的算法偏好可能加剧社会偏见或歧视;机器的深度学习,不受人性和道德约束的算法黑箱,可能作出威胁人伦的选择;无人驾驶汽车紧急避险等智能决策可能引发“道德悖论”;传统的职业和岗位也正在被机器人所代替,引发失业潮。人工智能的发展已经渗透到生活的方方面面,对人类的主体地位和交互模式、国家的民生事业与社会治理方式都产生了深远的影响。
人工智能发展过程中的风险主要体现在以下几个方面:第一,大数据的“全体性”“混杂性”及“相关性”带来了风险的不可预测性和全球性,追求数据的大而全,忽视了数据的相关性,可能导致推演结果的混乱;第二,算法的不可预见性也直接导致了风险的不确定性,导致风险失控。人工智能决策系统不受预置的价值观念、经验法则、道德法制等因素的制约,“算法黑箱”使得无法控制或预测指数级升级的人工智能的决策过程及决策结果,机器自主选择的方案可能与人类“福祉”背道而驰,甚至带来毁灭性结果;第三,人工智能研发的隐秘性和分散性加剧了风险集聚性,催生了风险的全球化。人工智能的研发只需一台电脑或一部智能手机即可,随着互联网的发展,数据的跨境流动将更为便利,物理上的隐秘性和分散性给政府监管带来了前所未有的难度。[1]
人工智能技术高歌猛进,离不开法学理论的更新、具体法律制度的完善和法律伦理的同步发展。要预防AI带来的危险,并不仅仅是要制定新的法律,还要在法治中创新理念,拓展外延,将法律伦理上升为法律条文,遵循人工智能发展的规律,利用标准化的技术,对未来科技发展进行具有前瞻性的布局,在立法、执法、司法及社会治理的过程中,贯穿人工智能的决策方式和借助人工智能手段,促进人工智能和法律法规的良性互动。
第一,创建以技术标准法制化为基础的风险防控机制。
我国应及时制定与人工智能相关的基本技术标准,应严格人工智能共享数据平台、技术平台及相关服务平台的准入和创建规则,构建权威性的平台,做好算法的开源与保护。将技术研究作为源头进行规制,进而最大限度地对技术产生的负面效应或副作用进行预防。将安全评估和技术风险防范作为人工智能发展规范的重要内容,尤其是要加强对算法的规制,实现算法透明性和可责性的统一。设置人工智能的禁区,对人工智能的研发、使用和传播行为建立限制机制和禁止性行为准则。
人工智能涉及知识面广,我国应组织政府人员,社会治理、计算机技术、法律等领域专家学者及产业界人士组成专家小组,参与编撰机器人宪章,将行业规范和行业标准上升为国家法律和技术准则,规范人工智能的研发、生产和使用各环节的标准化流程。[2]
第二,建立以伦理为先导,倡导人类和谐发展的法律价值目标。
就人工智能社会关系的调整而言,伦理道德规范能够产生先导性的作用。这本质上是法律规范自身的局限性导致的,法律规范是基于现实生活、基于人们的具体行为形成的,且立法过程繁琐、耗时,因而相比社会发展速度来说,总是处于相对滞后境地;而伦理道德规范可以通过对人们思想的约束,实现先行和预设,进而能够对已变化或可能变化的社会关系及时作出反应。
构建人工智能伦理道德规范体系,主要包括:第一,要设计伦理道德规范框架,为机器人、人工智能产品的应用预设道德准则。人工智能不管发展到什么阶段都应将“为人类服务”作为初衷,将人类的安全、地位和权利放在首位。第二,要强化科技专家的社会责任,为人工智能研发、应用提供道德指引。将透明性和可责性、可靠性和安全性引入设计理念中,强调开发者的社会责任,重点培育高水平人工智能创新人才和团队,提升科研人员和相关的从业人员的道德伦理水平。第三,全面提高全社会对人工智能的整体认知和应用水平。让公民熟悉和掌握一些基本的人工智能知识和技术,以提高民众的风险意识和对人工智能产品的控制能力,在道德伦理的框架下使用人工智能产品,并形成全社会对人工智能产品和技术发展的正向监督。
第三,健全人工智能监管体系和制度,建立社会风险分担责任保障制度。
设立人工智能专门监管机构,赋予其强有力的监管职责,确立政府与社会多方联动的人工智能监管模式,建立协同共管,实现自律与他律、全方位多层次、动态监管与智能化监管相结合的方式,加强市场准入和退出机制建设,实施实质审查、分类公示登记和强制召回制度,建立持续风险评估和抽查检测制度,健全事前备案、事中授权、事后惩处等行为准则,为人工智能技术的健康发展提供多方面的法律、制度保障。我国还应该建立人工智能伦理委员会等机构,专门负责人工智能的伦理监管等问题,引入伦理审查机制,对人工智能的应用开展跨领域的监测与管理,以保证能够全方位地促进人工智能良好有序发展。[3]
人工智能的风险防不胜防,在责任难以划分的情况下,我国还可以建立强制保险制度与专项赔偿基金制度,来分散和化解风险。要求为每一个进入市场的人工智能产品购买强制保险,设立强制保险制度可以转化个人责任为公共责任,维护公共安全,给社会公众以基本保障,同时还可以有效削弱公众对新技术可能造成不可预料危险的恐慌,减少排斥心理,有利于产品的普及和发展。我们还可以考虑设立基金制度,建立专项赔偿基金账户,资金来源可以包括专项税收、政府补助、人工智能产品利润、社会捐赠等,从而保障未来侵权行为发生后的责任承担问题。
人工智能时代是机遇与挑战共存的时代,我们应该增强风险意识,应该增强对人工智能技术发展的研判和预测,更好应对人工智能技术可能导致的风险失控和伦理挑战以及引发的社会问题,让人工智能更好地为人类服务。我们要以处理好“善治”与“善智”的关系作为推进人工智能社会建设的重要前提,以实现“负责任”的人工智能为发展目标,我们相信通过各国政府、组织、产业界、社会公众的协同努力,共同抑制风险,终将实现人类文明的繁荣发展。