当前,人工智能发展进入新阶段,国务院在《新一代人工智能发展规划》(以下简称《规划》)中指出,人工智能将深刻改变人类社会生活、改变世界。推动人工智能安全发展至关重要,应着力构建安全发展战略,将人工智能安全发展提升到与人工智能科技研发、成果应用、市场推广同等重要的位置,研究制定有关法律法规和伦理准则,这不仅是深入贯彻中共十九大精神,夯实人民安全感、提升人民幸福感的重要举措,也是推进《规划》实施的必要条件。
人工智能发展的不确定性带来新挑战。人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。当前,我国人工智能安全发展需要关注的问题主要有以下几点:
(一)《规划》未提出人工智能安全发展。《规划》提出了新一代人工智能发展的基本原则,即科技引领、系统布局、市场主导、开源开放,没有将安全作为发展基本原则之一,对人工智能安全发展的重视不够。
(二)伦理研究缺乏大众参与。如果伦理研究过程中没有全社会的共同参与,没有吸纳人工智能这个特定场景下的伦理道德认识,则出台的政策和规划不易获得社会认同。
(三)舆论引导不及时。著名物理学家霍金认为,强大人工智能的崛起,对人类来说,可能是最好的事情,也可能是最糟糕的事情。目前,有舆论认为,人工智能如果诞生自我意识可能导致机器反抗人类、网络主权失控,替代人类工作将导致失业率上升,这些观点已经在部分群体中产生很大影响,需要引导和纾解。
在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。
(一)制定《人工智能安全发展纲要》。建议国家层面建立人工智能安全发展战略,结合《规划》,制定《人工智能安全发展纲要》,阐明人工智能安全发展的战略意义和内涵,明确战略目标、指导思想和发展原则,对人工智能安全发展进行总体部署。
(二)有序制定人工智能安全发展的法律法规和伦理道德准则。采取“政府主导、专家主体、公众参与、社会协同”方式,深入研究人工智能安全发展战略,针对不同环节和应用场景,明晰不同主体的责任、权利和义务,制定有关的政策、措施和法规、标准,划定人工智能安全发展的边界;邀请社会公众参与伦理道德准则的研究和制定;对人工智能科研团队和科研人员开展相关伦理道德知识普及工作,发挥伦理道德柔性约束作用,打造人工智能安全发展的关键防护网;在市场推广和应用环节,建立安全评估和市场准入机制,没有通过安全评估的技术,不得投放市场应用;加强国际合作,促进数据共享,为人工智能安全发展拟定更适合我国的法律条文和社会伦理道德标准。
(三)创新加快科学普及,强化舆论引导,净化人工智能安全发展的环境。传递正能量,引导人们科学认识人工智能的发展方向和取得的成果。针对“人工智能安全吗?”“无人驾驶的地铁敢坐吗?”“我会失业吗?”等部分公众的恐慌心理,强化舆论宣传、科普、引导等工作,消除误解,打消疑虑,营造安全稳定的社会氛围。以人民群众喜闻乐见、容易接受的方式进行引导,提升全社会的科技认知水平。普及人工智能安全使用规范,促使人工智能更好服务人类。