产业政策法规研究所
人工智能主要政策和制度
人工智能的迅速发展深刻改变着人类的社会生活,推动经济社会各领域从数字化、网络化向智能化加速跃升。习近平总书记多次就人工智能做出重要批示,指出人工智能技术的发展将深刻改变人类社会生活、改变世界,要求抓住机遇,在这一高技术领域抢占先机,加快部署和实施。 2017 年 《政府工作报告》指出,要加快人工智能等技术研发和转化,做大做强产业集群。党的十九大报告也提及处理好人工智能等新技术与实体经济的关系,发展现代产业体系。
2017年7月,国务院发布了《新一代人工智能发展规划》,指出新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升。面对新形势新需求,必须主动求变应变,牢牢把握人工智能发展的重大历史机遇,紧扣发展、研判大势、主动谋划、把握方向、抢占先机,引领世界人工智能发展新潮流,服务经济社会发展和支撐国家安全,带动国家竞争力整体跃升和跨越式发展。
2017年12月,工业和信息化部配套印发《促进新一代人工智能产业发展三年行动计划(2018-2020年)》,确定以信息技术与制造技术深度融合为主线,以新一代人工智能技术的产业化和集成应用为重点,推进人工智能和制造业深度融合,加快制造强国和网络强国建设。力争到2020年,实现人工智能重点产品规模化发展、人工智能整体核心基础能力显著增强、智能制造深化发展、人工智能产业支撑体系基本建立的目标。
2018年4月,教育部配套出台了《高等学校人工智能创新行动计划》,强调要加强人工智能领域专业建设,推进“新工科”建设,形成“人工智能+X”复合专业培养新模式。到2020年建设100个“人工智能+X”复合特色专业,推动重要方向的教材和在线开放课程建设。到2020年编写50本具有国际一流水平的本科生和研究生教材、建设50门人工智能领域国家级精品在线开放课程、建立50家人工智能学院、研究院或交叉研究中心,并引导高校通过增量支持和存量调整,加大人工智能领域人才培养力度。在职业院校大数据、信息管理相关专业中增加人工智能相关内容,培养人工智能应用领域技术技能人才。
此外,大部分省市也积极出台人工智能发展计划等政策,积极谋划新一代人工智能产业在时间和空间上的战略布局,加快推进人工智能与经济、社会、产业的深度融合发展。
人工智能主要情况
在中央政府的顶层设计下,人工智能技术发展迅速。百度、阿里、腾讯等互联网巨头已经在世界范围内成为人工智能领域最顶尖的一批参与者,数百个初创公司在不同的人工智能细分和应用领域建立了服务模型。首批国家级人工智能开放创新平台已经建立。智能物流信息系统出现,使得物流运输变得更加高效、灵活和智能。无人零售店落地,用户通过身份识别后可以自由购物,离店时实现无缝结算,零售服务高效便捷。人工智能还在智能可穿戴、智能语音、智能家居、智能金融等很多行业深度融合,不断涌现新服务、新产品。人工智能正在加快推动个性化、多样化服务的业态升级。
在智能机器人领域,工业机器人的应用领域不断延伸,从汽车、电子行业延伸到纺织、物流、国防军工、民用爆破、食品、原材料等行业;服务机器人在智能家居、娱乐教育、安全健康、信息服务等方面应用广泛,一批产研深度结合的优秀企业不断涌现。人工智能在改变社会经济生活的同时,不可避免地带来一定的法律和伦理问题。
一. 人工智能技术的发展存在不确定性。人工智能技术尚处于不断发展的过程中,隐私问题是技术发展过程中的主要问题之一,在人工智能技术成熟之前,技术缺陷极有可能存在侵犯隐私的风险。而且,如果带有偏见的数据进入系统,必然会带来歧视性结果,直接给人类社会安全带来隐患。另外,如果人工智能技术的创新者罔顾科技伦理的约束,将人工智能技术进行有伦理争议的或不正当的行为,必然会给社会公共利益和公共安全带来巨大的潜在威胁。这些不确定性都会使人们对人工智能产生顾虑。
二.个人数据和生物信息保护存在风险。人工智能时代,随着人工智能技术大规模应用,智能设备和算法对于个人隐私的发掘分析能力远超以往技术,隐私所有权人防范难度大大增加。在不需要权利人主动透露任何涉及隐私信息内容的情况下,智能算法拥有者就已精准的掌握了权利人的隐私。权利人不但在无意识的情况下可能透露出自己的隐私,在有意识的隐私防护判断中,权利人理解的情况也与真实情况相差甚远。主要表现在三方面:一是智能设备和算法对于个人隐私的发掘分析能力远超以往技术,隐私所有权人防范的难度大大增加。二是用于身份识别验证的生物信息具有较强的稳定性,一旦发生泄露无法找回或重置,生物信息的价值大大减损,且与个人生物信息绑定的相关安全验证都将面临很高的安全风险,目前对生物信息安全问题关注远远不够。三是个人行为数据被智能设备和定位系统记录、存储和分析后会全面呈现个人的行为偏好、习惯和生活状态,目前只规制“出售或提供行踪轨迹信息,被他人用于犯罪的”情形,其它领域行为数据如何保护尚缺少相应规定。
《最高人民法院、最高人民检察院关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》(以下简称为《解释》)中将“公民个人信息”定义为以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人身份或者反映特定自然人活动情况的各种信息,其中包括了行踪轨迹。行踪轨迹等个人行为数据的价值和意义不易被权利人感知,因此大多数人不会像保护个人隐私信息一样保护个人行为数据。《解释》将行踪轨迹与各类身份信息、账号密码进行基本同等保护,但是对于“出售或提供行踪轨迹信息,被他人用于犯罪的”情形是出于刑事审判的需要,在其它领域行为数据如何保护的问题,尚缺少相应规定。人工智能技术对于人类生物信息的识别能力越来越强,指纹、面部、视网膜识别技术应用日益广泛,应用场景越来越多,但是这些生物信息的信息安全状况堪忧。我国尚缺少法规和标准规范生物信息的采集、存储、使用和监管等问题,在大量生物信息被使用、传输的场景缺乏足够的安全保护,识别和存储设备安全等级低,易发生生物信息泄露。而且目前尚缺少生物信息侵权规范和权利救济途径,生物信息滥用问题隐患颇多。
三.人工智能创造物权属不明。以微软小冰为代表的人工智能程序已经创造了大量作品,包括文学作品、音乐作品、美术作品等,这些作品在不考虑创造者因素的情况下,完全符合著作权法规定的“作品”的形式和实质要求。人工智能创造的一些作品从质量上看,堪比人类作品,而从数量和创作速度来看又远超人类水平,这些作品已造成了一定的社会影响,且会随着人工智能技术的发展产生更多的影响,需要法律进行规范。在人工智能作品影响日益扩大的今天,此类作品权属不明会带来一系列问题。在权利配置方面,权属不明就无法确定发表权、署名权、修改权、保护作品完整权等人身权利的所有者,“作品”无法得到充分的法律保护,相应的人工智能创造者、所有者等人类主体的权益也可能受到损害;作品的使用权、许可使用权、转让权、获得报酬权等财产权利无人行使或者会因权利归属不明产生纠纷,一部分社会财富的归属会处于不确定状态。在侵权责任方面,由于权属不明,如果人工智能作品被他人侵权,会面临受害者不明的情况;如果人工智能作品侵犯了他人的著作权,也会出现承担侵权责任的主体不明的情况。这些情况都不利于相关权利主体的权益保护,一定程度上会增加著作权纠纷的风险。根据现行著作权法的规定,作品的构成要件主要有四个:一是要求该作品为文学、艺术和自然科学、社会科学、工程技术领域相关;二是可复制性,即具有某种有形形式可以复制;三是独创性,亦称为原创性;四是智力成果。现在人工智能创作的诗作等作品,已经满足著作权法上关于作品的要求。由于智能机器人不具有法律人格,因此智能机器人的作品不能拥有著作权。
人工智能政策需求分析
一.制定算法法律法规,抢占人工智能战略制高点。算法是人工智能的核心,决定人工智能的决策程序、价值取向和发展方向,我国应尽快制定算法法律法规,抢占人工智能发展的战略制高点。以算法为规制对象制定法律法规,约束和规范算法设计及决策等行为。包括制定对算法的审查规则以及把部分伦理规范融入法律规则,强化对算法设计者遵循社会伦理道德的法律约束力。加快推动算法伦理道德规范出台,厘清算法伦理道德规范和算法法律的界限。
二.制定标准,强化人工智能系统安全。可靠的人工智能系统应具有强大的安全性能,能够有效应对各类恶意攻击,法律可以考虑通过安全标准、安全评估义务等规范达到强化系统安全的目的。一是提高人工智能产品研发的安全标准,从技术上增强智能系统的安全性和强健性。二是推行智能系统安全认证制度,对人工智能技术和产品进行严格测试,增强社会公众信任。三是强化安全评估义务主体责任,针对人工智能应用场景和应用重要程度的不同,有针对性地制定技术标准和评估方案,满足不同系统安全风险与保障的差异化需求。
三.制定人工智能伦理准则,把控技术发展方向。建立人工智能技术发展的伦理准则,有助于指导机器人设计研究者和制造商对机器人做出道德风险评估,并形成完善的人工智能技术研发规范,确保人工智能系统的行为符合社会伦理道德标准。
系统设计者的道德责任观,决定着人工智能技术的发展方向和应用效果。正如爱因斯坦对科学技术的评价:科学技术究竟是给人类带来幸福还是带来灾难,全取决于人自己,而不取决于工具。所以,要帮助系统设计者树立正确的伦理道德观,在算法和设计源头加固道德性,避免算法歧视,更客观、积极地影响人工智能判断道德上的对错和是否应当。
人工智能技术发展的初衷是造福人类,必然要求人工智能系统的行为能够符合人类社会的伦理价值观念。一是,在系统设计和研发阶段,企业将人工智能伦理价值算法嵌入编程语言,让程序语言融入伦理规范,实现人工智能人性化、理性化的服务。二是,对技术创新者进行严格的规范约束,避免设计出不符合人工智能伦理的产品,及所带来的负面社会影响。三是,定时评估系统的规范和价值的有效性,即是否和现实的规范与价值相一致。这样,不仅使系统的设计符合人工智能伦理规范,更让创新者主动承担起相应的伦理责任。
尽快把人工智能伦理规范教育引入人才培养体系。统筹整合人、财、物各种资源,依托智能设备平台,围绕智能服务内容,加快建立健全人工智能伦理规范体系。开设跨学科、跨领域的人工智能伦理课程,把伦理规范教育作为人才培养体系的重要内容。
四.加快个人信息保护立法,确保个人隐私安全。目前,我国的个人信息保护法还在制定过程中,尚未出台。有关个人信息保护的法律条文散见于民事、刑事等诸法律中。要加快个人信息保护法的立法进程,在该法中用条文明确宣示个人信息的人格属性和财产属性。同时,利用侵权责任法向侵犯个人信息者提起民事赔偿,利用刑法对不法分子提起刑事制裁。从立法和执法两个方向着手,增强对个人信息的保护。
针对人工智能技术应用的不同领域,收集个人信息的来源,构架出一套自下而上、逐层具体、全面完善的隐私权保护的法律。一是对于个人敏感信息,明确列举哪些信息属于个人敏感信息,需要采取特殊的保护手段和使用限制予以保护。二是对于需要采集和存储个人信息和数据隐私的单位和个人,在采集和存储前应当明确告知信息主体,特定范围的信息需要取得信息主体的明示同意。三是明确规定可能会给信息主体造成一定风险的个人信息和数据的获取的正当性和必要性条件,规范信息获取行为,降低信息和数据被非法获取和使用的风险。
五.通过调整作品的含义,保护人工智能创作物。《计算机软件保护条例》中的创作指独立开发,包括实际组织、进行开发和提供工作条件。这并不完全是智力活动,还包括与程序开发有关的组织、管理和提供工作条件等辅助性活动。版权法中独创性的认定,应当以客观化为判断标准,通过调整作品的含义,将人工智能创作物纳入作品的范畴。以作品是否具有“足够可区分的变化”为标准来判断其独创性,如果人工智能创作物符合作品独创性要求,应该赋予其作品的法律性质。第一,从思想表达的角度,人工智能创作物所要表达的来自编程者所赋予的数据类型和模型算法。第二,虽然人工智能作为编程者的创作物,其本身属于权利客体和权利支配的對象,如果不赋予人工智能创作物作品的法律性质,社会将产生大量的“无主作品”,既不利于激励新作品的创作和人工智能技术的发展,也无益于著作权市场的合规性和稳定性。