关于人工智能法律规制系统的构建探索

2022-10-27 02:32王庆德
电脑知识与技术 2022年26期
关键词:人工智能法律发展

王庆德

(国家信息中心,北京 100038)

国家“十四五”规划明确指出,把“人工智能”规划置于需要国家重点扶持突破发展的九大科技前沿领域任务之首,要大力培育壮大人工智能产业。近年来,由于国内外工业互联网化与全球工业大数据产业的持续蓬勃高速发展,人工智能技术运用已经逐步成为全球社会科学技术研究的热潮。在世界百年变局面前,如何有效利用当前新时代我国推进自主创新人工智能产业创新体系发展战略的强大自身综合优势,在推动世界人工智能治理发展的相关领域的国际规则标准制定上更加占据市场主动,拥有更多国际化竞争的话语权,是加快提升我国综合国际竞争力的一项重要内容,也是当前我国积极主动参与全球智能治理体系改革和建设,特别是推动全球环境治理,实现碳达峰、碳中和目标的重要途径。

目前,人工智能科技在给我们带来很多便利的同时,也有可能造成很多破坏,因此需要政府与社会各界认真地思考并形成健全的法律制度体系。在当代,一些西方发达国家已经开始从经济政策上鼓励逐渐地转变成市场经济制度的应对,如美国《人工智能管控法案》、英国《大数据保护法案》以及德国《个人信息保护法》等。在此国际潮流的影响推动下,2017年我国也颁布实施了《新一代人工智能发展规划》,属于政府政策规定范畴,明确提出了工业4.0“机器人革命”及“万众创新”等理念与想法[1]。但随着人工智能科技日新月异的发展变化,“人类—机器人”关系问题所引起的各类立法、经济政策和伦理问题迫切地摆在我们的眼前。本文将针对传统法律制度进行深刻反思,初步探索新一代人工智能法律规制问题,提出相关建议。

1 国际研究的发展现状

根据美国《人工智能未来法案》,个人隐私在发展人工智能技术的过程中得到保护,这要求立法当局加强对算法设计与使用、算法透明度和用户知情权的要求。同时,在美国刑事诉讼案件的应用技术领域,算法已经得到广泛运用,用来有效预知个人何时会再次犯罪,以及个人是否能够到庭,进而影响司法定罪、判决判刑和保释。但关于这种算法,在计算的相对正确性、算法须考虑的不相关社会生活影响以及算法本身的正当程序三个关键问题上引起了广泛程度的争议。

欧盟的《一般数据保护条例》对用户数据采集行为的限制则强调了源头保护的理念。这一条例保护数据信息主体,使其得以避免因算法做出自动决策。这一立法理念,直接限制信息收集者利用算法的权利,也对其滥用免责条款规避法律责任的风险进行有效的控制。通过在根源上保留大数据分析的行为,确实能够有效地减少了大数据过量或不合理地处理大数据分析的可能,但同时也要在保护用户隐私和鼓励数据收集者利用数据发展新技术之间进行很好的权衡,在保护数据安全的基础上,尽可能支持数据收集者合理利用数据进行技术升级。而欧盟的发展进程也确实把握了新一代人工智能的实质,而一切的新一代人工智能,都是构建在算法和算力的基石之上的。欧洲在对数据分析主体实行严格保护的同时,实际上也从根源对新一代人工智能实行了管制。

2 国内研究的发展现状

中国的社会经济近年来发展迅速,科技水平不断提升,在此背景下,中国正在逐步由“互联网+”时代过渡到“人工智能+”的新时代。近几年,中国人工智能技术发展,已经进入了人机互接的新阶段,不仅是国民经济新的增长引擎,也是当前国际竞争的新焦点[2]。

总体而言,我国目前多以行政指导的形式对人工智能发展进行规范。如国务院办公厅在2017年以《新一代人工智能发展规划》这一文件对我国现阶段人工智能发展战略进行了“三步走”的总体规划,提出了面向2030年人工智能健康发展的指导思想、整体目标、重点任务和保障措施。自此,各部委与地方单位均根据整体构想制定了针对不同领域的人工智能发展战略规划,如工信部《促进新一代人工智能产业发展三年行动计划(2018-2020年)》等,为人工智能的发展提供政策保障。

3 我国人工智能法律规制研究发展的问题和挑战

人工智能作为一种科学技术,不管从研发、生产或者运用都必须在法律的框架下实施,并做到对人工智能的全过程监督。由于下一代人工智能的应用将日益普遍,它对我国现代立法体制的冲击和对法律价值的影响也将愈来愈大。比如,人工智能对民事主体资格的重新确认、专利权获得“三性”审核问题、与下一代人工智能有关的技术犯罪问题、我国劳动法市场主体范围的重新划分、在下一代人工智能应用中导致侵权民事责任承担市场主体的重新确定以及对下一代人工智能发展与专利的保障问题、数据财产的保护问题和人格权保护等问题产生的诸多影响,现行的司法规范体系和争端处理制度,越来越无法有效规制因新科技而产生的法律问题。

人工智能的发展过程中除存在着以上法律风险外,还面临诸多挑战。从保障用户数据隐私性保护的安全角度上出发来看,人工智能对数据技术的持续和大量的使用,使得如何妥善安全保护隐私数据也变得越来越重要。随着目前这些新型人工智能系统被我们越来越快速广泛地应用到我们生产及制造、商业网络与运营、基础设备设施、社会日常生活环境中,未来其在金融、医疗、交通、购物、娱乐、执法以及监察管理等各个行业主要应用领域上将逐步得到越来越大规模的运用,特别关键的原因是计算机与无线物联网领域(IoT)技术和生命科学相关研究领域中的生物物联网系统(Bio-IoT)之间的技术深度交融,涉及诸多个人隐私的诸如个人财物、偏好、基因、面孔等敏感数据信息都无处可以藏匿,无所不在的海量数据被捕获处理和优化也会对数据的隐私安全性和个人数据的安全可靠性构成极其严重的潜在安全威胁。从法律伦理角度来看,人工智能涉及人权伦理、信息伦理、科技伦理和责任伦理等挑战,应进一步通过立法对关于人工智能理论研究及各种人工智能相关技术法律、伦理规范准则和各类的社会问题等进行比较深入细致地调查探讨,为人类现代的智能社会规划出一个合乎法律秩序原则和合乎伦理道德规范原则的科学逻辑边界,让未来的人工智能技术充分服务应用于当代人类社会。这可能也是我们未来的人类社会所要达成的一项重要社会共识。2017年初,微软哈佛大学伯克曼克莱因互联网与社会研究中心和微软麻省理工学院媒体实验室合作推出成立了微软AI伦理研究计划公司,谷歌和微软公司等科技行业巨头们也开始为防范人工智能技术领域的高速发展及风险而先后联手组建出了AI伦理委员会。越来越多国内专业知名的工业机器人专家也公开发出呼吁,在企业智能机器人系统上和在工厂的自动化智能设备系统上应该安装一个“道德黑匣子”的摄像头系统以全面清晰地记录这些机器上的各项决定信号与各种操作及行为。人们因此也应该越来越意识到,人工智能领域的全面繁荣发展应该始终以促进人类社会环境的健康长远、稳定安全与实现共同社会福祉为前提。

4 推进我国人工智能法律规制发展的政策建议

针对人工智能的高速发展和所产生的一系列社会问题,政府应当尽早形成以全流程监管为主导的、全方位的人工智能监管体制,并围绕人工智能对民事责任主体、侵权民事责任、知识产权、刑事犯罪等方面提出的法律挑战问题进行深入研究,以实现人工智能在现代法治的架构下正常运作,并建立合理的监管机制、明晰的法律责任体系,以达到对人工智能的全面科学监督,从而更好地促进人工智能的健康发展。具体建议如下:

1)深化顶层设计,实现精准监管

筹建国家人工智能领导小组,并着手组建国家人工智能研发中心。鉴于人工智能在国民经济发展中的重大战略意义,我国政府将在中央层面构建国家人工智能领导小组,并下设国家人工智能办公室。国家人工智能办公室担负着召集、统筹、组织和协调领导小组的日常工作职能,同时国家人工智能领导小组还应当制定人工智能危机事件的应对预案,并承担着监测、协调、处理有关全球范围内人工智能事故的重要职能,以此应对未来人工智能事故在网络作用下可能产生的“全局性”破坏。

2)制定监管标准,实施规范管理

完善人工智能的行业准入标准、技术安全规制标准、伦理标准、审核与评估标准等,构建主体在统一的监管体制下,依职权内各环节对人工智能实施监管,各个监管主体在职权内建立了具体的监管机制,对人工智能实施具体管理[3]。充分理解重视运用人工智能协调各经济社会利益的相关决策主体各方的基本权益关系与权利诉求,鼓励并应用更为多样化创新的先进人工智能技术帮助解决中国经济社会发展和实际治理问题,鼓励促进跨国界、跨省地区、跨学科、跨行业领域中的各种深度智力交流融合与经济科技交叉合作,推动我国形成一种具有世界广泛认知共识程度的全球人工智能协同治理法律框架体制和标准规范[4]。

3)重视典型案例,建立有效举措

人工智能作为一个新的领域,在尚无人工智能高层次立法的情况下,该领域的法律争议应当被当作典型案例加以重视并对重点问题、突出问题、争论焦点加以分析,从而总结经验。重视总结分析典型的司法案例,不仅能为各级办案一线法官办案提供的一些具体参考与裁判标准,在法院一旦遇到难以处理或者类似疑难案件时都可以优先选择按照简易程序,按照对类似的案件给予类似的处理措施的司法原则及时作出公正判决,这样既可以相对应地节省大量的社会司法资源,也可以保证法院审判过程的合法公正性和保持国家法制政策的完整统一性;同时,还应能够设法使基层法官可以尽量做到避免当事人在执行裁判程序中受到某些具体案件的先例做法引起的种种拘束,并据此可进一步从具体先例做法中逐步领悟或学习运用到对解决社会其他同类问题行之有效又正确适用的法律思维模式和司法裁判方法,从而做到规范司法裁量,确保司法公正独立。

4)健全准入制度,完善问责框架

细化人工智能行业的准入与退出机制,明确监管当局对人工智能产业主体的资质颁发和安全审查的权责划分。加强对强制披露数据安全信息、第三方安全测试等监管手段的建设,完善针对人工智能自主行为侵权行为的法律规范,尝试建立全社会风险分散风险共担的保险机制等[5]。人工智能产业发展牵涉多方利益,在立法和产业政策制定过程中需要做好平衡。一方面要坚决保障用户的信息安全,另一方面也要避免对产业主体施加过重的监管负担,特别是要针对保障信息安全的研发活动进行政策支持和资源倾斜。基于此,构建出一个以责任保险机制为核心保障的救助体制或许是最可行的处理应对方式。

猜你喜欢
人工智能法律发展
迈上十四五发展“新跑道”,打好可持续发展的“未来牌”
法律解释与自然法
2019:人工智能
人工智能与就业
砥砺奋进 共享发展
数读人工智能
改性沥青的应用与发展
下一幕,人工智能!
让人死亡的法律
“互助献血”质疑声背后的法律困惑