今年7月发布的《人形机器人治理导则》,是业界首个以开放签署方式生效的具身智能治理规则文件,也是向全球人工智能治理领域提供中国方案的良好开端。新技术引发的变革扑面而来,我们要与时俱进,充分利用更多更详尽的标准、规范和法规,探索有效的规制路径,从而打造开放、公平的具身智能发展环境。
风险评估是风险规制的关键环节。中办、国办印发的《关于加强科技伦理治理的意见》提出,“科技活动应客观评估和审慎对待不确定性和技术应用的风险,力求规避、防范可能引发的风险,防止科技成果误用、滥用,避免危及社会安全、公共安全、生物安全和生态安全”。在此基础上,工信部在2023年11月发布《人形机器人创新发展指导意见》,提出“强化整机、关键部组件、核心软件、算法等重点环节安全风险评估,促进安全能力提升”。
在人工智能的发展过程中,应通过科学合理的方法评估风险,然后采取相应的管理措施。风险等级越高,采取的风险管理措施就应当越严格。对于人工智能的风险评估结果,可以分为无风险、低风险、中风险、高风险及不可接受风险五个等级。如果经评估后发现某类具身智能将导致不可接受的风险,就应当禁止研发此类技术和设备。
对于具身智能的安全风险评估,至少应涉及算法影响评估和个人信息保护影响评估。算法影响评估指对智能系统的算法进行全面分析,以明确该系统的风险影响水平。通过对算法设计、部署、运行的全流程予以动态评估,要求智能系统在应用于商业以及公共事业场景前就接受独立的专业分析,促使科技公司实现更高效率的风险管理,从而有利于实施差异化、精准化的风险治理。
我国在一些领域初步规定了算法影响评估,例如《互联网信息服务算法推荐管理规定》第27条要求“具有舆论属性或者社会动员能力的算法推荐服务提供者应当按照国家有关规定开展安全评估”,第28条要求“有关部门对算法推荐服务依法开展安全评估和监督检查工作”。《生成式人工智能服务管理暂行办法》第17条规定,“提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估”。具身智能设备通过“强算法”与人类进行深入交互,因此应建立健全其算法影响评估制度。
具身智能设备同人类联系紧密,必然涉及大量个人信息处理。应完善个人信息保护影响评估,并对个人信息处理活动所造成的影响进行评判。个人信息保护影响评估有利于及早发现相关行为可能存在的风险,从而有针对性地进行研发设计并采取防范措施。
人类智能靠思维,人工智能靠算法,而算法的基础在于数据。为了提升基于“大数据+高算力+强算法”的具身智能的安全性,以高水平安全保障高质量发展,需要完善与数据相关的认证制度。
作为风险规制和质量保证的一种手段,认证可以提供多方面优势,如卓越的技术专长、更有效的检查和监控、更好的回应能力和更高的规制效率。工信部、国家发展改革委和国家认证认可监督管理委员会联合发布的《关于促进机器人产业健康发展的通知》,要求建立认证采信制度,以国家机器人检测与评定中心、机器人检测认证联盟等为支撑,开展机器人检测认证。《人形机器人创新发展指导意见》要求“打造权威检验检测机构,完善评测配套工具,满足企业和用户的检测认证需求”。我国有关机器人的认证体系仍在发展和孕育中,需要不断完善。
具身智能设备需要处理大量个人信息、企业数据、公共数据,有效保障信息安全、数据安全以及相关的国家安全,除了应当完善产品质量、服务、管理体系等传统认证制度,还需要建立健全适应数字时代的新型认证制度。应根据《数据安全管理认证实施规则》《个人信息保护认证实施规则》等规范性文件,结合具身智能的新特点,不断完善数据安全和个人信息保护认证制度。
由于认证属于第三方规制,所以具身智能认证机构应具有高度的独立性与专业性。在认证程序启动上,原则上应以自愿申请为主,对于事关重大安全的事项,则应实施强制认证。
为了使认证有据可依,保障认证质量,除了需要不断完善人工智能立法,还应当分级分类推动具身智能标准的制定。不同于传统的粗放式监管,分级分类监管是一种精细化监管。分级分类监管属于典型的风险牵引式监管资源配置模式,主张以风险为尺度实行数据驱动、精准聚焦以及灵活权变的差异化监管资源配置。《人形机器人创新发展指导意见》要求“开展人形机器人标准化路线图研究,全面梳理产业链标准化需求,建立健全人形机器人产业标准体系,分级分类推动标准制定”。
具身智能种类多元,应用场景多样,其风险类型和大小存在很大的差异。如果“一刀切”地制定统一的标准,表面上看好像实现了平等,但造成了实质的不平等,不利于人工智能企业的发展。同种情况同等对待,不同情况区别对待,应分级分类治理具身智能设备的安全风险。
合理配置责任对于具身智能的发展至关重要。如果过度追求安全而设置过重的责任,就可能抑制人工智能创新,阻碍具身智能的发展。探讨具身智能及相关主体的责任,首先要明确具身智能是否可以成为法律主体。
当前对于人工智能的主体地位还存在争论,否定说占据主导地位,认为人工智能能否获得法律主体资格,关键并不在于法律建构的技术可行性,而在于其是否符合现代法律主体的本性定位,即具备人格尊严。人工智能在形式上不具有普遍必然性,在功能上是为了满足人类的需求,在意志规定根据上无法从本源上决定其自身的发展方向,因此人工智能不能成为法律主体。
基于此,应防止“具身智能陷阱”,避免设备的过度拟人化,从而防止相关主体逃脱应有的主体责任。虽然具身智能设备在外形、思维和行动上很像人,其智能程度较高且具有深度学习能力,但其不具有独立的自由意志和责任能力,不能成为独立的法律主体。如果陷入具身智能过度拟人化的陷阱,就会认为其研发者比自动化机器人担负更少的责任。机器人仅是机器,不能以高度人格化的方式将其与人类进行类比。
为了使研发者更好地做到以人为本,审慎设计相应的代码程序,并持续优化智能算法,应合理设置相应的主体责任。如果具身智能设计本身没有缺陷,但由于其具备的深度学习能力而导致安全事故,研发者也应当承担责任。即使研发者当时没有过错,但因为其可以从新技术中获取巨大收益,可以通过定价等方式分散风险成本,由其承担相应的赔偿责任更为公平。
任何新技术的开发都蕴含一定的风险,将其一概归于制造商会严重妨碍技术的创新与发展。除研发者以外,同具身智能设备相关的生产者、硬件供应商、软件设计者、销售者、使用者等多主体,都应当承担相应的责任。
《“十四五”机器人产业发展规划》提出,“优化首台(套)重大技术装备保险补偿机制试点工作”。保险责任制度能有效平衡人工智能应用中各方主体的利益,在为受害人提供及时有效的权利救济的同时,推进技术革新。
要有效实现具身智能发展和安全并重,在完善法规治理的同时,还需要加强科技伦理治理。只有具备“人工道德”的人工智能系统,才能更好地实现科技向善。具身智能虽然难以完全像人类一样成为独立的道德主体,但不妨碍为其设定伦理标准。
国务院发布的《新一代人工智能发展规划》要求“到2030年建成更加完善的人工智能法律法规、伦理规范和政策体系”。《人形机器人创新发展指导意见》要求“加快推进相关伦理标准规范的研究制订”。《关于加强科技伦理治理的意见》提出“将科技伦理要求贯穿科学研究、技术开发等科技活动全过程”。
法律无法对下游的科技应用行为进行全面的风险规制,需要通过伦理准则对上游的科技研发过程进行规范。科技伦理不仅可以在人工智能研发之初就提出相应的要求,而且可以灵活地适用于不同场景、不同业态下的人工智能应用,从而有利于促进人工智能产业的创新。
应通过完善的伦理规范约束人工智能研发者,确保其设计出能真正造福人类的安全、可靠、可控的具身智能。为具身智能“加载道德”的目的并非是使其成为一个物种,而是为了控制人工智能技术发展所导致的风险。
应着眼于“算法正义”完善算法伦理规范,关注算法的商业道德导向,以公平、安全、透明、非歧视的伦理价值观指引算法应用,建构规范化的算法伦理审查制度。应设立人本化的人工智能伦理治理组织机构,完善伦理风险的预警机制,设置人工智能伦理治理的风险预警阈值,严格追究引发伦理危机相关主体的伦理责任。
总而言之,伦理规范应成为预防具身智能安全风险的重要准则。应将伦理规范融入具身智能研发和应用的全生命周期,并不断强调其实质性指引作用。
检察风云2024年23期