◎ 全国政协委员、交通运输部科学研究院副院长兼总工程师 王先进
人工智能存在监管体系滞后于技术发展、政府单向监管无法有效管控风险、企业缺乏合规治理有效工具和体系等问题,触发个人隐私保护、冲击就业格局、危害公共安全等风险,给治理体系带来全新挑战。须高度重视美国、欧盟、英国、日本等各主要国家地区已经将治理纳入各国人工智能发展战略中,我国亟须增加国际人工智能治理体系的话语权和影响力。建议实行伦理、科技与法制三角治理机构平衡创新发展与精准治理,提倡多元共治,厘清各方责任,人工智能企业躬身入局,加强企业自治,加强国际治理对话和国际标准布局。
人工智能治理还处于初期探索阶段,正在向可信评估、操作指南、政策法规等方面落地实践、逐步深入。2017 年国务院发布《新一代人工智能发展规划》明确要从法律法规、伦理规范、重点政策、知识产权与标准、科学普及等方面为人工智能发展提出保障措施。2019 年科技部牵头的国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则》,提出了人工智能治理的框架和行动指南。但人工智能因算法不透明、难解释、跨界传播性和外溢性强,比一般的数字治理涉及范围更广、难度更大、问题更突出:
(一)监管体系滞后于技术发展。法律具有稳定、普遍和相对滞后等特点,而人工智能发展速度快、造成影响不确定性大,监管的精准性、有效性和即时性问题突出,对风险不能有效约束。
(二)政府的单向监管无法有效管控风险。人工智能应用场景复杂多变,社会各方主体利益需求日益分化,传统自上而下单向规制思路无法对变化多样的治理问题进行精细、灵活地监管,须创新优化治理模式。
(三)企业缺乏合规治理有效工具和体系。当前多数企业将人工智能风险管控视为额外的合规成本,行业监管缺乏落地规范和明确的惩罚措施。虽然大部分企业自律,但也存在行业鱼目混杂,个别案例导致负面舆论,引发公众和监管部门对人工智能等新技术发展应用过度的担忧与顾虑。
(四)全球人工智能竞争延申到规则制定。发达国家纷纷开展人工智能治理规则并逐步达成共识。部分发达国家和国际舆论时常指责我国广泛使用的人脸识别技术侵犯个人隐私。美国以人权问题为由将我国多家头部人工智能企业列入“实体清单”并采取一定惩罚措施。我国亟须增加国际人工智能治理体系的话语权和影响力。
(一)实行伦理、科技、法制三角治理机构平衡创新发展与精准治理。一是伦理规范引导先行,落实AI 伦理原则,通过先行预设及时引导科技向善、健康发展,二是通过技术工具和标准制定等技术手段解决技术发展问题,三是通过法律法规明确底线,明确责任归属,争取实现“敏捷治理”。
(二)提倡多元共治,厘清各方责任。建立以多元共治实现对AI 治理的长效机制,将政府、企业、行业组织、科研机构、媒体、公民等利益主体联合起来,共同解决复杂问题;明确AI 技术应用中终端厂商、经销商、应用开发者、用户等参与各方的权责,确保责任可追溯;政府和行业组织应加强对人工智能等新技术应用的科普,引导理性客观的舆论报道。
(三)人工智能企业躬身入局,加强企业自治。鼓励企业承担创新技术创新应有的责任,自觉完善内部治理和合规管理,开展技术和产品人员的技术道德伦理培训,同时提升数据保护技术能力。主管部门可通过优秀案例评选等方式总结企业治理可复制的经验和模式,通过适当方式予以宣传推广。设立人脸识别等敏感领域的准入资质。
(四)加强国际治理对话和国际标准布局。积极参与国际治理和标准研讨,同时请主管部门支持引导头部企业参与G20 的多边国际标准和治理规则讨论,形成政府和企业双轨沟通互补,强化我国AI 领域国际影响力和话语权,引导AI 领域的国际治理规则和标准制定。