人工智能时代的大幕已经徐徐拉开,人类社会的生产和生活方式将发生巨大变革,在汹涌澎湃的智能技术浪潮面前,我们都做好准备了吗?在近日召开的2024(第九届)世界物联网大会上,《中国标准化》记者就此问题采访了世界工程组织联合会前任主席、中国新一代人工智能战略研究院执行院长龚克,请他介绍了人工智能标准化方面的热点问题。
人工智能标准化面临的机遇和挑战
当前人工智能技术的飞速发展已超乎人们的想象,那么人工智能标准化目前的状况怎样呢?龚克向记者介绍,新一代人工智能从发展伊始,各国就将标准放在非常重要的位置。2017年,国务院公布了《新一代人工智能发展规划》(以下简称规划),规划从2017—2030年期间跨越三个5年计划,在“战略目标”的设计上,从时间上分三步走,即到2020年为第一步,到2025年为第二步,到2030年为第三步;在内容上分为三个方面建设:第一方面是人工智能理论和技术,提出了第一步在新一代人工智能理论和技术取得重要进展,第二步到新一代人工智能理论和技术体系初步建立,第三步要形成较为成熟的新一代人工智能理论与技术体系;第二方面是人工智能产业,提出了第一步是人工智能产业竞争力进入国际第一方阵,第二步让人工智能产业进入全球价值链高端,第三步使人工智能产业竞争力达到国际领先水平;第三方面是关于人才和人工智能法规政策标准等发展环境,就法规政策和标准而言,提出了第一步初步建立部分领域的人工智能伦理规范和政策法规,第二步初步建立人工智能法律法规、伦理规范和政策体系,第三步建成更加完善的人工智能法律法规、伦理规范和政策体系。可见,我国从人工智能发展的顶层设计上将标准摆在重要位置,把标准化水平设为重要发展目标。
从人工智能相关技术标准的发展情况看,我国在2020年由国家标准化管理委员会等五部委联合印发《国家新一代人工智能标准体系建设指南》(以下简称《指南》)。《指南》提出以市场驱动和政府引导相结合,建立国家新一代人工智能标准体系的指导思想和从标准化顶层设计到初步建立人工智能标准体系的建设目标。《指南》给出的标准体系框架,不但明确了支撑技术与产品、基础软硬件平台、关键通用技术、关键领域技术、产品与服务、行业应用六个层次,而且明确规定了“共性基础”(包括术语标准、参考架构标准、测试评估标准等)和“安全/伦理”(包括安全与隐私保护、伦理等)两类贯穿各个层次的通用要求,以确保人工智能技术的规范化发展。
龚克表示,过去我们一般只是在医学技术、生物技术涉及伦理属性,但人工智能技术因为它有技术与社会属性紧密融合的性质,所以这个框架特别将其伦理要求纳入其中。
国际上也很重视AI标准化工作。现在国际标准组织在这方面非常积极,国际标准化组织(ISO)、国际电工委员会(IEC)、国际电信联盟(ITU)等都非常积极。特别是IEEE,早在多年前就开始做这方面的工作。ISO已经先后颁布了几批涉及人工智能的标准,它有一个非常重要的特点,就像它做的ISO 9000系列。它先对研制人工智能产品、提供智能服务的组织提出要求,包括设计决策程序、伦理审查机制等。欧洲方面的标准化有一个重要的特点,就是关注人工智能对社会发展的影响。比如说欧盟目前在着手创建一个技术手段以评估人工智能系统对人权的影响。可以说各国对于人工智能的标准化都很重视,中国在这方面也取得了重要的进展,我们比较早地推出了人工智能标准化建设导则和框架,对于国际上整个标准化工作应该都有一定影响力。
另一方面,中国也在积极参与ISO、ITU、IEC等国际标准组织的工作。中国电子技术标准化研究院是国内标准积极的推动者,同时也是国际标准重要的参与者。
标准化体系考虑伦理与安全隐私
龚克介绍,日前,工业和信息化部等四部门联合发布《国家人工智能产业综合标准化体系建设指南(2024版)》,指南在标准体系的层次划分上分为基础支撑、关键技术、智能产品与服务、赋能新型工业化与行业应用四个大层次,突出了赋能新型工业化的标准建设,在贯穿各层次的“共性基础”中进一步明确了“管理”和“可持续”两项内容,同时将“安全/伦理”拓展为“安全/治理”,构建起一个涵盖人工智能产业全生命周期的标准体系。
从伦理的角度来讲,我国组建了国家科技伦理委员会,这是前所未有的。国家科技伦理委员会下设几个分委员会,其中一个分委员会就是人工智能分委员会,该分委员会做的一项重要工作,就是研究人工智能伦理风险清单。中央明确提出人工智能的治理要伦理先行,就是要引导人工智能向善;同时根据人工智能对人、对社会可能造成的风险进行分类分级的管控。这些都是很清晰的思路和做法。
在法规方面,我国已经推出了个人信息保护法和数据安全法,之前有网络安全法,这些都形成了上位法规的体系。对人工智能技术的立法也在积极推进之中。
从技术角度来讲,人工智能的基本技术还在快速发展变动之中,对标准化工作的挑战是如何把握技术快速变动性和标准相对稳定性的关系,既保证安全可靠又为创新发展留出空间。此外,可能还要注意标准之间的互操作性,特别是与国际上的标准具有互操作性,这些都是现在标准化需要关注的问题。
人工智能标准研究要促进跨界融合和绿色化发展
中国标准化研究院(以下简称“中标院”)是市场监管总局下设的面向全国、全行业的国家标准化研究机构。标准化工作一方面要为人工智能技术确定必要的标准,这些标准应该是可拓展的,并与国际接轨的,要适应技术发展并确保安全。这项工作并不是中标院自身能做到的,在技术方面更多地要由中国人工智能产业发展联盟去做;另一方面,就是今年政府工作报告中提出人工智能+,这个“+”,按龚克的理解也包括人工智能+标准化。
那么如何做到将来这些标准是机器可读、机器可执行、机器可检测、机器可报告呢?龚克认为,这些要求对标准化自身而言,就是人工智能+标准化发展或者智能的标准化发展,抑或是标准化智能发展,在这些方面中标院可以做更多的工作。中标院作为市场监管总局直属研究机构,本身具有跨行业的属性。人工智能是一个通用技术,而现在很多标准化工作是按行业切分的,中标院应该能够在跨行业的标准研究方面发挥独特作用。希望它能形成一个平台,汇聚不同行业的技术,在平台实现标准的高效互联互通,做到标准化可拓展、可互操作,特别在智能化时代,在新的数据和AI驱动发展的背景下,做好标准化的工作。
现在从国际上来看,面向社会组织、社会服务、社会管理方面的标准化有了很大发展,使得标准化工作大大超出了产品和技术服务标准的范围,而我国这方面相对滞后,所以需要加强。比如,很多公共服务项目,百姓并不知道,从而不能及时接受应有的服务。如何做到广而告之,应该有标准,让公共服务达标,是社会治理上的重要的标准化工作。这方面中标院应有所作为。
龚克强调,还有非常重要的一点是标准化要支撑服务绿色化发展。绿色化发展的要求如何嵌入到各种的产品、服务、楼宇、道路的服务之中,这也非常重要。绿色化发展不仅是环保,还包括社会的平等、包容性、经济的公平与可持续增长等问题。这些要求也要反映到人工智能技术及其应用的标准之中。
希望千方百计地推进人工智能标准国际合作与相互融合
对于国际人工智能的标准化工作,龚克认为,由于人工智能领域已经成为一个关键核心竞争领域,这几年我们面临的主要问题是地缘政治冲突的影响。比如美国成立的某些组织就排斥中国企业。但是事情也有另外一面,比如去年英国召开的人工智能安全峰会,英国当时顶住了很多压力,邀请中国政府代表参加,但是我们没有参加会议的所有环节,即有些环节没让我们参加。请我们参加,是因为认识到国际合作治理的重要性;不要我们全部参加,则又是排斥性。这种两面性也体现在国际标准研制领域。那么今后在这些方面还会有很多的较量,有很多的工作要做,要努力朝着合作共赢这个历史正确的大方向走。
现在一般国家都认为美国和中国是人工智能的大国。龚克认为,中国作为人工智能大国,不希望看到今后世界上人工智能的标准是两套,整个资源配置也是两套,这不仅妨碍技术进步,而且妨碍安全管控,造成资源浪费。在人工智能领域要千方百计推进全球合作,因为标准本来就是为了互联互通,这方面要发挥多边国际组织的作用。
去年11月,习近平主席和拜登总统在旧金山的会晤达成了5点共识,其中4点包括恢复航班、人文交流、禁毒合作和部分的军事对话,都是恢复性的。但是有一条是新建立的,就是建立政府间人工智能对话。这个人工智能对话首先是治理方面,必然涉及安全、标准等。第一次对话2024年5月份在日内瓦已经举办,专家层面的第二次对话也在进展之中,我们希望在人工智能这样一个重大的技术变革面前,中美两国以及世界上其他国家要为全世界的共同利益来共同努力。
对未来风险适当治理
龚克指出,人工智能标准化工作面临最主要的问题,是技术的快速发展变动和它尚未成熟就得到了普遍应用这样的一个矛盾。
如果它没有得到普遍应用,只是在实验室里发展,就不需要做标准化工作。但是它现在一方面自身快速发展、不断变革突破,另一方面又大量地应用到实际工作和生活中,这就使得在标准相对稳定性和技术的变动性之间,出现了一个在其他的技术标准上很少见的问题。问题就是它在发展变动过程中同时得到大规模的应用。比如大模型在本身还不可解释的情况下,就有数以十亿计的人在用,所以这种情况下需要适当的治理,治理的手段之一就是标准。而这个治理的适当性主要是根据不同的风险来区别。
从国际层面,各国要对风险达成共识。我们研究过世界几十个国家的AI政策文件,其实存在大量的共识,现在需要的是一个好的对话机制,把这个共识确定下来,然后进一步判断为了实现这样一个共识的风险控制,哪些是需要用社会的规制,哪些是需要使用技术的标准,这是一个方面。
另外一个方面,非常急迫的是发展一些支撑人工智能安全发展的技术手段。首先要把这样的技术手段建立起来并实现标准化。比如说一个大模型,应该是无偏见,对各种人种、对各种民族,各种不同年龄、性别、经济状况,社会地位应该是平等的。那么怎样测量一个模型是无偏见的呢?有种做法是做两个数据集,一个数据集是含有偏见的,再有一个数据集没有偏见,然后用这两个数据集分别去训练同一个模型,然后我们再观察这个模型的表现。如果这个模型经过有偏的数据集训练之后是有偏的,无偏的数据集训练出来的模型是无偏的,那么这个模型叫作数据敏感模型;如果有偏无偏的训练,它都有偏见,那就是算法偏见模型;如果两个训练都没有偏见,就是算法去偏见模型。但是,这个数据集是不是标准、是不是大家公认这是无偏数据集呢?这就需要建立标准化的手段。在支撑安全可靠发展这方面,建立标准化的检测、认证方面的技术手段非常急迫。