孙志燕
内容提要:
人工智能作为一项赋能技术,是数字化时代全球技术竞争的核心之一,对国家发展与安全具有高度的战略性。我国应综合考虑其自身具有的特殊性、技术不可预知性、战略性和复杂的地缘政治因素,立足基本国情,慎重选择人工智能的治理模式,建立以技术中立为总体导向的人工智能治理框架,加强技术创新与发展安全的统筹。要将技术中立、非歧视的原则贯穿于人工智能从开发到应用的整个技术链条之中,避免利用人工智能进行偏见性的决策和资源分配,影响整个社会的公平和机会平等。要以技术中立为导向,建立人工智能与能效联动的发展机制,引导其发展不仅要“快”,更要“高质量”。在全球人工智能治理中积极倡导技术中立的理念,为我国培育人工智能的竞争优势创造更有利的外部环境。
自 2022 年 11 月,美国OpenAI公司发布了聊天机器人(ChatGPT)原型以来,生成式人工智能受到了前所未有的关注。该技术的突破标志着人工智能向通用技术的重大转型,对国家发展与安全的战略性不言而喻。但该技术对就业、收入分配等方面的不确定性影响,以及在个人隐私、社会治理和国家安全等领域带来的安全风险也引发了激烈争论。各国都在探索制定人工智能的监管政策,至 2022 年 全 球 已 有 127 个 国 家制定了人工智能相关的法律。我国作为人口和经济大国,更需要根据基本国情,慎重选择人工智能的治理模式,加强技术创新与发展安全的统筹,促进技术收益的最大化和风险的最小化。这也是我国参与全球新技术竞争迫切需要解决的关键问题。
2023年8月31日,百度宣布其生成式AI产品、国产大模型文心一言获批上线,率先向全社会开放。 图/中新社
经过70多年的发展,人工智能正向通用技术工具转型,其应用的广度和深度都超过了传统人工智能,不仅具备如同人类一样的学习和解决复杂问题的能力,在大数据计算、知识记忆、快速决策等领域的能力甚至胜过了人类的基准水平。例如,在通用知识测试中,GPT-3 的得分比为 73%,比测试者的平均水平高出 21 个百分点;GPT-4的口头智商测试得分为152,而样本中只有0.1%的测试者超过了该分值。伴随着“智能”水平不断提高,人工智能的潜在风险和负面溢出效应也在增大,对不同国家的影响也不完全相同。因此,我国在制定和选择人工智能治理模式时不能再沿用传统相对成熟技术的治理模式,需要充分考虑到人工智能自身的特殊性、不确定性、战略性和我国的基本国情。重点包括以下三个方面。
第一,人工智能并非成熟的技术体系,仍具有高度的不确定性和技术不可预知性,监管政策需要保持足够的灵活度。从技术层面上看,通用人工智能的核心是基础大语言模型。从目前全球领先的大模型训练情况来看,算力需求大约5—6 个月翻一番,而通常数字技术的进步周期遵循摩尔定律,大约是18个月,相当于大模型的迭代速度提高了2 倍。随着芯片技术和算法的改进,这一速度还将进一步提高。由此可见,人工智能的技术迭代要远远快于政策制定的周期。这就意味着在政策实际制定过程中,并没有充足的时间来积累政策制定所需要的事实和数据,包括人工智能对经济社会影响的评估也大多是理论推断。政策制定是在一种高度不确定的技术条件下进行的“实验”。这就需要政策保持足够的弹性,否则就会因技术的快速发展而导致所实施的政策很快过时,政策的有效性与匹配度降低,甚至可能会成为影响技术创新的政策性障碍。如欧盟以风险为基础的监管政策在某种程度上就限制了人工智能技术的创新和应用。
此外,通用人工智能构建的是一个超大规模、非常复杂的数字生态系统,多数大语言模型所包括的参数可达上百亿,甚至更高。例如, 2023年5月,OpenAI 公司发布的GPT-4模型参数数量从 2020年GPT-3 模型的 1750 亿扩大到 100 万亿。基于深度机器学习的大模型训练本质上是一个“吸收→学习→创新”的循环更新过程,即使模型训练使用的都是公开并且合规的数据,结果也可能出现虚假或者不合规的信息,模型的开发者几乎不可能预测到模型输出的结果、能达到的“智能”水平,或者能够在多大程度上替代人类的工作。也就是说,人工智能具有很强的技术不可预知性,不能将其等同于工业化时期那些相对成熟的技术,因此政策环境需要保持足够的弹性。
第二,人工智能作为未来经济社会发展的关键赋能技术,是数字化时代全球竞争的核心技术之一,监管政策需充分考虑地缘政治因素。人工智能与工业革命时期的通用技术不同,并非一项单纯的技术,而是各种经济社会活动所依附的一种发展生态。它不仅可以应用到医疗、教育、金融、物流、公共服务等各个领域,还可以将不同的发展理念、价值观、文化、意识形态等因素嵌入其中,全方位赋能国家经济、社会、军事、政治、文化等方面的影响力和竞争力,是数字化时代推动全球政治经济秩序重构、国际影响力和竞争力再平衡的重要技术力量。根据经合组织(OECD)的不完全统计,全球已有 92 个国家发布了国家层面的人工智能发展战略,美国将人工智能定义为 21 世纪“必须赢”的技术之一,欧盟、英国、日本等发达国家和地区都提出要增强人工智能领域的全球领导力。在此背景下,人工智能如何治理已不单纯是一国国内的技术发展政策,而是一个全球性的技术治理与战略平衡问题。
在全球人工智能的竞争中,我国虽然已形成一定的竞争优势,但软硬件方面存在的短板也不容忽视。例如,目前我国用于人工智能模型训练的芯片、人工智能系统的软件开发等多依赖于美国公司,美国政府在 2022 年10月已禁止这些公司向中国出售人工智能和专业领域的GPU 芯片,包括芯片设计软件和制造设备。2023年3月,荷兰和日本也先后宣布了20多种与半导体制造设备、关键材料有关的出口限制措施。这些地缘政治因素都需要在制定相关政策时给予足够的重视。
第三,人工智能是资源、资本高度密集型行业,对我国经济高质量转型具有一定的负面影响,相关政策需要更符合国情的战略平衡。人工智能是21世纪最具有战略性的一项新兴技术,但它同时也是资源、资本最为密集的技术行业。每一个通用人工智能系统都需要千亿级、万亿级的数据资源来支撑。例如,OpenAI公司在今年5月发布的GPT-4模型原始训练数据库从GPT-3的753GB(10亿字节)扩大到4万GB,增长53倍;谷歌Deepmind 开发的Piper-MonoRepo大模型的原始训练数据库更大,为8.6万GB。从资本投入来看,无论是前期人工智能大模型的训练还是系统的日常运行,成本都非常高。根据瑞士信贷银行的估算,OpenAI 的GPT-3 模型( 1750 亿个参数),训练成本约为139.8万美元;谷歌开发的PaLM模型(5400亿个参数),训练成本约为1121.7万美元;ChatGPT 大约有 1300万用户,平均每天的运行成本高达10万美元。人工智能系统通用性越高、模型参数越多,对数据资源的需求规模就越大,并且模型还需要反复训练更新,前期投资和整个运行维护成本都非常高。这无疑抬高了我国企业进一步利用人工智能提高生产率水平的门槛,尤其对中小企业的智能化转型更是不利。
除了需要数据、资本等要素的大规模投入,人工智能还是能源高度密集型行业。以GPT-3为例,一个训练周期的用电量大约为 1287 兆瓦时(MWh),相当于我国 1360人一年的生活用电量;碳排放量约为 502 吨,相当于生产 280吨粗钢、 840 吨水泥的碳排放量。训练周期的能耗只相当于日常运行能耗的 40%。根据谷歌发布的环境报告,该公司人工智能模型每年的用电量占整个公司总用电量的10%— 15%,相当于美国亚特兰大大都市区( 2021 年总人口为 614.4万人)所有住宅一年的电力消耗(见图1)。我国人工智能大模型所使用的芯片、算法等技术相对落后,能耗和碳排放强度更高。随着人工智能应用范围的拓展,势必给我国绿色转型和双碳目标的实现带来更大的压力。因此,在政策设计时,需要从国家整体高质量转型的要求出发进行更科学的战略平衡。
图1 美国四个典型人工智能大模型用电量和碳排放量的对比
鉴于人工智能的战略特殊性,以及全球竞争格局和基本国情,我国应建立以技术中立为总体导向的人工智能治理框架。即,在人工智能的技术治理中,既不因人工智能的安全风险而过度施加歧视性、风险偏见型的监管规则,为技术创新预留空间;也不过度采取激励支持政策,扭曲资源配置机制,而是倡导以人为中心、以增进社会整体福利水平为价值取向的技术治理理念。这样既有利于加强我国对人工智能技术创新与发展安全的统筹,也有利于规避我国在全球人工智能领域竞争中的劣势。具体而言,技术中立主要包括三个维度的政策含义。
第一,在人工智能从开发到应用的整个技术链条中,要坚持技术中立、非歧视的原则。通用人工智能主要由上游环节的基础大模型、中游环节的行业或专业性的应用模型和下游环节的使用者所构成,涉及到数据采集、算法设计,以及应用于不同行业部门的产品和服务开发。风险主要来自于人工智能模型的算法和下游的应用端。因此,需要将技术中立原则贯穿于整个技术链中。在一些关键应用领域,如就业、金融信贷、信用风险评估等,积极探索引入第三方对算法进行独立审计和算法信息披露机制,最大限度地维护人工智能算法的公平。加强教育、医疗、就业等公共服务领域人工智能的用途监管,避免利用人工智能产品和服务进行歧视性、偏见性的决策和资源分配,影响整个社会的公平和机会平等。
第二,要以技术中立为基本出发点,加强人工智能与其他技术在资源配置和政策监管中的战略平衡。从我国高质量转型发展的技术需求来看,不只是人工智能,清洁能源、生物、航空、新材料等技术对国家的现代化发展也都具有相当的重要性和战略性。正因如此,更需要科学理性地认识人工智能,从技术中立的角度来制定实施发展政策。一是政策资源要与人工智能技术周期相匹配,尤其是要对创新资源和产业资源的分配进行更长期的战略平衡,避免政策资源过度超前、集中涌向人工智能领域,对其他技术行业的资源配置形成挤出效应。我国是人口大国,就业压力较大,需在技术扩散过程中构建一定的缓冲空间,降低技术转型中的安全风险和负面影响。二是要以技术中立为导向,引导我国人工智能的发展不仅要“快”,更要“高质量”。对人工智能开发者、应用者和消费者的监管要尽量依据现有的法律法规和相关政策,如消费者权益保护、知识产权保护、个人隐私保护、劳动者权益保护等,确保不同经营主体竞争地位的政策性平等。能耗、碳排放等环境监管同样要适用于人工智能,建立人工智能与能效联动的发展机制,提高模型的绿色化。加快识别人工智能发展中的新问题、新风险,在保持技术中立的基础上进行政策补缺,为我国智能化转型创造更加安全的发展空间。
第三,在全球人工智能治理中积极倡导技术中立的理念,为我国培育人工智能的竞争优势创造更有利的外部环境。由于人工智能中包含了许多文化、意识形态等因素,全球人工智能的竞争,不只是技术层面的竞争,更为关键的是人工智能治理模式的竞争。目前,美国、英国、欧盟等发达国家和地区不仅在人工智能的技术上具有明显优势,还通过技术标准、安全风险的法律法规等向其他国家输出人工智能的治理范式,包括数字化领域的价值观等,以提高本国的国际影响力,进一步垄断人工智能领域的竞争优势。鉴于此,我国一方面要按照技术中立的总体导向,加快完善国内人工智能治理的政策体系,深度总结北京、深圳等城市在人工智能领域的发展经验,向全球提供中国人工智能治理的示范,扩大我国在人工智能领域的全球影响力;另一方面,以技术中立为基本原则,加强与不同国家和地区人工智能领域政策和治理模式的协调,包括人工智能的安全审查、隐私设置,与人工智能产品服务相关的知识产权认定等,倡导开放、包容、多元的技术治理理念,推动建立互利共赢的全球人工智能发展生态。在确保国内经济安全的前提下,发挥我国的市场优势,稳妥有序地推动人工智能技术开发和产品市场开放,深化人工智能领域的国际合作。对于不同国家在人工智能治理领域的政策分歧和利益冲突,倡导优先技术解决,为我国人工智能稳定可持续发展创造更有利的国际环境。