◎ 杨明川 胡 婕
提 要:ChatGPT是由美国顶尖AI实验室OpenAI开发的一个基于大语言模型的聊天机器人。与之前的大型语言模型相比,ChatGPT实现了两个跨越,即从“玩具”到“工具”的跨越,从学术研究到生产力赋能的跨越。预计未来五到十年,ChatGPT会像电脑和手机一样成为大众的随身工具,成为人人必备的功能强大的智能助手。
从整体来看,中美在 AI 基础技术,尤其是超大规模模型技术上的差距在增大。当然,ChatGPT也不是万能的,它在中文能力、安全隐私方面也存在不足,这为国内发展自主大模型提供了机会。
ChatGPT是由美国顶尖AI实验室OpenAI开发的一个基于大语言模型的聊天机器人,是在3000亿单词的语料基础上训练出的参数量为1750亿的大语言模型。该模型代表了当前人工智能在人机对话和文本生成领域的最高水平。在ChatGPT推出仅两个月后,它在2023年1月末的月活用户已经突破了1亿,平均每天大约有1300万人在使用ChatGPT服务,其成为史上面向消费者用户增长速度最快的应用程序。
ChatGPT实现了两个跨越,即从“玩具”到“工具”的跨越,从学术研究到生产力赋能的跨越。相较于GPT-2/3等传统大模型在问答任务中经常出现的生搬硬套、答非所问、偏离常识等问题,ChatGPT的智能程度实现了跨越式提高,并具备了一定的“思考力”。具体表现为ChatGPT具备更丰富的专业领域知识、更强大的数学运算能力、更强的信息整合能力、可以输出更加准确和类人的答案。相较于微软小冰、苹果Siri、百度小度等主流对话产品,ChatGPT能够在一定程度上解决专业问题,为人类“做有价值的工作”,如实现自动软件代码编写、查找软件代码漏洞、生成营销文案、回答数学问题,甚至撰写学术论文等。ChatGPT让机器大规模涉足知识类和创造性的工作,对部分文字工作者、方案策划师、程序员、客服人员等的工作内容具有替代潜力,未来预计能够产生数万亿美元的经济价值。
由此可见,ChatGPT极大降低了人类使用AI的门槛,其问世是AI产业发展的里程碑事件,可类比于浏览器对于互联网的意义,掀起AI的革命新浪潮。正如比尔·盖茨将ChatGPT的诞生类比于互联网和个人电脑的诞生,可以预计,未来五到十年,ChatGPT会像电脑和手机一样成为大众的随身工具,成为人人必备的功能强大的智能助手。
与谷歌、OpenAI、百度等公司之前推出的大模型相比,为了解决传统大模型的性能瓶颈,ChatGPT创新性地融合多种AI技术,使得模型表现有了质的提升。主要技术包括:1)人类反馈强化学习。该技术通过强化学习将人类的反馈作用于模型训练的过程,从输出的整体层面进行优化,让AI模型的输出和人类的认识、需求、价值观保持一致;2)指令微调。通过将NLP任务转换为一系列自然语言指令的形式,再将其用于模型的训练;3)代码训练,该技术将程序代码作为输入数据,对模型进行训练。
从效果上看,ChatGPT充分解锁了大模型在四个方面的潜力,在人机对话中取得惊艳表现:1)理解和响应人类指令,充分理解人类的意图;2)利用思维链进行多步推理,能够在一定程度上解决复杂的专业性问题;3)建模超长历史对话,能够充分利用上下文信息,作出更准确的回答;4)回答从未见过的问题。
中国虽已推出诸如百度文心等多种大语言模型,但是它们在模型表现上与ChatGPT 相比依然存在较大差距。目前来看,短时间内国内难以诞生能与ChatGPT比肩的大模型。整体来看,中美在AI基础技术,尤其是超大规模模型技术上的差距在增大。
中美差距主要体现在三个方面:1)工程化能力:大模型作为黑盒,其调优周期长、难度大,要使得大模型实现对数据的充分吸收与利用,需要有更多新技术引入到大模型技术框架中。OpenAI没有开源GPT-3之后的模型,国内研究机构对于大模型的工程化经验积累不足,导致短期内难以企及ChatGPT的性能;2)国内缺乏大规模高质量数据:目前AI产业使用的数据集多由国外提供,而ChatGPT的成功建立在海量数据集和专业语料库的基础上,并且持续吸收真实用户对话反馈,构建用户调用和模型迭代的飞轮,而国内公司缺乏这方面的积累;3)AI芯片与算力上处于劣势:支撑ChatGPT模型的训练与在线并发运行的是超大体量的智算中心,国外高端AI芯片的限供,增加了国产大模型提升的难度;此外,国内在AI芯片领域与美国相比存在较大的差距,进一步限制着国内大模型的发展空间。
整体来看,中美在 AI 基础技术,尤其是超大规模模型技术上的差距在增大。图/中新社
差距现象背后深层次的原因在于,国内缺乏催生大模型的创新土壤。国内投资环境相对“急躁”,在ChatGPT出现之前,大模型作为“难而慢”、盈利模式不清晰的研究方向,在国内未得到长期持续的大规模资金投入,而OpenAI不以盈利为目的,更有“毅力”坚持在大模型上的长期研究,量变引起质变,最终促成了ChatGPT的爆发。
ChatGPT使AI能力变得像水、电一样,成为标准化、规模化、流程化、低成本的产物,有望被广泛作为AI 能力的共用底座使用,成为 AI 新型基础设施。主要因为它满足高度通用、低成本、可大规模应用的三个条件。首先,ChatGPT展现出更高的通用性,使它可以灵活、稳定地提供AI 能力。如果电只能供给电灯使用,则它将永远无法成为主流。同理,在 ChatGPT 和专用的小模型表现差异不大的前提下,ChatGPT 广泛流行的关键在于它可以应用于多项任务。其次,ChatGPT 降低了 AI 能力获取的成本。对于绝大多数开发者而言,基于ChatGPT进行二次开发的性价比远高于从零开始搭建专用模型。最后,ChatGPT激活了大量的AI潜在需求,未来使用 ChatGPT 进行生产、创作的从业者预计将会井喷式增长,规模应用的前景乐观。
与此同时,我们也要看到由于研发大语言模型对资金、数据和工程化能力等条件的要求极高,将只有少数的组织或者公司可以进入该领域。据最新测算,在公有云上从头开始训练和ChatGPT体量相当的模型,需要约140万美金。极高的自研成本将迫使绝大多数企业放弃自研转向采购,也使得大模型提供商需要收取费用以平衡成本与收益。目前,ChatGPT采用软件作为服务(SaaS)的商业模式,大致以两种形式提供:1) 提供API 数据接口,执行自然语言处理任务,按生成的字符数收费; 2) ChatGPT Plus提供服务器忙碌时段优先响应等特权,并收取20 美元/人/月的订阅服务费。
ChatGPT作为底层的基础模型,扮演着类似“瑞士军刀”的角色,可以直接为B/C端用户提供具备一定专业水平的内容。然而在专业程度要求较高的场景,模型生成的内容可能无法直接满足用户诉求,需要进行二次加工。这一差距催生出“中间件”的广泛机会。ChatGPT中间件的开发商以实际应用场景为目标,通过优化整合的方式挖掘大模型的潜力、优化大模型的产出,使得大模型能够提供专业程度更高的AI能力。
大模型中间件已探索出较为成熟的商业模式,典型案例如 Jasper.AI 基于 GPT-3的接口提供付费文档生成服务,可实现75%的毛利率。然而中间件的最优策略可能是依托垂直行业的数据,形成细分专业上的比较优势。
例如在软件开发领域,ChatGPT在代码编写任务上的生产力将直接对行业形成巨大冲击。未来软件开发很可能采取这样的模式:大模型直接承担简单模块代码编写和调试工作,程序员在模型结果的基础上略作修改,并提交给资深架构师。进一步地,涌现吃透细分场景业务的“中间件”工具,使资深程序员可以监督和指导大模型直接产生系统级代码,并快速投产。
事实上代码生产领域早已有大模型的实践。过去一年时间,使用人工智能的程序员中,基于大模型的Copilot程序处理的编码量高达 40%。换句话说,每 100 行代码里,有 40 行就是由人工智能编写的,项目总时间最多可减少 55%。而ChatGPT的出现将进一步加速代码自动化、智能化进程。
国内外科技巨头正在积极跟进,瞄准下一代 AI 生态的主导权。图/中新社
ChatGPT作为AI通用基础设施,使其在未来AI领域的发展中将扮演类似于手机操作系统的角色,提供AI大模型的公司将成为未来AI生态的主导者。为此,国内外巨头如谷歌、微软、苹果和百度等公司面对 ChatGPT 的横空出世,纷纷采取积极措施,抢占大语言模型的战略高地。谷歌公司于2023年2月7日发布下一代对话AI系统Bard,以应对ChatGPT对搜索引擎业务构成的威胁;微软将ChatGPT等工具整合进旗下包括Bing、Office在内的所有产品中;百度2023年3月推出大模型新项目文心一言(英文名ERNIE Bot);阿里巴巴也计划推出类ChatGPT大模型并深度集成到钉钉中。
ChatGPT并非全能,受训练语料的时间限制,它无法回答最新(2021年6月后)的问题;另外,ChatGPT对自身答案的正确性无法进行验证,所以针对专业性问题的判断仍需人类专家的协同。
ChatGPT不受限制的使用也引发人们对其安全性的担忧,主要集中在知识产权、信息安全与非法使用三个方面。在知识产权方面,ChatGPT被广泛用于专业文档和代码的生成工作,引发知识产权侵犯及归属的争议。在信息安全方面,用户的隐私信息可能通过交互行为被模型捕获,进而泄露给其他使用者。事实上,OpenAI公司也重点提示用户不要在聊天过程中暴露隐私信息。在非法使用方面,ChatGPT被用于辅助编写网络钓鱼代码、勒索软件等非法用途,带来安全隐患。因此,需要加强监管,使ChatGPT得到安全、合法的使用。