贺 芳
(中南财经政法大学 图书馆,湖北 武汉430073)
数字经济时代,传统内容生成技术已难以满足用户日益增长的数字内容需要。随着人工智能技术发展,AIGC(Artificial Intelligence-Generated Content)应运而生。AIGC即“人工智能生成内容”,是继专业生成内容PGC和用户生成内容UGC之后的一种新型内容生产方式,是通过人工智能技术来生成符合用户需求的文本、图像,甚至音视频等内容,内容生成主体由人变成了AI。中国信息通信研究院公布的《人工智能生成内容(AIGC)白皮书(2022)》将AIGC发展分成早期萌芽阶段、沉淀积累阶段和快速发展3个阶段[1]。随着深度学习算法、算力突破瓶颈和语料库不断完善,人工智能技术得以大幅进步,AIGC应用也变得更加丰富,包括图像生成、文本生成、音视频生成、跨模态生成等[2]。Stability AI公司发布Stable Diffusion模型,可以根据文字自动生成图像。2022年11月以来,由OpenAI发布的聊天机器人ChatGPT引发广泛关注[3],能与人类“对答如流”,众多业界专家学者对此表达看法,一些学者观点较为积极,认为ChatGPT将重塑社交媒体、语言翻译、文字创作[4]、智能编程[5]等行业。也有专家对ChatGPT等AIGC的突出表现及引发的各种伦理风险[6]、法律问题[7]、能源环保问题[8]产生担忧;美国语言学家诺姆·乔姆斯基认为,ChatGPT是一个高科技剽窃系统,部分高校及研究机构则明令禁止学生使用ChatGPT写作业或者撰写论文。ChatGPT是AIGC技术应用中的文本生成模态应用模型,是AIGC最新应用成果,也标志着AIGC的发展将进入新阶段。
自ChatGPT出世以来,从目前市场各种测试数据来看,它具有强大的语言理解和自然语言生成能力;具有一定的自学习能力;设置一定的过滤处理机制,可以针对不恰当的请求进行合理回复,并对不正确的问题提出质疑;可以与用户保持连续性对话,对不理解的指令进行追问;具备记忆力,能记住用户生产的内容等,它可以算是生成式AI极为关键的发展节点,AIGC发展受益于生成算法、生成式AI预训练模型、多模态等技术的不断发展。
在自然语言处理方面,早期主流模型主要为RNN等循环神经网络,后引入注意力机制,但是存在顺序处理效率低、长序列数据处理模型不稳定等问题。2017年Google团队首次提出基于自注意力机制的Transformer模型,拥有6 500万个可调参数[9],ChatGPT则在这个模型的技术基础上,从GPT-1到GPT-4,模型参数呈指数级增长,文本处理及生成能力大幅提高。而基于Transformer模型的BERT等预训练模型具有较强的语义理解能力。
在图像处理方面,Kingma等在2014年提出深度生成模型-变分自编码器(Variational Autoencoder,VAE),以概率方式对潜在空间进行观察,在数据生成方面有所应用,可以生成与原始数据类似但不完全相同的数据。2014年,Lan GoodFellow提出早期较为有名的生成对抗网络模型(Generative Adversarial Networks,GAN),在人脸照片生成、漫画人物生成、文字转图片、图片修复、3D建模等方面广泛使用。同时,基于自我注意力机制的扩散模型(Diffusion Model)等生成算法出现[10],扩散模型图像生成性能显著,且在图像合成上可以取代GAN的性能,并能生成多样化图像。
此外,多模态技术发展在一定程度解决了AIGC多样性的问题,例如Open AI推出基于Transformer的图像生成模型DALL-E和图像文本多模态模型CLIP,CLIP模型可进行图像分类、搜索、对比等任务,具有更强的泛化能力;谷歌团队推出文本到图像的预训练模型Imagen和Parti; Stability AI推出文本转图像模型Stable Diffusion等,因此预训练模型从单模态走向多模态,AIGC通用性能力将得以进一步提升。
1.2.1 重构传统互联网商业模式,促进数字经济新突破
随着数字经济不断发展,各种数字化场景不断出现,而数字内容生产取决于知识水平、创造能力等,传统单纯靠人的内容生产手段已经难以满足日益增长的数字内容增量需求,引入ChatGPT等人工智能手段辅助内容生产,将进一步变革内容生产方式,并对人工智能利益链产生一定的影响。一方面从应用来看,现有GPT模型、OPT模型等可应用于市场营销、销售邮件、通用写作等文本生成领域,Tabnine模型可自动完成代码编写,DALL-E、Stable Diffusion可用于图像生成、广告设计等领域,X-CLIP模型可应用于通用视频识别, AI模型生成能力已在影响各行业解决问题的传统思维;另一方面随着应用不断扩展,传统企业或者用户往往面临着模型使用门槛高、内容生成存在偏差等问题,反过来促进算力芯片、数据标注、自然语言处理(NLP)等行业的进一步发展。同时,它通过支持人工智能生成内容与其他产业形成多维互动,为其他行业带来新的商业模式。
1.2.2 辅助内容生产,提高数字内容生产效率
将人工智能技术应用于内容生产,一是能大幅提高内容生产效率,通过AI模型辅助内容生产,可以让更多用户以最简单的方式进行内容创作,降低创作门槛,提升创作者生产力;二是随着AI模型训练数据不断完善和算力的不断增强,将能以更低的边际成本满足更多的个性化需求;三是AI模型被“投喂”的知识量可以远远大于人脑的知识储备量,理论上来说其输出的内容质量始终维持在较高水平;四是AI在数字内容生产领域的出色表现,将重塑人机协作的新范式,一个好的内容创意可能不仅来自于内容创作者,也可以来自内容生产工具使用者。
AIGC以人工智能为主体,不断驱动内容生成产业革新,但不可避免存在一定价值偏向和意识形态色彩,具有一定的意识形态属性。一方面,AIGC带来内容生成主体和生成方式的变革,但其内容“三观”完全由研发公司灌输,其输出结果依赖AIGC训练集数据的统计规律,无法核实数据的来源及准确性,容易产生算法歧视和价值偏见;AI算法设计师自身的价值取向也会影响AI内容的公正性与公平性。另一方面,AIGC促进内容传播方式改进,从传统由用户被动式搜索内容过渡到算法个性化推荐,并且支持千人千面的阶段。人机交互过程中,人的主体性地位被不断削弱,导致人对社会的认知过度依赖算法的过滤包装,被算法塑造后的认知空间对人的价值认知更容易产生负面影响。且AIGC本身具有生产周期短、效率高、应用广泛等优势,智能算法已在各个领域扮演主导者角色,会形成“信息茧房”“过滤气泡”“回音室效应”等问题,造成人机意识形态主导权与话语权之争。有研究者指出人工智能对信息生成与传播过程深入介入将进一步强化人对技术的依赖与盲从[11],进一步加剧用户认知风险。
一方面是AIGC侵权风险,AIGC模型生成需要大量的训练集数据,这些数据可能会包含受版权保护的内容。同时AIGC作品本身也是“从有到有”,例如艺术类作品,很可能AI生成最终作品只是原作品新的表达,或者与原作品在表达上构成“实质性相似”,都可能对原作品造成侵权。另一方面是关于AIGC著作的权利归属问题,一是AIGC作品是否受版权保护,美国版权局于2023年3月16日针对AIGC发布版权注册指南,明确版权只保护人类创造力的产物,而在我国,《著作权法》只有自然人或法人才具备拥有著作权或版权的资格,从某种意义来说,AI不具备拥有著作权或版权的资格。有研究者认为,AI模型核心是数据,如果能做好数据确权,就能解决AIGC作品版权保护问题[12]。但是数据确权是一项复杂工程,全球尚无统一标准,因此关于AIGC作品是否受版权保护尚无定论。二是作为AI模型开发者或者使用者是否拥有版权,2018年腾讯状告网贷之家网站未经授权许可,抄袭腾讯机器人Dreamwriter撰写的文章,宣判结果为AI生成作品属于著作权法保护范围,腾讯公司胜诉。在此案中,著作权归开发者所有。我国AI生成工具文心一言也认为用AI工具生成内容的版权属于生成该内容的AI工具开发者。ChatGPT则认为由它生成的内容著作权归ChatGPT使用者所有,AI工具只是进行作品创作的技术手段,具体内容及表现形式需要使用者来决定。科大讯飞的星火认知大模型则根据具体情况具体分析,如果作品由人类使用AI工具创作,版权通常属于人类作者,如果作品由AI程序自动生成,则需考虑AI程序开发者和使用者对版权归属的责任与义务,以及使用场景及目的等因素[13]。由于AIGC著作权利归属问题无明确界定,导致AIGC作品无法受到著作权保护,阻碍人工智能技术使用,同时可能因AI的摹写行为侵犯他人合法权益。
AIGC是以数据为中心构建的模型,训练数据集合的全面性、准确性、多样性和公正性决定了输出结果是否具有相应特性,但在实际情况下,AIGC训练数据是有限的,且受到相应AI模型开发者和使用者的个人价值观影响,容易产生歧视、价值观对抗、霸权、虚假信息等问题。例如训练AI模型的数据可能是基于某特定地区或国家的文字进行训练,它在理解其他语言语义上就会相对较差。如果数据集主要针对某些特定主题,则响应其他主题内容时,则无法给出理想答案。如果数据集存在一些种族偏见、性别偏见、历史偏见等问题,则其生成的内容可能会固化这些偏见。 同时AI数据集来源包括大量用户生成内容,内容具有一定的价值偏见,如果与主流价值观点相冲突,就会削弱部分弱势群体的利益,且AIGC传播特性还可能造成这种价值偏见在传播过程中不断延续与强化。此外,AI模型主要是“向数据学习”,其可能无法区分事实数据和虚构数据,因此容易生成一些具有一定说服力和可信度的虚假作品,加上其生产效率高特点,有助于虚假信息的泛滥、传播,如果不予以监管,将进一步加大偏见或有害刻板印象。
ChatGPT的横空出世拉开了大语言模型产业的序幕,其模型参数和预训练数据量呈几何级数增长,模型训练和部署需要消耗大量的电力和算力[14],艾瑞咨询关于《ChatGPT浪潮下,看中国大预言模型产业发展》[15]提出,2020年微软Azure为GPT-3准备的训练研发平台共部署1万多块英伟达V100,如果置换为A100,则GPU算力约3 000~5 000块英伟达A100。在电力方面,AI算力用电需求庞大,训练单个模型消耗的电力超过100多个美国家庭1年的用电量[16]。且模型不仅需要训练,还需要用来为大规模用户服务,这增加了几倍的计算量,从总体来看会造成巨大的碳排放量。
通过出台相关政策法规,对AIGC技术和内容进行正面价值引导、监管并治理。目前,各国政府针对AIGC等人工智能技术的健康可持续发展制定了相关规划或政策。欧盟于2021年发布《人工智能法案》草案[17],提出人工智能风险预防机制和实践路径;2017年国务院印发《新一代人工智能发展规划》指出[18],人工智能带来法律适用性、社会伦理等方面的挑战,要加强伦理法规制定,建立人工智能健康发展法律法规、伦理规范和政策体系,具备人工智能安全评估和管控的能力。同时,为明确算法推荐服务提供者的主题责任,加强网络信息安全管理,并保障算法推荐服务规范健康发展,避免算法歧视、诱导沉迷等不合理应用现象,在《法治社会建设实施纲要(2020-2025年)》《网络安全法》《个人信息保护法》《关于加强互联网信息服务算法综合治理的指导意见》等政策文件基础上,《互联网信息服务算法推荐管理规定》[19]明确算法推荐服务提供者应坚持主流价值导向、积极传播正能量、禁止合成虚假新闻信息及禁止利用算法影响网络舆论等;2022年11月,国家互联网信息办公室印发《互联网信息服务深度合成管理规定》[20],该规定针对深度合成技术带来的现实危害与潜在风险,提出科学化的治理要求,规定深度合成服务的使用范围,界定各方主体责任与义务,强化和规范服务提供者责任,通过强化备案与评估等手段对深度合成服务进行全过程管理与监督;2023年4月,针对ChatGPT等生成式人工智能技术的高速发展,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》[21],拟对生成式人工智能进行专项监管,在该意见稿中,明确生成式人工智能的定义,生成式产品或服务以及预训练数据应满足的要求,服务提供者的合规义务及法律责任。虽然以上法律法规规定AIGC技术应用的红线与底线,但针对AIGC产品或服务的责任认定、知识产权等权属认定、训练数据版权争议等处于探索阶段。且有研究者认为人工智能的大范围使用才刚刚开始,其治理工作也处于起步阶段,目前法规或者标准等在指导人工智能技术的有序开发与利用方面的作用仍然有限[22]。因此,政府应加强政策引导,一是在AIGC治理工作中起到统领作用,形成政府、社会组织、企业、群众等主体共同参与的协同治理格局[23],政府作为AIGC治理的主导者,应进一步完善相应的法律法规,对人工智能研发者、管理者和使用者行为进行规范,以促进技术规范应用和行业健康发展;二是通过进一步细化法律法规,明确各相关方面的法律责任,持续完善监管框架,实现事前、事中、事后全流程、可溯源的监管;三是开展AIGC产品或服务权属认定等方面的法律法规研究,明确AIGC获取、利用版权数据进行模型训练和模型应用是否合法,界定模型训练和应用过程中利用版权数据的方式及合法使用行为,同时明确AIGC产品或服务权属的认定标准及形式等。
通过行业层面加强“技术向善、伦理先行”意识,加强行业自律,促进AIGC行业良性发展。其中行业成员是AIGC治理的具体配合者,是人工智能技术能否得以有效和规范应用的具体生产者,行业成员应秉承负责任的态度发展人工智能技术,确保AIGC相关的软件、工具、服务及其背后的算法等实现全流程可监管、可溯源。同时,行业应根据AIGC存在的各种风险制定行业管理规范,达到科技向善目的,并能有一定的安全措施保障,可以确认AIGC应用是安全可控的。此外,通过建立行业联盟,发挥资源整合优势,围绕AIGC合法合规应用和健康发展目标,联合制定行业发展规范,并通过行业黑名单、风险管理、伦理审查、内容治理、版权保护、违法打击、危机应对等行业自治机制,实现AIGC良性发展生态。
Gran等[24]通过定量研究方法将算法意识和态度纳入数字鸿沟研究发现,用户对各种算法驱动下的广告和内容推荐等态度与算法意识水平存在一定的关系,同时,算法意识水平存在明显的人口统计学差异。而算法素养对理解用户的人智交互行为至关重要[25],这种能力主要体现在感知算法、理解算法和使用算法[26]。Sundar[27]认为在人智交互过程中,用户对人工智能的差异化理解都可能影响用户对人工智能的判断,算法素养高低将在一定程度决定用户对人工智能究竟是选择质疑还是信赖。ChatGPT等AIGC模式一方面在信息检索等方面为用户提供了便利,部分算法素养过低的用户可能很难意识到AIGC仅仅是不断迭代更新的算法模型,可能会对算法形成一定的依赖与盲从。此外这类用户对于AIGC生成内容的真假缺乏一定的判断力。因此,一方面,通过AIGC技术与应用的宣传加强用户对AIGC技术滥用带来的风险认知和不良AIGC的甄别能力;另一方面通过科普等手段提升用户对各类算法信息的鉴别意识、对操纵性信息的判断力等,对AIGC生成内容持批判意识,从而避免信息茧房、算法利维坦等风险出现。
综上所述,虽然AIGC技术带来了多方面的风险,但不可否认其推动了内容生产方式变革,未来将会取代大量重复性的内容生产与传播工作,并将重构产业结构,在提高内容生产效率的同时,为各行各业带来新的发展机遇,如何通过政策制度来平衡技术发展和风险治理之间的关系,将是需要解决的难题。从风险来看,技术发展本身并没有问题,关键在于如何约束、监督并使用它,发展与监管应统筹兼顾,并通过汇聚多方利益群体力量,不断加强各个群体人工智能治理能力,建立健全全流程风险管理体系,从而实现人与人工智能和谐发展。