合规实践:探寻类ChatGPT大模型产品风险化解之道

2023-06-16 10:09陈心宇
互联网天地 2023年5期
关键词:合规个人信息内容

□文 | 陈心宇

0 引言

ChatGPT炙手可热,各大互联网公司擦拳磨掌,急于抢占市场并欲在生成式人工智能领域分一杯羹,且随着技术的不断发展,类ChatGPT产品会应用于多种领域,将会影响我们生活工作的方方面面,相应的风险也随之产生。为此,各国都积极出台政策以应对新技术带来的风险,我国近日出台了《生成式人工智能服务管理办法(征求意见稿)》(以下简称“《AIGC管理办法》”),便是对此的回应。同时,互联网公司需遵循人工智能的相关规定,综合考虑在训练数据来源与质量的合法合规的基础上,保证自己的生成式人工智能产品输出合法合规,利用技术等手段进行合规工作。

1 类ChatGPT产品技术特点与应用

ChatGPT横空出世,开启了强人工智能时代新篇章,其独特的技术特点、便利的服务模式给人们的生活带来了翻天覆地的变化。国内科技巨头也在积极布局类ChatGPT应用,商汤商量、百度文心一言、华为盘古、智谱华章ChatGLM等纷纷亮相。在此背景下,为了更好地对其进行合规监管,首先需要了解大模型的原理特点及应用场景,从而应对可能出现的风险,做出符合实际并具备长效保护模式的监管决策。

1.1 类ChatGPT原理与实现方式

由OpenAI开发的ChatGPT掀起了多模态通用生成模型研究开发的热潮,ChatGPT是自然语言处理(NLP)中一项令人瞩目的进展,经过多类技术积累与迭代,融合机器学习、神经网络以及Transformer(直译为转换器)等多种技术模型,Transformer被运用在大型语言模型(LLM)上,以“预训练+微调”的工作模式,成为深度学习多领域处理目标任务新范式。

简而言之,ChatGPT是以GPT为基础,通过学习大量的语料,构建模型,处理用户输入,生成回答并最终实现人机对话的应用。其实现机制具体包括如下三个方面,首先,为了保证数据的质与量并显著提升大模型训练技术生产效率,需要通过开放API带来更多数据,如使用公开的数据集和第三方供应商许可的数据,另需通过技术手段过滤掉无用数据来提高模型基线、保证数据质量;其次,模型从大规模的语料库等数据中捕捉规律进行预训练以预测文档中下一个令牌,并在高维抽象空间形成有条理的“数据库”,之后纳入人类反馈的强化学习(RLHF)进行指令微调从而优化语言模型,提升自我纠错能力,之后再通过人类标记过的答案学习人类的偏好;最后,设计团队又采用标注对齐策略,给模型提供标注数据,提高模型回应提问的准确性。因此ChatGPT可以捕捉语言的语法、语义和惯用法,并根据给定的上下文理解和分析人们可能期望写下什么并模拟专家给出回答,或对用户输入的文本进行合理续写或做出决策并生成自然语言回复,同时为了提高审查文本质量与流畅度进行不断的迭代优化,来更好地满足人类对话的需求。

1.2 AI要素与应用场景

AIGC主要依赖精心设计的算法与规模化的算力从而训练生成内容,随着技术的进步迭代,对于高质量大数据的需求量也与日俱增。如今,算料、算力和算法影响着时下经济的运行,构成了大模型产品的主要要素,流行的说法是:数据洞察用户需求,算法改变商业本质,算力重塑经济未来,三者缺一不可,相互支撑。

随着GPT技术在更广泛的任务应用、更精准的预测、更高的智能水平、更好的可解释性方面的突破,3月15日,GPT-4面世,相较于之前的版本它实现了以下几个方面的飞跃式提升:增加了图像理解能力、能够处理的文本长度增加了并且文本的记忆能力也增强了。根据微软研究院发布的《人工通用智能的火花:GPT-4的早期实验》报告分析:“除了对语言的掌握,GPT-4还能解决跨越数学、编码、视觉、医学、法律、心理学等领域的新颖而困难的任务,而不需要任何特殊的提示。”未来的大模型将会相互融合发展,并逐步提供语音、视频类的生成合成技术应用,也向不同应用领域进军,如延伸至专业的医疗、法律领域,或者与传统的搜索引擎、小程序、办公软件接入结合,提供更加人性化的服务。在这个基础上,为了对齐人类伦理、满足用户需求,就需要相关部门优化监管模式与配套制度,科技企业提升技术水平做到更加开放与透明,同时也应当注重相应的合规工作,以确保自己的产品能够符合要求顺利上线并提供优质的服务。

2 类ChatGPT产品带来的风险挑战

由于大模型独特的技术特征使得它能够不断迭代升级的同时也会产生相应的风险与威胁。大模型产品的合规工作首先应当识别风险源,为了分析大模型产品全生命周期可能存在面临的威胁及其大小,笔者梳理了如下风险。

2.1 数据风险:数据泄露威胁安全

首先,在算法相关业务开发过程中使用的第三方数据集和自有数据集来源不合法或算法开发和运营的数据质量不足的风险。ChatGPT模型需要预先对既有文本和数据学习训练,但OpenAI并未公开其学习语料的来源,且预先学习模式无需人工介入、标注和监督的特征决定了ChatGPT在获取数据方面不受人类干预和控制,不可避免会获取非法来源的数据。

其次,算法上线后,算法相关业务的数据遭到泄露、被窃取或被破坏的风险。近年来,数据泄露日益成为网络安全的主要威胁,数据泄露事件频发,呈现出泄露规模大、行业多、持续长等特点。由于大模型需要大量的数据进行训练,会广泛的收集用户输入输出的数据进行训练以优化改进模型,这些数据可能包含用户的个人信息、敏感、私密信息甚至是企业的商业秘密,相关风险表现在以下两个方面:一是未经自然人同意,不当利用算法技术私自监控获取用户个人信息与上网数据,或泄露用户个人信息,侵害自然人个人信息权益、隐私权等,这会架空“知情同意”规则,剥夺个人信息的自决权;二是用户可能不加防范的键入商业机密,这些信息会被瞬间捕捉并纳入开发者数据库,泄露商业秘密或违反保密义务引发不正当竞争和侵权问题。实践中,风险程度随着大模型技术在各国普及和深度开发不断升级,ChatGPT发生了数据泄露、未就收集处理用户信息履行告知义务、无法保护未成年人等种种问题。

数据洞察用户需求,算法改变商业本质,算力重塑经济未来,三者缺一不可,相互支撑。

2.2 信息风险:难以控制

首先,由于模型无法对数据来源及用户输入进行事实核查,获取的信息难以经过实质性筛选和过滤,训练数据在源头存在内容不合法不合规、内容虚假甚至完全错误的风险。倘若ChatGPT未经许可擅自使用特定信息,其行为的合法性将受到质疑,例如,可能涉嫌侵犯公民个人信息、非法侵入计算机信息系统、破坏计算机信息系统、非法获取计算机信息系统数据等。

其次,算法存在生成违法违规信息、推荐违法不良信息或以其他方式帮助违法违规信息传播的风险。大模型存在通过思维链“诱导”或者被“投毒”生成不良信息风险,如生成诈骗信息或恶意脚本。“古德哈特定律”表明,大模型的奖励机制是围绕人类监督而设计出来的,因此可能导致过度优化从而影响模型性能。OpenAI曾表示ChatGPT“有时会写出看似合理但不正确或荒谬的答案”,称作“人工智能幻觉”,故而大模型“越狱”在所难免,尽管模型开发者已采取技术手段避免输出违法不良信息,但是由于训练数据质量较低、算法黑箱难以解释、用户恶意诱导等种种原因,模型会输出不良、虚假、误导或违法有害信息,突破道德伦理及法律底线,异化为不法分子的作案工具。

3 路径探索:跨越风险雷区的合规保护

《生成式人工智能服务管理办法(征求意见稿)》的出台,在《网络安全法》《数据安全法》《个人信息保护法》“三驾马车”的基础上,共同构筑了我国人工智能领域的合规依据及监管指向。基于此,笔者对上述规定进行简要梳理,根据上文相关数据与内容风险,提取监管重点并提出合规建议。

3.1 训练数据合规

训练数据是指用于训练AI模型,使其做出正确判断的已标注数据/基准数据集。实践中,训练数据的处理流程包括数据采集、数据清洗、数据标注、模型训练、模型验证、实现目标。而训练数据风险主要集中于数据收集阶段,需要关注处理者的处前合规义务的履行,《互联网信息服务深度合成管理规定》首次明确了深度合成服务提供者和技术支持者需采取必要措施对训练数据进行管理的义务。《AIGC管理办法》明确要求提供者对数据及数据来源的合法性负责并进行描述,包括但不限于知识产权、个人信息等。企业还需关注是否采取技术手段清洗标注数据,保障数据的安全可靠。一般大模型企业获取数据主要从公开数据集、自行采集数据或以交易的方式购买数据。

首先,利用爬虫等技术手段爬取数据用于大模型训练的情形需注意以下三方面。第一,爬取开放的公共数据集的情形,政府部门和公共部门面向自然人、法人和非法人组织提供公共数据处于公共领域,原则上可以不经授权使用。第二,若爬取内容涉及商业秘密,需注意根据《中华人民共和国反不正当竞争法》相关规定,经营者应避免利用爬虫技术爬取其他经营者的商业数据,如违反约定或者合理、正当的数据抓取协议,获取和使用他人的商业数据,从诸如具有禁止第三方爬取数据条款的网站收集海量数据,可能被认定为侵犯他人竞争性财产权益,或者构成搭便车、混同等不正当竞争行为,面临侵权风险。第三,收集公开数据涉及个人信息的,根据《中华人民共和国个人信息保护法》第十三条在合理的范围内具备相应的合法性基础,即可处理个人自行公开或者已经合法公开的个人信息。根据《民法典》第一千零三十六条的规定,虽然可能满足《中华人民共和国个人信息保护法》规定的合法性基础的前置性条件,但也赋予了自然人相应的拒绝权,并且明示一旦处理行为侵害信息主体利益造成损害,处理者需要承担侵权的民事责任。

训练数据是指用于训练AI模型,使其做出正确判断的已标注数据/基准数据集。

其次,若通过数据交易的方式向数据提供商或数据交易所购买数据,此时为防范相关法律风险,需要对原始权利主体、授权链条的完整性及授权范围进行检视。由于实践中为实现商业利益最大化,若要求企业越过第三方数据供应商触及每一个权利主体遵循“三重授权原则”进行告知同意是不现实的,故而大模型厂商在购买第三方数据集前可通过查看开源数据集提供方的公开信息披露,重点核查其中是否包含敏感信息或隐私。此外,还可以通过与数据提供方签订协议等方式规避风险,协议中要求供应商采取技术手段对数据进行清洗,但是第三方清洗数据会存在较大的法律风险,涉及买方是否要对清洗后的训练数据负责?若训练数据清洗后依然留存违法违规内容或可能侵权的内容,买方是否需要承担相应的责任?也就是说买方是否有义务去对清洗后的训练数据进行逐一核查,履行注意义务,则当发生法律侵害事实后有义务承担相应的责任及责任大小,这就需要在数据清洗服务协议中明确买卖双方的权利义务。对于数据内容方面,尤其是清洗掉含有意识形态等政治方面及违法违规不良信息等,买方须要求卖方对数据质量问题进行担保,从而转嫁法律风险。

最后,类ChatGPT模型部署后,通过人机交互模式产生的业务数据,可能会被用于未来的模型迭代训练。此时,公司应采用技术手段避免使用个人信息进行算法业务开发与业务数据的再训练,若无法避免涉及个人信息的,服务提供者应当进行事前告知并取得同意。利用业务数据进行算法业务开发的,应同时采用数据清洗、人工标注等方式,对训练数据、业务数据中包含的个人信息进行匿名化处理,防范算法生成结果泄露用户个人信息。

3.2 内容安全合规

相关法律法规对大模型的内容方面做出较为严格的规定,因为内容安全不仅涉及科技伦理方面,对意识形态的传播提供支撑,还在社会稳定、国家安全等方面具有重要意义。《AIGC管理办法》要求利用人工智能生成的内容需体现社会主义核心价值观,并且应当真实准确,提供者应采取措施防止生成虚假信息,还需承担内容生产者责任。对于大模型企业来说,需设置内容分级审核机制,且对新闻、时政类内容加强审核,禁止出现涉政涉黄、虚假新闻、违背公序良俗、恶意贬损他人名誉或商誉等内容,且非持牌不得传播非国家规定范围内的单位发布的新闻,同时要求大模型企业建立违法不良信息审核与管理机制及虚假信息防范与辟谣机制,可组建相关审核团队进行内容审核与技术过滤,从而降低相关风险。

《网络信息内容生态治理规定》第六条和第七条对违法和不良信息进行了不完全列举,主要特征是危害国家安全与社会公共利益的信息,但是对于虚假信息,尚未有规范进行明确定义或例举,由于人工智能生成信息本身就带有“非真实性”,其内涵与外延边界较为模糊,若依据《AIGC管理办法》强行要求其内容必须真实,似乎又违背了技术初衷,为提供者施加较高的义务,给相关合规工作带来挑战。笔者认为,对此需要结合场景进行个案分析,不能一概而论,如生成虚假新闻存在给公共安全或他人合法权益造成威胁的可能,就必须进行及时的防范或补救。《AIGC管理办法》对于内容的安全要求涵盖技术提供者与内容提供者,考虑到在责任承担方面,若要求大模型产品提供者承担内容生产者责任,不考虑使用者和终端用户等的内容生产责任,是否会给提供者施加过重的义务?此外,应从侵权范围、损害程度及平台止损能力入手,判断模型运营公司是否需要承担相应的补充责任。在司法实践中,由于特定业务场景与服务内容不同,不同角色承担的权责义务亦不相同,且个案中开发者与使用者之间的协议安排也是审查重点。如果大模型产品涉及提供内容包含违法不良要素,使用者可以向监管部门投诉,要求监管介入处理从而维护自己的权利。

通常大模型会输出不安全的内容是由于训练数据来源鱼龙混杂,以及因地域数字化发展不平衡或社会价值的倾向偏见,使得数据所承载的信息带有难以用技术手段消除的偏差,所谓“garbage-in,garbageout”,从而导致模型的输出带有歧视性。所以企业在训练数据清洗阶段进行内容的审核与过滤的同时,重点评估涉政有害类、色情低俗类、暴恐违禁类文本识别召回率、准确率、精确率,加强对输入信息与生成信息进行违法和不良信息审核,防止模型生成违法和不良信息并呈现给用户,对于不可控的创作内容,采取及时删除降低社会危害。另外,《AIGC管理办法》第八条对训练数据的标注提出要求,企业需对标注人员进行培训,从而使算法模型具备更高的准确性。欧盟《数字服务法》也要求平台进行深度合成标注,因此,虚假不良信息的治理是世界深度合成模型监管的重中之重,在数据出境方面,各类ChatGPT产品企业也需注意相关方面的合规工作。

假使人工智能生成了不安全信息,《互联网信息服务深度合成管理规定》对违法和不良信息及虚假信息提出了处置要求,包括但不限于记录和报告的义务。上述法律法规为避免不安全信息传播或被恶意使用,还要求服务提供者需对生成内容添加不影响用户使用的标识。一般的内容,需要在以不影响用户使用的情况下添加AI标识,可能对用户公众造成混淆,影响社会公共秩序的,需要在显著的位置、以显著的方式,提示内容是AI生成的,对于深度合成服务提供者,不得删除、篡改、隐匿深度合成标识。实践中,公司可在大模型系统中设置每次对话中都会显示深度合成内容显示标记,告知用户生成合成内容不代表开发者立场,并要求用户不得删改。立法还特别要求提供者发现用户违法使用服务的,应当立即暂停提供服务,同时赋予用户举报的权利。对于生成违法不良信息的用户,提供者可以对违法违规用户账号进行限制,如禁言等方式限制账号功能。

4 结束语

智能技术飞速发展的今天,对人工智能的规制不应限制技术,而是防止其野蛮生长,在尊重客观规律的基础上,探寻合理的监管与合规之策。对于提供类ChatGPT产品的企业来说,要正确识别风险源,综合考量风险将会给国家、社会、个人的权益带来何种威胁,在确保技术发展的前提下正确引导科技向善,从来源与输出方面控制信息内容真实、准确、完整,不带有偏见、歧视、暴力、违法违规等不安全内容,在掌握先进技术的同时,避免核心技术“卡脖子”的风险。各企业也需及时关注相关合规法律动态,积极与监管部门沟通,并寻求专业的合规机构帮助,让自己的产品能够安全合法上线。另外,监管部门可适当借鉴其他国家的经验,兼顾“横向”与“纵向”治理,形成符合中国国情的AI监管模式。■

猜你喜欢
合规个人信息内容
如何保护劳动者的个人信息?
内容回顾温故知新
个人信息保护进入“法时代”
对企业合规风险管理的思考
警惕个人信息泄露
外贸企业海关合规重点提示
GDPR实施下的企业合规管理
主要内容
不只是合规
个人信息保护等6项通信行业标准征求意见