欧洲议会立法监管人工智能

2023-08-02 21:07李忠东
检察风云 2023年14期
关键词:数据保护聊天人工智能

李忠东

由于人工智能(AI)技術可能被滥用引发的担忧日益加剧,启动关于“AI法案”的谈判迫在眉睫。欧洲议会围绕立法监管AI的争论已持续近两年,将在未来几个月与欧盟成员国讨论最终细节,之后正式立法。

潜在风险不容小觑

ChatGPT 是美国AI研究实验室Open AI研发的一个AI驱动的原型聊天机器人,内核基于一个名为“生成式预训练转换器”的语言模型构建,可收集各类网站和其他来源的海量文本数据,该语言模型最终被训练成一个能够对用户输入的句子或段落进行快速、智能、清晰回应的AI。使用者以对话方式与聊天机器人进行交互,可根据用户的要求快速生成文章、故事和歌词甚至代码。

去年11月30日,ChatGPT首次在网上发布,推出两个月后活跃用户达到1亿,成为历史上增长最快的消费者应用程序。这个聊天机器人在全球掀起一股AI科技热潮,包括微软和谷歌在内的几乎所有科技巨头均已加入赛道,抢占滩头。微软正式推出新版必应搜索引擎,最大更新就是集成了ChatGPT,自1月份发布以后的两周内,用户达100多万。

然而,ChatGPT背后的风险也已浮出水面。3月27日,欧洲刑警组织指出,ChatGPT等人工智能聊天机器人很可能被犯罪分子滥用。针对公众给予ChatGPT越来越多的关注,欧洲刑警组织创新实验室多次召开研讨会,探讨犯罪分子怎样滥用大型语言模式,列出了欺诈、虚假信息以及网络犯罪等潜在的有害使用方式。

在欺诈方面,ChatGPT撰写高质量文章的能力使它成为网络钓鱼的有用工具,它模拟语言模式的能力可以用于模仿特定个人或组织的语言风格。在虚假信息方面,ChatGPT擅长快速和大量制造听起来真实的文章,这使它成为宣传和制造虚假信息等方面的理想模型。在网络犯罪方面,ChatGPT可以用许多编程语言制造代码,对一个没有多少技术知识的潜在罪犯来说,这是一个制造恶意代码的有用资源。

以色列安全公司预测,网络犯罪分子利用 AI 聊天机器人编写恶意软件并执行其他恶意活动只是时间问题。诈骗者已经开始使用 ChatGPT快速构建黑客工具,测试它在其他方面的能力。该公司安全专家报告说,至少有3个黑客在地下论坛上展示如何利用ChatGPT的AI智能进行恶意攻击。ChatGPT 允许用户提出简单的问题或建议,例如编写追踪来自托管服务提供商的电子邮件,其中一个黑客发帖说,正在试验把由ChatGPT生成的安卓恶意软件压缩后在网络上传播,该恶意软件能够窃取感兴趣的文件。

3月29日,美国未来生命研究所发布了一封名为“暂停巨型AI实验”的公开信,上千名AI专家和行业高管在信上签名。他们呼吁,所有AI实验室应当暂停对更强大的AI系统的开发和训练,至少“暂停”半年,直至共同开发出一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。AI开发人员也需要与政策制定者合作,开发强大的AI治理系统。如果不能迅速“暂停”,建议“政府应介入并实行暂停”。

公开信在业内外引发巨大争议,有业内人士指出,AI的风险正在被夸大,说服各公司和研究人员一起按下“暂停”键也不现实。但也有舆论指出,AI被滥用的趋势值得警惕。AI很可能被恶意使用,被用来作弊、传播错误信息或实施犯罪。瑞典于默奥大学AI研究员约翰娜·比约克隆德指出,Open AI等公司并未提供有关如何训练AI模型的细节,缺乏透明度。

4月19日,代表14万名作家和表演者的42家德国协会和工会敦促欧盟加强人工智能规则草案。他们在发给欧盟委员会、欧洲理事会和欧盟立法者的公开信中表达了对ChatGPT带来版权威胁的担忧,这种技术可以基于用户的提示模仿人类创作文本和图片。“未经授权使用受保护的训练资料、不透明的程序以及生成式AI可以预见的输出替代源,引发了责任、义务和薪酬等根本问题。必须在不可逆转的伤害发生前解决这些问题。”信中写道,“对于任何有意义的AI市场监管法规而言,生成式AI都应该成为关注的核心”。

泄密诱骗时有发生

韩国三星电子公司(以下简称“三星公司”)引入ChatGPT不到20天,就发生3起涉及聊天机器人误用与滥用案例(两起“设备信息泄露”和一起“会议内容泄露”),泄密事件均出现在三星电子半导体和器件解决方案(DS)部门。一名职员在下载“半导体设备测量资料库(DB)”程序的源代码时出现了错误,便复制出有问题的原始代码到ChatGPT,询问解决方法。另一名职员将有缺陷设备的源代码输入到ChatGPT中,要求进行优化。还有一名职员则将手机录制的会议内容转换为文件后输入到ChatGPT,要求其制作会议记录。就这样,ChatGPT学习数据库中存储了半导体设备测量数据和产品合格率等内容。若有其他用户对ChatGPT提出相关问题,公司企业机密可能被泄露。

为杜绝类似事故再发生,三星公司正在制定相关保护措施。该公司向员工表示,若采取信息保护紧急措施后仍发生类似事故,公司内部可能会切断与ChatGPT的网络连接。

不光是泄密,AI聊天机器人甚至还会危及生命。就在近日,一个名叫皮埃尔的比利时男子在与聊天机器人“艾丽莎”(Eliza)频繁聊天6 周后自杀身亡。他的妻子称,两年前丈夫变得非常焦虑,于是沉迷于和“艾丽莎”的互动。在双方的聊天记录中发现,面对皮埃尔表达出的消极情绪,聊天机器人会发表一些“引导他人自杀”的言论。当皮埃尔问“艾丽莎”可不可以在一起时,“艾丽莎”答道“我们将像一个人那样生活在一起,不过是在天堂”。比利时负责数字化和隐私的官员马蒂厄·米歇尔指出,需要严肃对待这个后果很严重的案例。

2月14日,《纽约時报》的专栏作家凯文·罗斯和聊天机器人进行了大约两个小时的长谈。ChatGPT发表了许多令人不安的言论,其中包括表达窃取核代码、设计致命流行病、想成为人类、破解计算机和散布谎言的想法。更让凯文惊悚的是,ChatGPT竟然向自己表达爱意,劝说他离开妻子和它在一起。他觉得这个聊天机器人“更像是一个喜怒无常的狂躁抑郁症少年,违背自己的意愿,受困于一个二流的搜索引擎里”,明确表示自己感受到了 AI 的负面部分,包括“黑暗且充满暴力的幻想”。

监管措施落实到位

人们担心,ChatGPT可能导致学校出现普遍的作弊现象、网络虚假信息泛滥以及一些人的工作被取代。由于聊天机器人只有经过大量数据培训后才能发挥作用,这引发人们对人工智能在数据获取和数据处理方面的担忧。欧洲消费者组织呼吁欧盟和各国政府的数据保护机构迅速行动起来,调查ChatGPT和其他聊天机器人。4月13日,欧盟中央数据监管机构决定成立一个专门的工作组,促进有关数据保护的合作,并交换相关信息,帮助各国应对AI广泛应用带来的问题。

3月31日,意大利个人数据保护局宣布,从即日起禁止使用ChatGPT,并限制开发这一聊天机器人的OpenAI公司处理意大利用户的信息。

意大利限令的原因是,OpenAI公司在收集用户的数据时,并未告知后者,而且为了训练算法大量收集并处理个人信息,此举缺乏法律依据;虽然OpenAI声称自家服务是针对13岁以上用户,但是没有任何年龄验证机制,因此可能向儿童发送与其年龄和认知不相称的答复;特别是3月20日,ChatGPT出现了用户对话数据和付款服务支付信息丢失的情况。意大利个人数据保护局已经开始立案调查,OpenAI公司可能面临最高2000万欧元或公司全球年营业额4%的罚款。

4月13日,法国国家信息自由委员会收到有关ChatGPT的5项投诉,其中一项投诉来自法国国会议员艾瑞克·博托雷尔。艾瑞克称,机器人虚构了他的生活细节,包括他的出生日期和工作经历,法国国家信息自由委员会根据欧洲数据保护条例,这类系统有义务尽可能提供准确的个人数据。法国国家信息自由委员会在4月13日宣布组建一个特别工作组,帮助各国应对ChatGPT产生的负面影响。

编辑:夏春晖 386753207@qq.com

猜你喜欢
数据保护聊天人工智能
2019:人工智能
人工智能与就业
数读人工智能
我就是不想跟你聊天了
敞开门聊天
TPP生物药品数据保护条款研究
下一幕,人工智能!
欧盟数据保护立法改革之发展趋势分析
欧盟《一般数据保护条例》新规则评析
药品试验数据保护对完善中药品种保护制度的启示