人工智能侵权现状及法律规制思路

2024-05-16 22:59
法制博览 2024年10期
关键词:实施者人工智能消费者

郑 婕

青岛科技大学,山东 青岛 266061

一、概念介绍与问题提出

人工智能是智能学科重要的组成部分,它企图了解智能的实质,并生产出一种新的能与人类智能相似的方式做出反应的智能机器。随着现代社会科学技术的不断发展,人工智能的水平逐渐提高,基础理论与技术提升愈发完善,使得人工智能的运用渐渐扩大到社会的各个领域中。

随着人工智能被广泛应用到互联网信息服务中,其作为“颠覆性创新”,从对生活的影响可扩大至对社会生产的影响,进而带动经济结构变革乃至整体产业革命,甚至重构经济体系[1]。与其影响力对应,其引起的法律风险得到社会越来越多的关注,而有关法律风险几乎都是由于准入制度的匮乏、市场监管的低效、信息披露的不足和法律责任的模糊所造成的[2]。因此学界围绕人工智能各项问题讨论的最终落脚点都离不开相应的政策和法律保障——当前尤其需要加强经济法规制。

二、人工智能侵权的现状

人工智能侵权是指人工智能系统在运行过程中,侵犯了他人的合法权益,例如,侵犯隐私、知识产权等。人工智能的侵权主要是由于准入制度的匮乏、市场监管的低效、信息披露的不足和法律责任的模糊所造成的,最终导致数据垄断和歧视的问题突出,严重影响了社会公平和消费者权益[3]。主要表现在以下几个方面:

(一)大数据“杀熟”

在大数据带来便利的同时,有些“精明”的商家或平台充分利用大数据“杀熟”来使自己能更快更多地获取利益。所谓“杀熟”是指商家利用大数据算法技术,对用户或消费者的数据进行分析比较,并对消费频率高且难以注意价格变化的消费者差别定价,使其承受更高的价格。“杀熟”对权利的侵犯主要从以下几个方面体现:

1.公平交易权

《消费者权益保护法》第十条第一款规定:“消费者享有公平交易的权利。”所谓公平交易权的重要内涵之一就是要有合理的价格。但各个平台通过运用算法的计算对不同消费者进行标记与分类,进一步向其展示同一商品的不同价格,明显就违反了公平交易权的内在要求。

当平台对消费者进行“杀熟”时,大部分消费者,尤其是平台的老客户由于多次在该平台进行消费,因此无法轻易意识到平台所显示的价格变化。而平台则利用这一点对消费者进行区分定价,使消费者无法享受到公平交易权,处于不平等地位。

2.知情权

由于算法通过数据的处理对消费者进行分类,并对其展示各种不同的价格,因此在不同时间打开购物软件,同样的一个商品价格出现波动的现象非常常见,但由于这种情况过多,且消费者极少认真注意,导致消费者往往无法获得所购之物的原本价格。大数据正是通过这种向消费者隐瞒原价的方式来侵犯他们的知情权。

此外,目前大部分软件在初始注册时都需要用户进行信息授权,但对于软件方会将授权得到的信息做何用途往往不会详细告知用户,比如其可能会有涉及用户隐私或电脑数据的操作[4]。而算法“杀熟”就是在收集到的信息的基础上进行的,但显然软件方不会让此用途被消费者知悉,这也可视为对知情权的侵犯。

3.自主选择权

《消费者权益保护法》第九条第一款规定:消费者享有自主选择商品或者服务的权利。第三款规定:消费者在自主选择商品或者服务时,有权进行比较、鉴别和挑选。算法会根据消费者的浏览和购买记录进行演绎推理,从而向消费者推送特定的产品,使得消费者在浏览软件时,所见范围被限制在了所推送的范围内。随着算法越来越精确,那么被推送的商品范围就会越来越小,用户就难以便利地进行比较、鉴别和挑选。这明显是违反了《消费者权益保护法》中对消费者自主选择权的规定。

(二)知识产权侵权

在人工智能的应用越发普及的时代,对于人工智能生成物是否构成作品,有必要重新审视。著作权法所要保护的并不是自然界中所固有的、早已出现的物,而是通过想象所构思出来的、带着人主观情感的作品。由于脑科学至今未对“人如何创作”这一问题给出明确答案,因此目前来作人工智能与人类创作方式是否相似的判断,是缺乏科学依据的。

但人工智能生成物的外观,至少是很大一部分,跟人类创作行为的产物并无本质区别[5]。如果人工智能生成物可以通过原创性检验,那么其与“真正的”作品就更是相差无几。而对于受众来说,其难以分辨孰为作品、孰为人工智能生成物,而且,其无意也无需分辨孰为作品、孰为人工智能生成物。可以说,当人工智能生成物真的经受住市场的检验,而更多更广地应用开来时,区分一个作品是否为人类作者创作就成为只有人类创作者与部分学者在意的事情。

如果认为人工智能生成物也可以享受与人类作品同等的保护,那么当人工智能生成物发生侵权问题,该如何判定,侵权责任又该如何承担?事实上,人类社会之中的文学艺术作品都是“站在巨人的肩膀之上”的。AI 技术只是通过机器学习将信息摄入与重组推到了一定高度。因此人工智能系统可以生成创作作品,例如,文章、音乐、绘画等,但这些作品往往是在使用他人的原创内容进行训练和生成的。如果未经原作者授权或未支付合理的授权费用,就可能涉及知识产权侵权。

(三)人身权益侵权

《民法典》明确将“不得利用信息技术手段伪造等方式侵害他人的肖像权”,作为侵害肖像权的一种典型形态予以规制。“利用信息技术手段伪造”是指利用信息技术手段编造或者捏造他人肖像,以假乱真,以达到利用不存在的事物来谋取非法利益的目的。

肖像权具有绝对性、专属性与排他性等特征。从权利本身出发,个人有权拒绝他人将自己的面部长相应用于他人身体形象之上,亦有权拒绝他人在自己的身体图像上添加其他人的长相。而显然,目前人工智能所发展出来的人脸合成技术在未经所用形象主人许可使用的情况下,侵犯了其肖像权。

此外,随着人工智能的发展,很多侵权行为或犯罪行为都借着人工智能产生了新手段。如最近渐渐增多的AI 诈骗,不法分子将所获得的个人照片与音频利用人工智能进行制作合成,最后造出一段看似该行为人求救要钱或者借钱的视频或录音,进而向其家人朋友联系,通过放出该视频或录音引得家人朋友上当并转钱。

部分软件还上线“换脸”功能,即将他人的脸换到原视频主人公的脸上,这类软件若是为用户提供换用户本人的脸的服务,且未取得原视频主人公授权,则可能对原视频侵权;若行为人未经他人允许将他人的脸随意换到视频或照片上,也完全有可能构成侵权。

三、对人工智能侵权现状的规制思路

(一)明确权利主体身份

在人工智能侵权案件中,想要划清侵权责任的分配,首先就是要明确权利主体身份。就目前的司法实践来说,人工智能的侵权认定集中在人工智能对人类人身权与财产权的侵害方面,但对于人工智能或算法本身的行为则欠缺评判。为了能够更好地厘清这类案件,进行更加清晰、合法、合理的责任分配,使这类新型案件的裁量结果能够符合人民对司法公正的期待,就需要我们明确权利冲突的多方关系,分析不同主体的主观意图,动态追踪其侵权事实,将侵权责任落实到具体行为人。而为响应这一要求,可将主体分为两类,算法实施者和算法被实施者。

1.算法实施者

算法实施者主要牵涉三个主体:算法开发者、算法服务者、算法管理者。算法开发者是指设计算法技术的程序员,在案件中尚未涉及;算法服务者是使用算法技术为用户提供服务的应用平台;算法管理者是对算法的使用和运行具有控制力、支配力的主体。

2.算法被实施者

算法被实施者通常是指使用算法功能来完成生活消费活动的人,基于算法的学习能力消费者其实也参与了算法的开发与完善。在人工智能算法技术广泛适用的情景下,所有参与其中的主体,其身份的界限是相对的,面对不同的侵权场景其身份也随之发生变化。

(二)重点监管侵权场景

由于算法实施者与算法被实施者之间存在利益失衡,以及算法侵权在责任认定中难以证明,因此对算法实施者加以监管约束是目前减少侵权行为发生成本最低、效率最高的做法。

1.规范企业行为

无论是涉及知识产权还是个人信息保护,政府要干预其算法技术遵守法律法规,由政府主动作为行使监管职权,可以审查企业的算法源代码、数据集、模型等,做好预防和发展态势分析。2021年12 月,国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局联合印发《互联网信息服务算法推荐管理规定》,在监管的主体上细化区分网信部门的权责,更创新性地提出了双层次、多部门的联合监管模式,由电信、公安、市场监管配合算法监管。

2.强化算法审查

由于算法的不可解释性,使部分行为在现有法律框架下难以规制,我们应参照其他国家建立算法审查制度,对算法技术的内容进行确认和跟踪。如,美国2021 年5 月制定的《算法正义和在线平台透明度法案》,要求在线平台应当对四类算法记录保留5 年。

(三)系统梳理算法侵权机理,提高算法透明度

互联网流量变现时代,平台通过现金或流量补贴的形式鼓励更多用户使用平台并进行内容创作[6],而平台的算法设计可能存在侵权风险,算法被实施者具有了解平台的算法形成机制的知情权,因此可以要求算法实施者向公众公布算法的价值取向、建立依据、规则内容、运行逻辑、危险防范等相关信息,履行告知义务,并且可以基于个人请求进行详细说明。同时,可以设置相应问答板块进行算法技术的学习和监督。

为避免算法技术公开可能会造成的商业秘密泄露,可向公权力机关进行算法留档,向社会大众以及监管机构进行公开,网信部门应当进一步细化算法备案的时间节点,促使算法服务提供者在算法更新后及时、真实地进行动态备案。

(四)提高平台的注意义务

人工智能时代,个人信息的经济价值和商业价值急剧膨胀[7],其带来的财产收益导致对其的侵权行为不断,为有力规范这一行为,企业平台不应只尽到“通知—删除”的义务,而应采取与技术发展水平相当、与业务模式相符的措施,预防侵权行为发生。如对重点环节人工审查机制和多重技术审查,建立信用评价机制,对重复或多次侵权账号做出暂停甚至终止服务的处置,以及对于生产经营性质的用户,平台应当加大技术检测力度以减少侵权内容的传播。

(五)加强立法保障

为了应对人工智能侵权问题,我国立法部门可以通过制定或完善相关法律法规,以确保人工智能的合法使用和侵权行为的追责。具体措施包括:

1.完善现有法律体系

我国可以完善现有的《知识产权法》《信息安全法》《消费者权益保护法》等相关部门法,以适应人工智能领域的侵权问题。例如,可以明确人工智能技术的专利保护范围、商业秘密保护标准,以及个人信息的合法获取和使用等方面的规定。此外,还可以考虑制定专门的人工智能法律法规,明确人工智能的定义、分类和适用范围,为人工智能领域的侵权行为提供明确的法律依据。

2.加强隐私保护法律法规

随着人工智能在数据处理和分析方面的广泛应用,个人隐私面临更大的风险。中国可以加强隐私保护法律法规的制定,明确个人信息的收集、使用和保护原则,加强对侵权行为的追责和处罚。

四、结语

面对人工智能的强大与普及,在享受其带来的红利同时,需要对伴随人工智能接踵而至的潜在风险、新型侵权方式,要灵活调整法律加以规制,使其更利于社会发展。目前,基于人工智能适用范围的普遍性,其侵权范围也扩大至许多方面,因此对法律适当做出相应解释,以适用于此类侵权情况的处理、完善各方义务、划清责任界限等任务迫在眉睫。需要在现行法律中寻找适宜人工智能侵权规制之路径,引导人工智能更顺利地推动社会经济发展、为维护公平竞争的市场经济秩序提供积极效应。

猜你喜欢
实施者人工智能消费者
消费者网上购物六注意
2019:人工智能
人工智能与就业
“最关键”的施工力量——决策者、执行者与实施者
知识付费消费者
数读人工智能
语言政策与规划视角下英语教师的角色研究及启示
下一幕,人工智能!
悄悄偷走消费者的创意
悄悄偷走消费者的创意