王仲昀
AI根据提示词生成的图片:戴着VR眼罩的女孩。
AI的进化速度远超预期! Sora强大的视频生成能力,在令IT界、艺术界和科技爱好者感到兴奋的同时,也难逃人类对于最新科技成果的担忧。
影视业也许是最先直面Sora挑战的行业。有从业者表示,可以预见的是,隨着Sora普及,草根导演会出现,中基层的创作群体会很容易被洗牌。除了产业格局存在被重塑的可能性,Sora是否会进一步对传统道德伦理及既定法律法规产生冲击?为此,《新民周刊》记者采访了关注人工智能的法律学者与从业律师。他们分享了各自眼中的担忧与期许。
Sora出现后,舆论普遍认为影视行业从业者应该是最先引起重视的群体。毕竟,2023年好莱坞大罢工以抵制“AI入侵”的画面还历历在目。
据《环球时报》报道,当地时间2023年7月13日,代表16万演艺人员的美国演员工会及广播电视艺人联合工会(SAG-AFTRA)宣布,其与制片公司的谈判破裂,确定从即日起进行罢工。当时编剧和演员称,他们组织罢工是为了扭转薪酬下降的趋势。与传统的电视、电影相比,人工智能及流媒体使他们的薪水和工作条件恶化,他们要求制片方和流媒体公司保证不会以人工智能技术生成的面孔和声音来替代演艺人员。
好莱坞大罢工数月后,2023年12月27日,美国《纽约时报》又对OpenAI和微软提起诉讼,指控这两家企业未经授权使用该媒体数以百万计文章训练ChatGPT等AI聊天机器人。
《纽约时报》称,在某些情况下,OpenAI和微软将其刊登的内容逐字复制,提供给向AI聊天机器人寻求答案的用户,这些新产品为新闻出版商创造了潜在竞争对手,而此种对媒体版权作品的使用方式是违法的。
国内法律界人士认为,美国作为一个判例法国家,该案的判决结果对后续AI行业的同类性质产品治理也会带来“逻辑沿用”,譬如最新的Sora。
Sora和它的同类产品显然已经引起了一些实质性争议,未来可能还会延伸到哪些领域?同济大学法学院副教授、上海市人工智能社会治理协同创新中心研究员陈吉栋接受《新民周刊》采访表示,Sora虽然是最新的文生视频模型,但其本身仍是依赖数据处理而运行,本质上和过去已有的人工智能产品具有一致性。
“涉及数据处理,往往需要解决三方面问题。首先是个人信息和隐私保护;然后是财产权的利用问题,如数据权益与知识产权;最后是公共利益和各层次的安全保护相关问题。”陈吉栋说道。
既然Sora的核心依然是数据处理,和过去的人工智能模型没有发生根本性变化,为何有人在讨论相关内容时会感到非常担忧?陈吉栋认为,这需要回到“风险”角度。关于这一点,他曾经撰文指出,人工智能法律研究在治理法与责任法之间游移,未能正确处理人工智能法律制度展开的逻辑起点——风险及其治理理论研究与风险分配规范设计。
“目前我们担心Sora等人工智能产品,担忧它不安全,会造成新的风险与损害。传统风险理论认为,当一个事物具有脆弱性,就会有可能被外来威胁利用,造成最终损害”,陈吉栋说,“进一步说,人类内心对于人工智能的焦虑,根源在于不信任。人工智能不同于传统社会信任关系的形成机制,它超脱时空,建立在计算的基础上,对于计算过程与结果的不确定(黑箱)让人难以捉摸。”
对此陈吉栋提出,伴随着人工智能应用背后的技术复杂程度越来越高,迭代速度越来越快,从而形成了建立在技术体系及其服务模式上的结构性的不平等,人类没有太多选择。
在玻璃杯碎裂的视频中,Sora混淆了玻璃破碎和液体溢出的顺序。说明AI模拟物理世界的能力还存在着一定的偏差,有可能存在着巨大的误导。
对于这种结构性的不平等,陈吉栋认为,需要将人工智能系统研发与应用风险的认知作为起点,加强事前、事中风险治理与民事责任的沟通,如此在研发者、生产者、服务提供者与用户之间合理分配义务,构建以风险为基础的人工智能法律治理体系。
目前Sora还未开启公测,仅部分艺术家、OpenAI员工拥有Sora的访问权限。一些尝试过的业内人士在感慨其强大创造力的同时,也发现各种漏洞和被滥用的风险。2024年1月,谷歌发布AI视频模型Lumiere时,已经宣称“使用这一技术时,的确有创建虚假或有害内容并被滥用的风险”。
假若未来Sora向普通用户和社交媒体创作者开放,势必会生产出海量视频内容,潜在的法律问题理应得到更多重视。中伦律师事务所合伙人刘新宇律师接受《新民周刊》采访表示,Sora等视频生成模型是AI技术发展的重要里程碑,当然也在各个领域提出了法律问题。
刘新宇律师认为:“上述法律问题中,首先是对版权与知识产权的挑战;其次,是对隐私与数据保护的考量;再次,还涉及内容责任与监管的机制;最后,还要讨论AI道德伦理的边界。”
刘新宇律师说,在传统法律框架下,版权保护的是人的创造性劳动成果,但Sora作为AIGC产品,其生成的视频内容是否应被视为“作品”并享有版权保护,目前尚无明确法律答案。如果AI生成内容被认定为作品,版权归属将变得复杂,可能涉及开发者、用户甚至AI本身。“由于Sora目前的创作逻辑是通过在网络大数据中随机抓取视频素材进行‘再创作’,如果未经权利人许可,抓取他人享有著作权的作品,进行分析、处理、演绎,并在后续输出成果中展示,可能侵犯他人著作权。”
近期,一起人工智能生成图片著作权纠纷案件引发舆论关注。案件中,原告利用人工智能模型,通過输入提示词的方式生成了一张图片并发布在小红书平台。而被告人在其他平台上使用了这张图片作为文章配图,并去除了图片上的水印。原告就此提起侵犯著作权之诉。北京互联网法院作出一审判决,认为在创作中利用了人工智能技术的涉案图片具备独创性,可以被认定为作品,应受到著作权法保护。业内人士指出,相关判决意味着我国法院对人工智能绘画大模型使用者在生成图片上享有创作权益给出了首次认可。
涉及数据处理,往往需要解决三方面问题。首先是个人信息和隐私保护;然后是财产权的利用问题;最后是公共利益和各层次的安全保护相关问题。
与此同时,有网友提出,用AI技术让《西游记》等作者早已离世的作品文生视频,是否还会构成侵权?根据《著作权法》规定,自然人的作品,其发表权等规定的权利的保护期为作者终生及其死亡后五十年,而《西游记》作者逝世远超五十年。
在刘新宇律师看来,如果使用《西游记》的文本为Sora提供素材,并不一定直接构成侵权。“总的来说,使用AI技术让《西游记》这种作者早已离世的作品文生视频,虽然可以明显识别来自哪个文学作品,但原作品著作权在保护期外,作品已经进入公共领域,理论上大家都可以使用再次进行创作,但最好能有‘独创性’的投入。”
要想理解Sora涉及的版权问题,就必须讨论“独创性”的定义。据刘新宇律师介绍,“独创性”体现在“作品源于作者独立的、富有个性的创作”,是作者精神与意识的产物。如果生成内容与原作品在表达上构成“实质性相似”,则落入“复制权”的规制范围;若不构成“实质性相似”,而是在保留作品基础表达的前提下形成了新的表达形式,则可能构成对训练作品“改编权”的侵害。
因此,“独创性”是作品的本质属性与灵魂,也是判断人工智能生成物是否属于知识产权保护客体的关键所在。
至于个人隐私与数据安全,刘新宇律师认为,AI模型的训练和优化依赖于大量数据集,这些数据可能包含敏感个人信息,甚至进一步被不法分子利用引发诈骗。
关于这一点,陈吉栋在采访中表示,数据安全一旦遭到侵害,因为其天然的虚拟性,使得追责并不容易。“数据的问题在于,其虚拟性、非竞争、易复制等特性决定了相关侵害行为通常难以发现。数据存在于系统中,但它的侵害往往是发生在远端。”
近年来陈吉栋在教学与学术研究的同时,也围绕人工智能、数字经济发展等国家战略和地方需求,积极服务立法实践,陆续参与了《上海市数据条例》(学术建议稿)、《上海市促进人工智能发展条例》等起草研究工作。如今Sora等最新模型出现,在平台和政府监管层面,又可能会有哪些新要求?陈吉栋告诉记者,监管的突出难点在于成本。“如果事先设置好完备的护栏,那可能就不会有Sora的诞生;而事后去对生成内容进行追责,有时候平台具备能力,但行使能力需要消耗大量时间和人力成本。”
鉴于上述原因,陈吉栋认为政府层面理应尽快建立科学完备的人工智能风险防控机制体制。“关键在于政府要建立风险的分级标准。高风险产品和低风险产品,需要区别看待。只有这样,才能避免对人工智能监管的极端化,并降低监管的成本。”
刘新宇律师认为,随着AI技术的发展,新型版权形式如算法版权、数据版权可能应运而生,这将对现有知识产权法律体系提出更高要求。如何在保护创新与避免过度限制技术发展之间找到平衡,是法律制定者面临的挑战。
随着新技术的快速发展,目前我国也在加快推进知识产权建设。2023年11月,国新办举行加快推进知识产权强国建设、有效支撑创新驱动发展国务院政策例行吹风会提到,适应侵权新的特点,加强技术支撑。“加强知识产权信息化、智能化基础设施建设,强化互联网、人工智能、大数据等信息技术在知识产权审查和保护领域的应用,推动知识产权保护线上线下融合发展、一体推进。”
刘新宇律师告诉记者,科技发展日新月异,实践中的知识产权侵权行为的确涌现了新的特点。“这体现在纠纷形态与网络环境深度融合,网络环境下的知识产权保护日益成为重点难题。”