前言
人工智能(AI——Artificial Intelligence)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,生成式人工智能(AIGC——Artificial Intelligence Generated Content)是基于生成对抗网络、大型预训练模型等人工智能的技术方法,通过已有数据的学习和识别,以适当的泛化能力生成相关内容的技术。今年2月16日凌晨,OpenAI宣布推出全新的AIGC模型“Sora”,借助简短的文本指令或一张静态图片,Sora能够生成持续一分钟左右的1080P高清视频,涵盖多个角色、不同类型的动作和背景细节等,几乎达到了电影级别的逼真场景,成为通用人工智能(AGI——Artificial General Intelligence)领域的重要里程碑。随着AI生成内容与现实之间的界限变得越来越模糊,由此而生的版权、个人隐私保护等和刑事法律问题也不断涌现,在此,我们以Sora等生成式人工智能大模型为视角,浅析境内商用这类AI技术可能面临的法律风险及应对建议。
一、Sora等模型生成的视频是否构成原创作品及是否受版权保护?
根据我国现行《著作权法》第三条规定:“本法所称的作品,是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。”从前述法律定义及构成要素来看,一方面,目前的人工智能生成内容虽然具有人类智力创作成果的表象,但其属于经特定系统、算法运行后得到的产物,一般不完全具备独创性,而另一方面,如果在选择编排的过程中表现出人的智力活动,且具有一定独创性,从而满足《著作权法》关于作品的规定的,则应当认定为作品并受到著作权法保护。
在我国司法领域,法院对不同案件中AI生成的内容是否属于作品的看法有所差异:
观点1:以构成著作权法意义上的作品应具有独创性且作品应由自然人创作完成为由,不认可AI生成的内容为作品。
法院认为,构成著作法意义上的作品应具备两项条件。其一,作品应具有独创性。其二,作品应由自然人创作完成。而部分AI软件使用者仅在操作界面提交了关键词进行搜索,使用法律智能操作系统操作,进而生成的报告既非自然人的创作,也未传递思想和感情的独创性表达,因此所产出的、单纯的计算机智能生成内容不构成作品。
参考案例:菲林律所诉百度公司著作权案(2018)京0491民初239号
观点2:以生成过程及操作使用人的行为符合著作权法中的创作标准为由,认可AI生成的内容为作品。
法院认为,本案中AI生成内容的外在表现符合对作品的形式要求,呈现的内容具有一定的独创性,其在数据输入、指令条件设定、模板和语料风格的安排与筛选中反映出具有直接联系的智力活动,因此本案中AI生成内容构成著作权法意义上的作品。
参考案例:腾讯诉盈讯科技公司侵害著作权及不正当竞争纠纷案(2019)粤0305民初14010号
以上看似差异的两个判决,重点在于审查使用者在使用过程中是否进行了自身独创性表达,从而使产生内容在文学、艺术、科学领域具备独创性。在是否受版权保护的问题上,一般来说,只有符合《著作权法》意义上的原创作品才能受到版权保护。这也一定程度上启示用户在利用Sora等模型进行创作的基础上,应注入自己的思想观点、人文情感等,使其内容符合独创性,从而使生成内容构成法律意义上的作品,权属亦更加明晰。
综上,Sora等模型生成的内容是否构成原创作品及是否受版权保护,重点在于其是否是具有独创性并能以一定形式表现的智力成果,需要结合个案具体情况考虑。
二、Sora等模型生成视频的过程中是否可能侵犯他人知识产权?
据报道,目前Sora这类人工智能大模型的训练数据均系“互联网规模”,而OpenAI在训练Chat GPT时,数据来源就包含了网页爬虫、杂志、书、维基百科等。对Sora生成视频进行观察亦不难看出Sora的训练数据来源可能更为多样,甚至涵盖电影、纪录片、电影的长镜头、游戏引擎等。在此之下,AIGC在调取大量素材创作中,完全可能涉及对他人已经享有著作权作品的使用。而按照我国知识产权相关法律的要求,使用他人相关作品时,必须获得权利人的许可,并支付相应的许可使用费。因此,判断Sora等模型生成视频中可能使用的大量包括图像、音频、视频等在内的素材来源是否合法、是否侵犯了他人的知识产权意味着需要更加严格的版权审查和授权程序。
在Sora等模型生成内容的训练和运行过程中,我们从如下三个阶段中可能涉及产生侵害知识产权的行为来展开分析。
1. 数据收集阶段
在数据内容收集阶段,训练数据的使用可能构成复制权侵权。数据收集的形式有两种,一种是将非数字格式的原内容转化为计算机可读的数据格式,即“原件扫描”,另一种是对他人已有数据进行访问和获取内容。在训练数据的输入过程中必然伴随着相应的复制行为,无论是直接在网络中获取数字化作品,还是将非数字化的作品数字化,转换为程序可读的数据,都涉及对原作品的全篇复制和原样重现,改变的仅是承载作品的载体。该种复制行为在学界通常不被视为数字环境传输中“暂时的”、“在技术过程中必然发生的”、“不具有独立经济价值”的“临时复制”情形。因此,除非存在法定豁免情形,否则Sora等模型生成的数据内容挖掘行为很可能构成复制权侵权。此外,如Sora等模型生成内容使用的数据或素材中存在未经授权使用他人的作品、商标或专利等情形,同样可能导致侵权风险。
2. 数据预处理阶段
在数据预处理阶段,Sora等模型在采集到大量的数据之后需要对数据进行预处理,包括数据清洗、数据标注、数据格式化等,此时对无合法授权的训练数据的使用可能构成演绎权侵权。演绎权指的是在原作品创作思想表达的基础上演绎创作新作品的权利,我国《著作权法》虽未明确规定“演绎权”,但已规定改编权、汇编权、翻译权等权利,可视为对演绎权的分解规定。Sora等模型在数据预处理阶段,涉及对所收集数据进行清洗、标准化、标注与特征提取等步骤,使原作品的主要思想表达并未因创作语言、题材、种类或形式的变化而改变,存在侵犯翻译权、改编权等权利的风险。
3. 成果生成阶段
在成果生成阶段,训练数据的使用也可能构成与传播相关的权利侵权。Sora等模型会依据训练数据及算法自动化生成结果,并以可视化方式表现,这个过程中需要将数据或素材通过互联网进行传输。同时,基于Sora生成视频的网络特性,在未获得著作权许可的情形下,若其直接或间接地整理、组合未获得授权许可的他人作品并以互联网的方式向用户提供,用户可以在选定时间和地点获得,甚至被上传至网络平台供大众查看,难以被认为是个人的“合理使用”,易构成信息网络传播权的侵权情形。
三、AI生成内容“以假乱真”的趋势可能加剧的其他法律风险
从非专业的社会一般人角度来看,Sora这类人工智能大模型生成的图像、视频越来越可以做到以假乱真,基于AI技术衍生的造假工具也变得更易获取、更加复杂,生成的虚假内容正在“模糊虚幻与现实之间的界限”。司法实践中因滥用该类技术导致其他法律责任的情形也不胜枚举,例如:
1. 民事侵权风险
此前人工智能深度合成技术在实践运用时,公众多利用“AI换脸”技术合成视频。而这类技术与个人形象密切相关,其自带的“伪造”与“欺骗”特性极易模糊篡改事实,易引发大量侵权纠纷。
(1)肖像权
根据我国《民法典》第1018条第2款的规定,肖像是通过影像、雕塑、绘画等方式在一定载体上所反映的特定自然人可以被识别的外部形象。而外部形象不仅指人的面部特征,戴着口罩的脸、侧影、形体动作等,只要具有“可识别性”,都属于肖像权保护的范围。在实践中,未经合法授权对他人进行AI合成、换脸并进行传播的行为,基本都构成对被合成人肖像权的侵犯,而《民法典》第1019条第1款也在条文中强调了“利用信息技术手段伪造”侵害他人的肖像权这一方式,反映了这类违法行为的普遍存在。
(2)名誉权
根据我国《民法典》第1024条规定,民事主体享有名誉权,任何组织或者个人不得以侮辱、诽谤等方式侵害他人的名誉权。名誉是对民事主体的品德、声望、才能、信用等社会评价,基于“AI换脸”等人工智能合成技术自带的“伪造”与“欺骗”特性,行为人通过人工智能合成技术所合成的视频上传至互联网,存在导致他人评价降低的可能性。若视频内容包含色情裸露、赌博、斗殴、吸毒等违反法律法规及公序良俗的元素,相关行为人构成名誉权侵权更是毋庸置疑。
(3)个人信息权益
根据我国《民法典》1034条规定,自然人的个人信息受法律保护。对于脸部、视网膜等包含个人生物特征的生物识别信息,也是人工智能深度合成技术极易侵犯的对象。个人信息除包含个人的隐私权、名誉权外,还包含财产权等多种权益。从实践来看,个人信息的不正当使用将对社会公众的人身和财产安全带来重大风险,若出现技术漏洞被黑客入侵窃取,或被技术使用者不当利用,大量的生物识别信息将面临被泄露和滥用的风险,亦给商用AIGC的企业带来个人信息保护方面的巨大挑战。
2. 刑事犯罪风险
以Sora为例的人工智能模型对于使用者来说成本低、效率高、仿真度高,从另一个角度来说亦为人工智能深度伪造工具,如不当使用可能涉及如下刑事法律风险:
(1)编造、传播虚假信息
根据我国《刑法》291条之一第2款规定,编造虚假的险情、疫情、灾情、警情,在信息网络或者其他媒体上传播,或者明知是上述虚假信息,故意在信息网络或者其他媒体上传播,严重扰乱社会秩序的构成编造、故意传播虚假信息罪。2023年6月,在某网络平台一条名为《浙江工业园现场大火浓烟滚滚,目击者称有爆炸声!》工业园区火灾视频引发热议,后经核实为幕后团伙利用AI技术合成虚假视频以牟取非法利益,该案经浙江省绍兴市某法院开庭审理认为其行为均已构成编造、故意传播虚假信息罪。
(2)侮辱、诽谤
针对许多通过AI换脸将网红、明星等名人换脸至不雅视频上的行为,就被换脸的网红、明星而言,若是不雅视频已经严重影响其生活,行为实施者可能构成《刑法》246条规定的侮辱诽谤罪;就不雅视频本身而言,如相关制作、传播者以牟利为目的,还容易构成《刑法》363条规定的制作、复制、传播淫秽物品牟利罪。
(3)电信诈骗
此前一起由“AI换脸”实施的诈骗引发热议,受害人接到来自“好友”的求助电话,对方称自己在外地竞标,需要430万元保证金,受害人通过拨打视频通话确认对方身份,近乎一模一样的面容与声音让受害人消除了疑虑,便将430万元尽数转入对方账户。通过AI合成他人图片、视频用于电信诈骗的,行为人可能需承担《刑法》266条规定的诈骗罪刑事责任。
(4)虚假宣传、商业欺诈
如将高度逼真的AI视频滥用在广告宣传中,造成虚构或夸大产品的效果或优点,都将可能违反《广告法》及《反不正当竞争法》的相关规定,构成虚假宣传。该种虚假宣传可能会误导消费者,使他们作出错误的购买决策,遭受经济损失。情节严重的,行为人可能构成《刑法》222条规定的虚假广告罪。
(5)危害国家安全
利用人工智能技术深度伪造,可能为国内外分裂、恐怖势力提供工具,用于抹黑国家领导人,煽动恐怖和暴力情绪,会误导舆论、扰乱社会秩序,甚至干预政府选举、颠覆国家政权,对国家甚至世界安全构成威胁。例如在俄乌冲突初期主流社交平台上相继出现了乌克兰总统泽连斯基和俄罗斯总统普京宣布投降的视频,后来都被证实是深度伪造的。另外,近期印度选举中爆发了一波深度伪造视频浪潮,也让社会公众看到了这类技术的滥用正对选举的民主性、公正性造成严重破坏。
四、境内商业使用生成式人工智能技术的法律风险应对举措
1. 对人工智能输入数据与生成结果进行双重审核
《互联网信息服务深度合成管理规定》规定,深度合成服务提供者应当加强深度合成内容管理,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核。《生成式人工智能服务安全基本要求(征求意见稿)》也要求生成式人工智能服务提供者在向使用者提供生成内容时,应设置监看人员,及时根据国家政策以及第三方投诉情况提高生成内容质量,监看人员数量应与服务规模相匹配。同时,与相应审核制度配套实施的,是要求深度合成服务提供者建立健全用于识别违法和不良信息的特征库或关键词库,完善入库标准、规则和程序,记录并留存相关网络日志,以便更为高效地对违法和不良信息进行识别。
建议境内企业在调用人工智能模型接口时,依法建立双重审核机制,确保不存在违法和不良内容,亦可考虑购买相关商业责任保险,降低潜在法律责任风险;对于单纯商业使用AI生成内容的企业,也应审核以确保输入素材和输出内容不侵犯他人版权,避免使用涉及他人隐私的内容。
2. 部署应用鉴别技术
在我国《网络音视频信息服务管理规定》第十二条中,对网络音视频信息服务提供者需部署应用违法违规音视频以及非真实音视频鉴别技术提出了明确的要求。结合实践来看,这类鉴别技术在形式上不仅包括开发基于深度学习的模型,用于识别和判断人工智能生成的内容是否合法、真实、符合社会道德伦理,还包括了在人工智能生成的内容中嵌入人眼不可见的水印,这种水印不会影响生成内容本身的质量和使用体验,但可以用专门的人工智能检测工具检测出来。
建议境内调用人工智能模型接口的企业研发或应用相关技术手段来帮助识别人工智能生成内容,以有效防止生成式人工智能服务被滥用。
3. 对人工智能生成内容进行显性披露
我国《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》及《网络音视频信息服务管理规定》中均对人工智能服务提供者规定了标识义务。即对智能对话、智能写作、人脸生成、人脸替换、沉浸式拟真场景等具有生成或者显著改变信息内容功能的服务,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。
建议调用人工智能模型接口的企业依法对客户做出显著提示。另外,虽然目前国内法律法规并未强制要求人工智能使用者对生成内容主动进行标识,也未提及使用者去除显性标识的法律责任。但在监管逐步完善的趋势下,我们仍建议商用AI生成内容的企业主动对所使用的人工智能生成内容进行显性披露。
4. 合规使用人工智能生成内容
鉴于人工智能内容可能存在一定的虚拟性,我们建议商用AI生成内容的企业在严格审核生成内容的基础上尽量避免散布虚假信息、误导性内容、可能有损他人形象及声誉等的内容,必要时寻求专业法律帮助,确保不违反当地法律法规及政策相关要求,以免引起不必要的法律责任。
结语
Chat GPT、Sora等AIGC大模型的出现给我们的工作方式、工作效率带来了颠覆性变革,人工智能技术的高速发展已然为既定事实,如何把握科技进步所带来的发展契机,已成为相关行业从业者面临的共同课题。我们当前需要做的是积极拥抱新技术带来的变化,携手共建更加安全、准确、可靠、透明的使用环境,尽可能减少人工智能技术在实践中可能产生的法律风险等消极影响,以便其更好地为我们服务。