AI生成内容须标识,陈绍玲:人工智能生成内容标识义务对平台版权注意义务的影响研究 | ..

AI生成内容须标识

本文首发于《中国版权》杂志2025年第5期,中国版权杂志微信公号经授权转载。版权归作者所有,转载请联系作者。欢迎转发朋友圈。因篇幅限制,注释省略。

【推荐引用】陈绍玲.人工智能生成内容标识义务对平台版权注意义务的影响研究[J].中国版权,2025(05):5-16.

摘要

本文以《人工智能生成合成内容标识办法》的出台为背景,研究网络视频分享平台在履行人工智能生成内容标识义务过程中,是否应同时承担更高的版权注意义务。通过梳理人工智能生成内容显式与隐式标识的技术实现路径,本文认为其技术本质在于识别内容生成属性,并不直接触及版权侵权判断中的“实质性相似”层面。根据“红旗标准”的法理与司法实践,人工智能生成内容标识行为通常不涉及对侵权内容的主观认知,亦难以符合“显而易见”的侵权判定标准。因此,人工智能生成内容标识义务在现行法律框架下并不自然引申为平台对用户版权侵权行为注意义务的提升,二者应作为相互独立的法律与技术议题看待。

关键词:人工智能生成内容标识义务;注意义务;影响

一、问题的提出

《人工智能生成合成内容标识办法》(以下简称《办法》)由国家互联网信息办公室、工业和信息化部等四部门于2025年3月7日发布,并于2025年9月1日起正式施行。根据《办法》的规定,包括网络视频分享平台在内的网络服务提供者应对用户上传的视频进行人工智能生成合成内容的识别与标识。该规定是行政法上对网络服务提供者的要求,其立法目的在于保障公众对人工智能生成内容的知情权。特别是在理论界对人工智能生成内容是否具备可版权性争论不休的情况下,《办法》提出的人工智能生成内容标识义务无疑有其积极意义。该义务与网络视频分享平台的版权责任并无直接关联,但在实践中已经出现了这样的讨论:网络视频分享平台对人工智能生成内容标识义务的履行,是否会导致其版权注意义务的提升。如在《花轿喜事》案中,原告优酷公司享有涉案作品《花轿喜事》的版权,被告宽娱公司通过人工审核对其用户在平台网站上传播的涉案视频打上“视频内容为AI合成”字样。在该案件中,一审法院认为,“宽娱公司有相应的技术能力识别涉案视听作品与被诉AI侵权视频之间的差异,而宽娱公司将被诉AI换脸视频置于‘影视专区’,与涉案视听作品形成对比观看模式,对涉案视听作品的观众进行了推荐、引流”。

实际上,早在《办法》出台之前,《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》已要求网络服务提供者对其发现的人工智能生成内容进行标识。那么该种人工智能生成内容标识义务与网络视频分享平台对其用户直接侵权行为的注意义务有何关联,这无疑是值得讨论的问题。就网络视频分享平台对其用户实施的侵权行为是否承担法律责任的问题,我国现有的立法和司法实践已经有完善的法律责任认定规则。考虑到平台成本以及技术可行性,我国现行立法不要求平台对用户的侵权行为尽到版权审查义务,但要求平台对用户的行为尽到注意义务。 注意义务本质上是过失的判断工具,应注意、能注意但未能注意到侵权行为的发生从而导致损害结果发生的,行为人主观上对侵权的发生具有过失。因此,众多研究往往集中于讨论行为人是否应注意到侵权行为的发生,或者能否注意到侵权行为的发生。民法学的研究建议从侵害紧迫性、行为效益、防范风险的负担等三个方面,去判定特定主体是否应对侵权结果的发生负有注意义务。如果网络视频分享平台有识别版权侵权行为的技术,且该技术的实施不会给平台造成过重的负担,同时不会影响平台平等保护其他权利人的能力,那么网络视频分享平台自然有义务采取特定措施识别侵权行为。平台注意义务的履行往往与其技术能力相关,网络服务提供者对人工智能生成内容标识义务的履行不得不借助于相应的标识、识别技术。无论是版权注意义务还是人工智能生成内容标识义务均与技术强相关,这两种义务的履行与技术能力强关联的特点,自然引发技术能力是否提升平台注意义务的讨论,这就是《花轿喜事》案发生的背景。

在技术上,人工智能生成内容识别包括从元数据分析、特征对比到指纹 / 水印检测,以及基于模型的内容鉴别(例如深度伪造检测模型)等环节。人工智能生成内容识别技术的应用受以下两个因素的限制:第一,识别准确性受模型训练数据与特征设计影响,误报与漏报皆可能发生;第二,当平台面对海量上传内容时,识别成本问题难以解决,逐一进行深度鉴别在资源上并不现实,在实践操作中难以落地。据此可知,人工智能生成内容的识别并不等同于版权侵权判断——前者侧重技术特征,后者涉及《著作权法》上实质性相似的评估。因此,将人工智能生成内容标识流程与侵权判定直接等同,并据此要求平台承担全面注意义务,既缺乏技术可行性,也可能导致对合法内容的不当处置。

综上可知,平台在人工智能生成内容标识过程中是否应承担对用户版权侵权行为的注意义务,与人工智能生成内容标识的技术过程紧密相关。因此,有必要对平台人工智能生成内容识别的技术过程作出分析,只有在充分分析技术过程的基础上,才有可能对平台在人工智能生成内容过程中是否有可能对侵权行为施加注意义务作出认定。本文以现有的司法实践案例为出发点,以网络视频分享平台的注意义务为研究对象,以期明确人工智能生成内容标识义务对平台版权注意义务的影响。

二、人工智能生成内容标识的技术路径

《办法》的出台标志着我国在人工智能治理领域迈出了重要一步。《办法》基于《中华人民共和国网络安全法》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等法律文件制定,旨在促进人工智能健康发展,规范人工智能生成合成内容标识,保护公民、法人和其他组织的合法权益,维护社会公共利益。《办法》的核心要求是服务提供者必须对人工智能生成合成内容进行显式标识和隐式标识,确保用户能够清楚识别内容来源和性质,这有助于从根本上保障网络信息的可溯源性和可识别性。

《办法》将人工智能生成合成内容定义为“利用人工智能技术生成、合成的文本、图片、音频、视频、虚拟场景等信息”。这一定义覆盖了当前大多数人工智能生成内容的应用场景,从文本生成、图像创作到视频合成和虚拟环境构建,都被纳入监管范围。这不仅包括专门的人工智能生成内容服务提供者,也包括提供内容传播服务的平台,意味着网络视频分享平台需要对其用户上传的视频进行人工智能生成内容识别与标识。

《办法》要求人工智能生成服务提供者对人工智能生成内容采用双重标识系统,包括显式标识和隐式标识,这两种标识方式互为补充,形成完整的内容溯源体系。显式标识确保普通用户能够直观感知内容属性,隐式标识则为内容追溯、平台审核和侵权调查提供了技术依据。其中,显式标识是指“在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可以被用户明显感知到的标识” 。隐式标识是指“采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识”。《办法》鼓励服务提供者在生成合成内容中添加数字水印等形式的隐式标识。数字水印又被称为盲水印,区别于明水印,盲水印不可被人眼识别。数字水印技术可将标识信息直接嵌入数字载体(图片、视频)中,不影响原载体使用价值,不被用户感知,只有通过专门的检测手段才能复原水印信息。数字水印技术在多媒体安全、版权保护、媒资管理等领域有着广泛应用,具有较强的抗攻击性和隐蔽性。

无论是显式标识还是隐式标识,在技术条件充裕的情况下,网络视频分享平台对这些标识的识别不应该存在任何障碍。例如对于显式标识而言,如果用户或生成工具主动为视频添加了显式标识(如“由AI生成”的水印、标签或元数据),那么网络视频分享平台在现有的技术条件下完全可以实现对人工智能生成内容的识别。对显式标识识别的过程可以具体分为两步。第一步,检查用户是否按照平台要求明确其传播内容为人工智能生成。目前,许多平台已出台政策,要求用户在上传内容时主动申报是否包含人工智能生成的内容。这本质上是一种政策驱动的显式标识。平台会在上传表单项中设置复选框,用户勾选后,平台会自动为其打上“AI生成”的标签,如果用户瞒报,且在后续审核中被发现,将遭受平台规则的惩罚。第二步,对用户上传的视频进行计算机视觉识别,对于肉眼可见的、标准化的显式标识(如位于角落的特定Logo、水印),网络视频分享平台可以利用第三方软件进行检测和识别,或者平台自身也可以训练专门的计算机视觉模型对显式标识进行检测和识别。

即使是显式标识,如果人工智能生成服务提供者与网络视频分享平台能进行有效的技术合作,那对人工智能生成内容的识别也不是难题。例如视频元数据的解析是目前最为理想和高效的人工智能生成内容识别方式。目前,人工智能视频生成工具(如未来可能普及的 Sora、Runway 等)可能会遵循如内容来源和真实性联盟(C2PA)等标准, 将生成信息直接写入视频文件的元数据中。平台可以通过自动化工具扫描这些元数据字段,快速、准确地判断内容来源。隐式标识的典型代表是对抗性水印,生成模型在输出视频时,会在像素层面或频域中引入微妙的、具有特定统计规律的噪声模式。这种嵌入过程需要满足两个矛盾的要求:鲁棒性(Robustness),即水印能经受压缩、裁剪、调色等常见转码操作而不丢失;不可感知性(Imperceptibility),即水印不会影响观众的视觉体验。平台需与模型开发者合作,获取对应的或检测密钥。该是一个神经网络或算法模块,专门用于分析待测视频,并计算其包含目标水印信号的概率。如果网络视频分享平台无法获得该种水印,自然无法对用户传播的人工智能视频进行识别。由此可见,如果主流人工智能视频生成工具不遵循统一的技术标准,或者人工智能视频生成工具与网络视频分享平台的合作不通畅,网络视频分享平台对人工智能生成内容标识的识别就会成为难题。

绝大多数情况下,人工智能生成视频没有显式标识,平台必须依靠技术手段进行主动检测,这是当前技术领域面临最大的挑战,目前网络视频分享平台可以采用的是AI检测器(AI Detectors)。平台领域可以部署专门的AI视频检测模型。这些模型通过分析视频中不自然的物理规律、生理细节和时空异致性来寻找人工智能的“指纹”(Artifacts)。例如面部与生理细节:生成式人工智能可能在渲染人脸(特别是牙齿、眼睛)、手部动作、头发纹理时出现细微的扭曲或不自然的过渡。物理规律异常:视频中的光影变化、流体动力学现象(水、烟)、物体运动轨迹可能违反物理定律,出现闪烁或逻辑错误。时间维度不一致:视频帧与帧之间可能出现内容跳变或细节无法保持连贯的情况。对于识别出的疑似人工智能生成内容,平台进行人工复核,复核标准包括内容是否“缺乏明显人类情感特征”等。

当然,平台的识别技术尚不成熟,无论是AI检测器还是人工复核,均有可能产生偏差。例如最近北京市西城区人民法院审理的全国首例“用户原创内容被判定为AI生成”纠纷就是典型案例。该平台因误判用户原创内容为AI生成而被起诉,最终法院判决平台违约,撤销相关处理。这一案例表明,平台需要提高检测准确性,并且承担更多的举证责任。

三、人工智能生成内容标识义务与“红旗标准”

网络视频分享平台是否需要在人工智能生成内容标识过程中对用户传播的内容尽到防止版权侵权的注意义务,这一问题需要回归到网络服务提供者版权注意义务的一般理论框架中进行考察。网络版权领域的注意义务理论主要围绕三种认定标准展开:“红旗标准”“通知—删除”规则以及基于商业模式的过错认定。其中“红旗标准”源于美国《版权法》,针对的是网络服务提供者能注意到且能加以判断的版权侵权行为,后为我国司法实践所认可。“通知—删除”规则以及基于商业模式的过错认定规则,同样为我国立法和司法实践所认可。以根据商业模式过错认定为例,《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》(以下简称《信息网络传播权纠纷适用法律若干问题规定》)第九条、第十一条指出,法院应当根据网络服务提供者的经营模式、是否主动对作品进行选择编辑修改、是否直接获取经济利益等因素综合判断其是否应知侵权。但“通知—删除”规则以权利人发出侵权投诉通知为必要,根据商业模式的过错认定规则,要求采取特定商业模式的网络服务提供者在成本可控、技术可行的情况下主动发现侵权行为。网络视频分享平台对人工智能生成内容的识别与权利人的通知无关,且与网络服务提供者对侵权行为的识别和查找也无必然关联。因此,唯一可能导致网络视频分享平台在识别人工智能生成内容时负有注意义务的就是“红旗标准”,如果网络视频分享平台在识别人工智能生成内容的过程中注意到明显侵权行为的存在,自然应采取措施对侵权行为加以遏制。当然,在网络视频分享平台识别人工智能生成内容这一特殊场景下是否对用户上传的侵权内容承担法律义务,仍然需要厘清“红旗标准”的本质。

“红旗标准”在我国立法中体现为《信息网络传播权保护条例》中“避风港规则”的网络服务提供者应知服务对象侵权行为的相应规则。该规则借鉴自美国《数字千年版权法》(Digital Millennium Copyright Act,以下简称DMCA)的相关规定。DMCA第512条是所谓的“避风港规则”,即免除网络服务提供者赔偿责任的规定,规定“在对特定侵权行为没有实际知情,或者不知道显而易见的侵权行为存在的情况下,网络服务提供者不承担赔偿责任”。

DMCA 第512条本身并未将上述条文概括为“红旗标准”。“红旗标准”的提法出现在美国国会参议院关于DMCA的报告中:“最好将DMCA 第 512(c)(1)(A) 条第 (ii) 项所指代的情形描述为‘红旗标准’,如果网络服务提供者意识到明显侵权行为存在的危险信号而不采取任何措施,那么网络服务提供者将不能免责。”

“红旗标准”包含主观和客观两个层面的因素:主观上要求网络服务提供者实际意识到侵权事实,客观上要求一个理性人在相同情况下能够明显识别侵权行为。上述报告还对“红旗标准”进一步细化,明确“红旗标准”既有主观因素也有客观因素。在确定网络服务提供者是否意识到危险信号的存在时,应该从主观因素出发;而判断该危险信号是否显而易见时,应该考察客观因素。所谓主观因素,是指网络服务提供者对特定侵权事实存在的主观上的知晓;而客观因素则应当以一个在相同或类似情况下的理性人为标准,根据相同的事实或情况来判断是否存在明显的侵权行为。 总而言之,经由美国国会参议院关于DMCA的报告中对DMCA第512(c)(1)(A)条第(ii)项细化所产生的“红旗标准”,其适用步骤如下:第一步,根据主观因素来判断网络服务提供者是否意识到特定侵权行为的存在,如果回答为否,则不适用“红旗标准”,如果回答为是,则进行第二步的判断;第二步,网络服务提供者能否根据客观因素判断出相关内容是侵权的,如回答为否,则不适用“红旗标准”,如果回答为是,则适用“红旗标准”。 我国除在《信息网络传播权保护条例》第二十二条中借鉴了这一标准,司法实践中,北京市高级人民法院于2010年发布的《关于审理涉及网络环境下著作权纠纷案件若干问题的指导意见(一)(试行)》也进一步明确了“红旗标准”的适用规则,指出判断是否构成“应知”时应当综合考虑各种因素。如在2010年终审的《精舞门》案中,被告在其经营的网站“56网”上提供电影《精舞门》的在线播放、传播服务,对此案件终审法院认为:“依据《互联网视听节目服务管理规定》,互联网视听节目服务单位提供的、网络运营单位接入的视听节目应当符合法律、行政法规、部门规章的规定,视听节目不得含有反动、暴力、等法律、行政法规和国家规定禁止的内容。因此,千钧网络公司和我乐信息公司作为视频分享网站的经营者,对于网络用户上传至56网的视频内容负有进行事前审查的义务……影视作品的著作权人不太可能将一部投资巨大的作品免费许可网络用户在网络上传播。故千钧网络公司和我乐信息公司应对出现在上述频道中的视频内容尽到更高的注意义务。并且,作为专门从事网络视频分享业务的经营者,其在网站的日常维护和视频审查过程中也完全有能力发现有关影视的频道中是否存在未经著作权人许可上传的影视作品。”

当然,也有部分法院在案件中否定了“红旗”的存在,比如在《活碌碡趣事》案中,尽管权利作品地方戏《活碌碡趣事》的表演被上传至被告的网络视频分享网站,但法院认为被告不应承担责任,因为涉案视频为涉案作品的表演,不同于影视作品,制作成本较低,普通的戏剧爱好者也可自行制作上传至网站,且涉案的戏剧作品作为地方戏,在表演中使用方言,本身受众较少,非视频分享网站的主流内容,故,虽然被告网站显示该剧由个人上传,也不能就此认定被告明知或应知该剧的存在及侵权。

“红旗标准”的主观因素要求网络服务提供者在主观上应能够注意到侵权内容的存在,因此“红旗”的存在是“红旗标准”适用的前提。实践中“红旗”这一较为明显的侵权行为可以在多种场合出现,如网站主页和重要页面。网络视频分享平台在经营过程中不可能不注意到其网站主页和重要页面的传播内容,如果此时存在较为明显的侵权行为,那么网络视频分享平台不可能注意不到侵权行为的存在。这是“红旗标准”适用的一般情形,实践中有较多这类案例。此外,上文提及的案例表明,网络视频分享平台在履行内容合法性审查的公法义务时,也有可能注意到侵权行为的存在。网络平台内容合法性审查的公法义务在我国多部法律法规和规章中均有规定。以《互联网等信息网络传播视听节目管理办法》最为典型,该办法要求网络服务提供者对于用户上传的内容应进行事前审查,具体审查对象为“十不准”,即涉及危害国家安全、破坏民族团结和宗教政策以及宣扬淫秽暴力等十个方面的内容不得传播。法律要求网络服务提供者对违法内容履行内容合法性审查的公法义务,仅以结果导向来判定网络服务提供者是否履行该审查义务。无论网络服务提供者以何种方式进行审查,只要违法内容在网络上出现,即可认为网络服务提供者未尽到审查义务,应承担法律责任。这实际上是对网络服务提供者的严格责任要求,受《互联网等信息网络传播视听节目管理办法》等法律法规和规章等的影响,网络服务提供者无一不严格依法采取人工加技术的手段对违法内容进行事先审查。在对违法内容进行事先审查的过程中,网络服务提供者不可能不注意到明显侵权行为的存在,此时应采取禁止网络用户上传等措施以防止侵权行为的发生。对此,典型学术观点认为,网络服务提供者在进行内容审核时,如果已经发现了明显存在的侵权内容,就如同看到了飘扬的“红旗”,不能再声称不知道侵权现象的存在。这一观点在部分司法文件中也有体现,如北京市高级人民法院印发《关于审理涉及网络环境下著作权纠纷案件若干问题的指导意见(一)(试行)》第17条第一款规定:“提供信息存储空间、搜索、链接、P2P(点对点)等服务的网络服务提供者对他人利用其服务传播作品、表演、录音录像制品是否侵权一般不负有事先进行主动审查、监控的义务。”该条第二款同时规定,“依照相关法律及其规定应当进行审查的,应当审查”,强调的是内容合法性审查的公法义务,而非对版权侵权行为的注意义务。

早期涉及网络视频分享平台的案件中,法院多强调网络视频分享平台在对用户上传内容的合法性审查过程中应注意到“红旗”的明显存在。如在《镖行天下之龙骑禁军》案中,权利作品《镖行天下之龙骑禁军》等17部电影被上传至被告网站,案件审理法院认为,被告在对用户上传视频的内容合法性审查过程中应注意到“红旗”的存在。《互联网视听节目服务管理规定》明确指出,视频分享网站服务商有义务对其网站中的视频内容进行审核,以防止、反动及低俗的视频内容在网上传播,虽然该规定并非直接针对发现侵权作品,但被告为专业的视频分享网站服务商,在此基础上,意识到将完整的电影上传到其网站上存在极大侵犯他人版权的可能性并非难事。

又如在《天地民心》案中,权利作品《天地民心》电视剧的完整版被上传至被告网站,法院认为影视作品投资巨大,普通网民不可能有获得授权免费传播的可能性,法院指出:“被告作为专门从事影视、娱乐等服务的视频分享网站,应该意识到注册用户上传至‘电视剧’频道中的作品极有可能会存在版权侵权问题,其应当能够在日常的管理中尽到合理的注意义务,发现并删除涉案电视剧,但被告却怠于行使其作为网络服务提供商的义务,放任侵权行为的发生。”判决强调被告作为专业的视频分享网站应注意到已经存在的侵权行为,但并未要求被告在内容合法性的审查过程中阻止侵权内容再上传。

之所以有这样的变化,是因为视频传播网站对内容合法性审查的方式发生了改变。在互联网发展早期,法律法规对前述“十不准”内容自然有同样的要求,但因为内容审查技术的不完善,加之早期互联网视频的数量相对较少,视频网站对用户上传内容合法性的审查往往通过人工审核的方式进行。人工审核的同时自然会注意到明显侵权内容的存在,这是早期法院判决强调网络服务提供者在内容审核时应注意到明显侵权行为存在的原因。但随着内容审查技术的完善,特别是人工智能大模型技术的引入,目前视频网站对用户上传内容合法性的审查往往是以技术审查为主、人工审查为辅。首先,利用内容审查技术对用户上传的内容进行过滤。如果用户上传的内容包含非法内容,视频网站会直接删除用户上传的内容,禁止其在互联网上传播。其次,对于内容技术审查认为存疑的内容,视频网站会利用人工方式进行审查。技术革新带来的成果体现为大部分用户上传的内容无需由人类进行接触,这就使得“红旗标准”中的主观因素难以发挥作用。可见司法实践对“红旗标准”的适用与网络视频分享平台采用的内容审查技术相关,司法实践之所以不强调视频网站在内容审查时应注意到明显侵权行为的存在,是因为现在的审查技术越来越不依赖于人的劳动,这是导致司法实践中“红旗标准”适用规则发生改变的主要原因。人工智能标识内容义务的履行同样有相应的问题,因此必须结合人工智能标识技术的现实,分析网络视频分享平台在履行人工智能标识义务的同时是否能尽到对“红旗”的注意义务。

四、人工智能生成内容标识义务与版权注意义务

上文关于人工智能合成内容标识技术路径的分析已经明确,根据法律规定,网络视频分享平台有义务对用户利用人工智能生成的内容加以标识。随着技术的发展,网络视频分享平台对人工智能生成内容的标识,必然要依赖于以人工智能为核心的技术手段。在人工智能内容识别的过程中,无论是对显式标识还是隐式标识的识别,识别的对象均为标识本身,与使用标识的内容没有任何关联。因此,人工智能生成内容识别技术的应用过程,并非对被识别对象的分析过程,更不是调取其他作品与被识别对象比较分析的过程。这一技术现实决定了“红旗标准”的主观因素在技术识别显式标识和隐式标识的过程中是不存在的,因此“红旗标准”没有适用的可能性。即使是无法检测出显式标识和隐式标识的视频,在上传至分享网站之前也需要依法进行复核。但复核的过程也仅仅是分析视频中是否存在不自然的物理规律、生物细节和时空异质性的过程,这一过程同样不涉及对复核对象表达的分析,“红旗标准”的主观要素在这一技术应用过程中同样不存在。

“红旗标准”的主观要素唯一可能存在的场合是,经多种技术手段检测未发现人工智能生成痕迹,但仍然怀疑用户上传的视频为人工智能合成的,对该类视频是否属于人工智能生成内容需启动人工复核。尽管在技术规则上,由人来判断特定视频是否属于人工智能生成内容的表达不具备技术可行性,因为人所擅长的在于价值判断,而非对视频中人工智能要素的观察和分析。但只要人工复核介入此过程,则“红旗标准”中的主观因素便可能存在。但即使“红旗标准”的主观要素存在,“红旗标准”的客观要素也不具备。“红旗标准”的客观要素强调,以理性人标准应能判断出相关视频内容构成侵权,且该侵权行为应达到“显而易见”的程度。但在网络视频分享平台需要判定用户上传的视频是否属于人工智能生成内容的场合,用户上传的视频在表现形式上与完整的影视作品必然存在差异。在此情况下,用户上传的视频可能会包含权利作品的内容,如利用人工智能技术对权利视频的画面进行改动,对权利作品的连续画面加以剪辑和修改等。此时,对用户上传视频和权利作品实质性相似的判断有一定难度,实质性相似的程度并非显而易见。因此,“红旗标准”的客观要素并不具备,“红旗标准”适用的可能性随之不存在。

“红旗标准”起源于长视频时代,该标准之下的明显侵权行为应该是对完整影视音乐作品的未经许可传播。网络视频分享平台的用户如果未经许可上传了完整影视作品,且被上传的完整影视音乐作品位于网站的主页或者重要位置,自然会触发网络视频分享平台对用户行为的注意义务。但随着短视频创作行为的兴起,有观点认为“红旗标准”不但应该适用于长视频,同样也应适用于短视频。“‘红旗标准’要求平台即使没有收到权利人通知,也应对显而易见的侵权内容进行主动处理,如在侵权内容被多次投诉或具有高热度时,平台未进行及时屏蔽可能被认定为侵权。如某网剧长短视频著作权纠纷案中,法院指出,平台在先已收到大量侵权通知,且涉案作品多次登上‘热榜’或出现在推荐位置,平台应当对侵权内容实际知悉,但平台仍未在合理期限内采取有效管控措施,导致侵权行为在较长时间内持续发生,应当承担侵权责任。”

再如在《琅琊榜》案中,原告是视听作品《琅琊榜》的著作权人,被诉视频由被告快手公司的用户上传,法院认为:“快手公司将各类热播影视作品按照主题、内容主动进行选择、整理、分类推荐,并通过设置视频分类、智能索引、话题编辑等方式推荐涉案侵权视频,虽然侵权视频上传时间不在2015年,但并非处于热播期的影视剧才算‘影视作品’,电视剧《琅琊榜》具有相当高的知名度,根据《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》第十条、第十二条第二项的规定,可认定快手公司构成‘应知’。快手公司存在主观过错,对被诉侵权视频的信息网络传播起到帮助作用,应当承担帮助侵权责任。侵权视频已被删除,快手公司仍需承担民事赔偿责任。”

然而,本案的事实并不符合《信息网络传播权纠纷适用法律若干问题规定》第十二条第(二)项“对热播影视作品等的主题、内容主动进行选择、编辑、整理、推荐,或者为其设立专门的排行榜的”这一情形。司法解释中所谓的“热播影视作品”应为完整或相对完整的影视作品,短视频是对完整影视作品的剪辑、修改视频,除存在与原视频实质性相似难以判断的特点外,短视频本身的合法性也存在讨论的空间。网络视频分享平台上存在的短视频一方面反映了一种文化现象,如混剪、“CP文化”等青年亚文化现象的体现与传播;另一方面也可能符合《著作权法》合理使用条款中的介绍评论和说明的合理使用,如对古代文化现象介绍的短视频,对演员或导演演艺风格评论的短视频。由此导致短视频本身合法性的判断难度增加,使得经过剪辑形成的短视频与“红旗标准”中明显侵权的要求存在一定的差距。

当然,随着视频剪辑技术和人工智能编辑技术的应用,不断有观点主张,现有的“通知—删除”规则与“红旗标准”应扩展适用于包括人工智能视频在内的短视频。这一观点有其合理性,尽管在“红旗标准”和“通知—删除”规则诞生的时代,网络上主要传播的视频为完整或相对完整的长视频,但随着技术的发展,规则适用的对象也应该与时俱进,扩展到经剪辑的视频。但法律适用对象并非总是随着技术的发展而自动调整,立法目的往往能够起到限制法律适用对象的作用,无论是“红旗标准”还是“通知—删除”规则均有其特定的适用对象。如“通知—删除”规则,不能简单将其理解为传播平台过错认定的规则,而应将其理解为权利人和网络服务提供者合力解决明显侵权行为的规则。“通知—删除”规则在制度设计上,旨在鼓励网络服务提供者及时删除侵权内容。如不要求网络服务提供者对权利人的通知内容进行实质审核,直接删除即可免除网络服务提供者的版权侵权严格责任。再如,即使网络服务提供者错误删除了用户传播的合法内容,只要其对权利人的通知主观上是善意信赖的,就不需要对自己的用户承担违约责任。由此可知,尽管国内外的立法均未明确“通知—删除”规则适用的对象为简单侵权行为,但只有将“通知—删除”规则的适用对象理解为简单侵权行为,才能合理解释网络服务提供者为何无需对权利人的投诉做实质审查,才能避免将“通知—删除”规则解释为著作权人权利滥用的工具。

既然我国版权领域的“通知—删除”规则源于 DMCA 的“避风港规则”,那么包括“红旗标准”“通知—删除”在内的规则也应该针对的是简单侵权行为。尽管两者针对的都是简单侵权行为,但在侵权行为的判定难度上,“红旗标准”针对的侵权行为在判断难度上应弱于“通知—删除”规则。“通知—删除”规则的实施过程中,网络服务提供者处于被动接收通知的地位,未经权利人通知无需删除任何内容。可见“通知—删除”规则针对的侵权并不如“红旗”那么显而易见,因此需要权利人承担发现侵权行为的成本。而“红旗标准”则要求网络服务提供者主动定位并清除侵权内容,因此“红旗标准”的适用对象在侵权判定难度上应远远低于“通知—删除”规则适用对象。人工智能生成的视频尽管在表达上与权利作品可能存在实质性相似,但在侵权判定上无法达到显而易见的程度,侵权行为的判定难度依然存在。这就使得“红旗标准”的主观因素在人工智能生成的视频上不存在。

在上文提及的《花轿喜事》案中,被告宽娱公司之所以对其用户传播的涉案视频打上“视频内容为AI合成”字样,是因为涉案视频名称中包含“AI”字样,如其中一部涉案视频名为“AI.阿娇&姜雪宁《宁安如梦》预告片,全网首发!”。被告宽娱公司甚至不需要接触涉案作品的内容,就可以履行对涉案视频的人工智能生成内容标识义务,该种人工智能生成内容的标识过程与被告宽娱公司对涉案视频表达的接触无关,显然不应触发被告更高的注意义务。

五、结语

人工智能生成内容标识义务的引入,是我国在人工智能治理与网络内容规范方面的重要举措。本文通过对人工智能生成内容标识的技术路径与法律义务之间的关联性进行分析,指出该义务的核心在于保障公众知情权与内容可追溯性,而非直接提升网络服务提供者对版权侵权的注意义务。从技术层面看,人工智能生成内容的识别主要依赖于元数据解析、数字水印、AI检测器等手段,其识别对象是内容生成属性,而非著作权法意义上的“实质性相似”。因此,标识行为本身并不自然引发对侵权内容的认知。从法律层面看,“红旗标准”的适用需同时具备主观认知与客观明显的侵权事实,而人工智能生成内容的识别过程通常不具备这两个要件。综上,人工智能生成内容标识义务与版权注意义务在目的、技术与法律逻辑上均属不同范畴。平台在履行前者时,并不必然导致后者水平的提高。未来,应在明确技术标准与法律边界的基础上,继续推动人工智能生成内容治理与版权保护机制的协调发展,既保障技术创新,也维护合法权益。

(作者系华东政法大学教授)

本期责编 |李劼

本期审读 |郑晓红

本期校对 |李冉

本期排版 | 杜佳男

文章来源:

呈贡区印刷机维修:https://www.kmbdw.com/yinshuajiweixiu/areaid-6/

版权声明:本站内容由互联网用户投稿自发贡献或转载于互联网,文章观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至2024tuiguang@gmail.com举报,一经查实,本站将立刻删除。

合作:2024tuiguang@gmail.com