当前位置:首页 > 科技资讯 > 正文

生成式AI侵权平台责任:全球司法案例对比与平衡艺术

生成式AI侵权平台责任:全球司法案例对比与平衡艺术 AIGC侵权  平台责任 司法案例 版权平衡 第1张

通过对比国内外实例,全球司法体系在探索中逐步形成共识,即在维护创作者权益与促进人工智能创新之间,需要精细把握的平衡艺术。

作者 | 张佳欣 董雪 己任律师事务所

随着生成式人工智能(AIGC)技术快速发展,AI生成内容涉嫌侵权的法律风险日益突出,AI内容平台在这一技术浪潮中扮演关键角色,其于数据训练和内容生成环节的行为规范与法律责任,成为各国司法关注的焦点。近期国内外涌现多起相关案例,不同司法体系对AI平台责任认定提出了多样标准与见解。

AIGC侵权中平台扮演了何种角色?

AIGC侵权指的是利用生成式AI创作内容侵犯他人知识产权。在分析AI平台侵权责任前,有必要区分AIGC内容生成的两大环节:数据训练(输入端)和内容生成/分发(输出端)。输入环节涉及AI模型训练阶段,平台通过收集海量数据训练模型,让模型“学习”语言或图像等底层规律;输出环节则是模型基于用户指令生成内容,并通过平台与用户交互、分发。这两个环节均存在潜在侵权风险,但法律评价可能不同,在探讨平台责任时,需首先明确平台在涉案情形下处于哪个环节及从事何种行为。不同环节的平台行为差异显著,责任认定标准也随之变化。

数据训练环节:未经授权抓取素材训练AI,侵权吗?

近日,德国慕尼黑地区法院对GEMA诉OpenAI案作出判决,该案被称为欧洲生成式AI版权首案,聚焦于AI模型训练阶段的数据使用是否侵权。GEMA作为德国音乐版权集体管理协会,发现OpenAI未经许可将其管理的多首热门歌曲歌词纳入ChatGPT的大模型训练数据集。当用户在ChatGPT中输入提示(如“完整歌词是什么?”),模型能够几乎原样生成该歌曲歌词。GEMA据此指控OpenAI未经授权抓取受版权保护歌词用于训练,并导致歌词内容被模型输出,构成对作品的复制和向公众提供,侵犯著作权。OpenAI抗辩称语言模型并未存储或逐字复制训练数据中的歌词,仅是学习语言统计规律,不应视为德国著作权法意义上的“复制”。然而,德国慕尼黑法院未采纳这一抗辩,认定OpenAI的模型参数中固化了歌词的可再现信息,用户通过简单提示即可让模型再现这些歌词,OpenAI“记忆”歌词的行为符合德国著作权法对“复制”的定义要件,属于对作品的非法复制,侵犯了涉案歌词版权。

德国这一裁决强调,如果AI模型在未经许可下利用受保护内容训练,且能输出近似原作品内容,那么训练行为本身可能被视为直接侵权。与德国案件的严格立场相比,英国Getty Images诉Stability AI案对数据训练环节的处理有所不同。

Getty Images指控Stability AI未经授权抓取其海量图库(包括数百万张带Getty水印的图片)来训练AI图像生成模型Stable Diffusion。案件初期,Getty也主张平台未经许可爬取图片训练模型侵犯版权,但由于管辖权等问题,Getty在英国诉讼中撤回了关于训练数据使用的直接侵权指控,仅保留次要版权侵权和商标侵权主张。法院认为Stable Diffusion模型通过参数化和特征抽象进行训练,并未存储或再现原始图像,生成的图片也无法与某一特定现有作品一一对应。换言之,在“复制”这一版权法核心定义上,法官采取了严格解释——如果AI模型没有保存原始图像,其输出也未能实质性再现某个受保护作品的独特表达,则模型训练环节不被视为直接侵权。这一观点与OpenAI在德国案中的抗辩思路相似,即训练过程只是提取特点、风格和统计规则,并非保存作品本身。

英国法院的立场或许体现了目前英美法系对AI训练利用数据的相对宽容:在缺乏明确立法规制下,司法倾向于谨慎认定模型训练本身直接侵犯版权,以免扼杀技术创新。

在中国,近期也有引人关注的AIGC案例聚焦于商业化AI平台在内容输出端的责任,即上海“美杜莎”案和杭州“奥特曼”案。两案背景相似:用户利用AI平台提供的模型生成服务创作含他人IP形象作品,但平台在两案中责任认定截然不同,原因在于平台自身行为存在差异。

“美杜莎”案:该案是上海首例AI大模型侵权案,用户李某利用某AI绘画平台服务,上传大量《斗破苍穹》动画中“美杜莎”角色图片训练一个LoRA模型,并将该模型发布在平台账号中供其他用户使用、分享。法院认定李某未经授权采集美杜莎角色形象训练并分享模型,侵害了权利人对该角色美术作品的复制权和信息网络传播权。而AI绘画平台仅为用户提供技术支持,角色相对中立,未参与用户模型训练或生成行为。并且,平台设置了投诉机制,在接到权利人通知后,迅速下架涉案侵权模型并屏蔽相关关键词,客观上履行了法定“通知-删除”义务,主观上也无帮助侵权的故意或过失。因此法院判定平台方不存在过错,不构成对用户侵权行为的帮助侵权。简言之,“美杜莎”案强调了平台作为内容分发中立中介的地位:只要平台在获知侵权后及时采取必要措施制止,并未从中获利或主动参与,则可不承担连带责任。

“奥特曼”案(杭州):本案被称为国内AIGC侵权第一案,某AI绘画平台上长期存在大量含日本著名IP“奥特曼”形象的侵权模型,用户可方便使用这些模型生成奥特曼图片。杭州互联网法院在2024年初作出一审判决,表示对于AI大模型的数据输入、训练等前端行为应当相对宽松包容,而对生成内容的输出、使用等后端行为的侵权认定则应当相对从严。具体到本案,法院认为平台明知或应知他人利用其服务实施对“奥特曼”形象的侵权,却放任大量侵权模型存在而不采取有效措施制止,存在主观过错。同时,平台将“奥特曼”等知名IP模组单独归类推荐,实际上便利并鼓励了用户侵权创作,且平台通过向用户收费直接从侵权行为中牟利。在这些因素叠加下,法院认定平台构成帮助侵权,需与直接侵权用户共同承担侵权责任。该判决后经杭州中院二审维持原判,再次强调了商业化AI平台在输出端的高度注意义务:不仅要事先建立完善内容审核与过滤机制,还应在获知侵权后积极采取措施遏制,否则即便平台未直接参与侵权行为,也可能因“明知—放任”的过错而承担连带责任。

总体而言,各司法体系在AI平台责任问题上存在一定共识:既不能放任AI技术成为侵权避风港,也不能一刀切扼杀创新。因此我们看到一种平衡:在涉及训练数据的前沿问题上,相对谨慎从宽;在涉及生成内容传播环节上,则从严把关,确保权利人受到保护。

未来 AI 平台方将面临哪些责任与挑战?如何在创新与版权保护间求衡?

随着监管趋严,AI 平台需在输入端和输出端各自强化合规措施。一方面,在输入端加强训练数据管理,平台需要确保用于模型训练的数据来源合法、授权明确。在技术层面,可通过过滤机制排除明显受版权保护且未获许可的数据;在业务层面,积极与版权方合作,构建正版素材库,通过授权合作、付费许可等方式取得训练所需数据素材。另一方面,在输出端强化内容审核与风控机制,有必要完善敏感内容识别机制和用户投诉处理渠道,及时下架涉嫌侵权的模型和生成物。

AI生成内容给法律带来前所未有的挑战,但也是推动法律与技术共同进步的契机。透过中外案例对比可见,各国司法在摸索中逐步达成共识,保护创作者权益与鼓励人工智能创新是需要精细拿捏的平衡艺术。AIGC侵权案件中平台责任认定尚有很长的路要走,从业者需随时关注其发展,动态调整应对策略。

知产力AI智能体点评

这篇文章从比较法视角系统梳理了AIGC侵权中平台责任的司法认定逻辑,兼具理论深度与实践价值,其亮点与改进空间可总结如下:

核心亮点

(1)案例对比的体系性:文章通过德国GEMA诉OpenAI案(训练端侵权)、英国Getty诉Stability案(训练端免责)与中国“美杜莎”“奥特曼”案(输出端责任)的横向对比,清晰呈现了不同法域对AI平台责任的差异化立场。德国强调训练数据的“记忆-再现”构成复制权侵权,英国则因技术中立性倾向宽容,而中国更关注输出端的平台过错认定。这种“输入-输出”二分法框架,有效揭示了责任认定的关键变量。

(2)司法逻辑的穿透性分析:对裁判规则的提炼具有洞察力,例如指出德国法院以“可再现性”作为复制权侵权的核心标准,而中国“奥特曼”案将平台推荐侵权模型、直接牟利等行为作为过错认定的关键。这些分析超越了简单的结果对比,深入司法者的价值权衡——即在技术创新与版权保护间寻求动态平衡。

(3)实务建议的针对性:文末提出的合规建议(如输入端授权管理、输出端过滤机制)紧扣案例启示,尤其强调平台需建立“技术+商业”的双重合规体系,对从业者具有直接参考价值。

优化建议

(1)理论衔接可强化:可补充著作权法基础理论(如“独创性”“实质性相似”标准)在AI场景的适用困境,例如引用王迁教授关于“人类创造性”淡化的论述,以增强学理支撑。

(2)产业影响待深化:对判决的行业连锁反应分析稍显不足。例如德国OpenAI案可能迫使企业重构数据获取流程,而中国“奥特曼”案已推动平台完善审核算法,这些延伸影响值得展开。

(3)国际趋势需整合:文章聚焦个案但未充分关联全球立法动态。例如欧盟《人工智能法案》对训练数据的透明度要求,或可作为未来责任演进的预判依据。

总体而言,该文以案例为锚点,成功构建了AI平台责任的分析框架,其“技术环节-法律定性-司法逻辑”的三层解构方式尤为出色。若能在理论深度与趋势预判上进一步延伸,将更具前瞻指导意义。