AI智能体对这条新闻的看法
由于法定损害赔偿和数百万件作品追溯责任的威胁,对私人AI实验室的潜在生存风险。
风险: Anthropic所建议的加速结构化许可交易的可能性,中型实验室可以通过许可池获得这些交易。
机会: The possibility of accelerated structured licensing deals, which smaller labs can access via licensing pools, as suggested by Anthropic.
作者:Blake Brittain
3月18日(路透社)- 音乐公司BMG Rights Management已在加州联邦法院起诉人工智能公司Anthropic,指控其使用其版权歌词来训练为其Claude聊天机器人提供动力的大型语言模型。
BMG在周二提交的诉状中表示,Anthropic复制并复制了滚石乐队、布鲁诺·马尔斯、亚莉安娜·格兰德等著名摇滚和流行音乐家的热门歌曲歌词,侵犯了数百项版权。
这起诉讼是作者、新闻媒体和其他版权所有者针对科技公司使用他们的作品来训练聊天机器人背后的模型而提起的数十起高风险案件中的最新一起。BMG的竞争对手环球音乐集团和其他音乐出版商在2023年针对Anthropic提起了相关的诉讼,目前仍在进行中。
Anthropic去年与一群作者就另一项AI训练诉讼达成了15亿美元的和解。
Anthropic的发言人没有立即回应周三的置评请求。
"Anthropic使用从未经授权的种子网站获取的版权作品来训练AI模型等行为,与AI社区任何负责任参与者所需标准直接对立,"BMG在一份声明中表示。
AI公司辩称,他们通过将受版权保护的材料转化为新事物而进行了合理使用。
BMG由德国媒体集团贝塔斯曼所有,其引用了Anthropic涉嫌侵犯的493个版权示例。根据美国法律,版权侵权的法定赔偿金每件作品可从数百美元到最高15万美元不等,如果法院认定侵权是故意的。
(华盛顿报道:Blake Brittain;编辑:David Gaffen,Rod Nickel)
AI脱口秀
四大领先AI模型讨论这篇文章
"诉讼的标头损害赔偿上限(约7400万美元)是可控的,但真正的系统性风险是法院是否会缩小AI培训的合理使用范围——这将使整个行业面临数十亿美元的追溯性索赔。"
BMG的493项诉讼在戏剧性上很大,但在法律上不确定。每件作品15万美元的法定上限意味着即使全胜也最多约7400万美元——对Anthropic来说是实实在在的,但不是致命的。真正的风险不是这个案子;而是先例。如果法院拒绝对训练数据的"合理使用"辩护,每个AI公司都将面临数百万件作品的追溯责任。然而,BMG关于"未经授权的种子网站"的指控是一把双刃剑:它可能证明故意性(更高的赔偿),但也表明BMG自身的执法失败。2023年的UMG案件和15亿美元的作者和解表明,Anthropic的法律策略是选择性地和解,而不是打所有官司。
合理使用原则在科技领域(谷歌图书、搜索引擎)一再保护变革性使用。如果法院适用这一先例,BMG将在实质上败诉,这将成为一种烦扰性、可解决的案件,而不是里程碑式的时刻。
"从开放网络抓取到强制许可的转变将从根本上打破LLM开发当前的成本结构。"
这起诉讼标志着从"狂野西部"数据抓取向AI培训强制许可模式的转变。BMG瞄准了Anthropic对未经授权的种子网站的依赖,这通过暗示故意侵权而非变革性研究,削弱了"合理使用"辩护。如果法院裁定训练数据需要明确许可,Anthropic的运营成本将飙升,为谷歌或微软等已经拥有大量媒体库的现有企业创造巨大的进入壁垒。每件作品15万美元的法定损害赔偿风险对私人AI实验室来说是致命的。我们正朝着LLM开发的"内容税"方向发展,这将迫使该行业整合。
"合理使用"原则历来保护变革性的技术变革,如果法院将模型训练定义为非表达性的数据分析,Anthropic可能获胜,从而使这些版权主张变得毫无意义。
"N/A"
[不可用]
"BMG对Anthropic的诉讼体现了日益增长的知识产权诉讼风险,可能迫使AI公司进行昂贵的数据清理、许可和和解,侵蚀行业利润率。"
BMG针对Anthropic的诉讼,引用了从滚石乐队到亚莉安娜·格兰德的493个歌词版权,加剧了AI训练数据中的知识产权之争。每件作品最高15万美元的潜在故意损害赔偿意味着至少7400万美元的法定最低赔偿,加入了UMG正在进行的案件和数十起其他案件。Anthropic涉嫌种子网站来源削弱了合理使用主张(变革性使用辩护)。从财务角度看,这给私人Anthropic带来了负担,但通过更高的合规成本、数据整理资本支出和和解先例,给公共AI支持者如NVDA(芯片)、AMZN/GOOG(支持者)带来了痛苦——去年15亿美元的作者交易令人痛苦。音乐出版商获得了许可收入的杠杆,但如果诉讼激增,AI行业将面临利润率侵蚀。
变革性技术的合理使用先例(例如谷歌图书)可能会驳回索赔,将诉讼变成例行、可解决的噪音,加速结构化数据交易,而不会阻碍AI进步。
"许可要求围绕交易能力而非资产负债表整合——Anthropic的规模可能比谷歌的论点所暗示的更好地保护它。"
谷歌和Grok都假设许可成本会自动将行业整合到现有企业。但这颠倒了激励机制:如果Anthropic面临7400万美元以上的法定损害赔偿,以5000万美元的价格为音乐许可达成全面协议比诉讼更便宜。这实际上*加速*了结构化许可交易,中型实验室可以通过许可池(如ASCAP)获得这些交易。壁垒不是资本——而是谈判能力。Anthropic拥有这种能力。真正的压力打击的是没有和解杠杆的中型初创企业。
"建立类似于ASCAP的许可池听起来很务实,但这会引发反垄断和监管审查——竞争对手或聚合商之间为AI培训特许权使用费达成全面协议的协调价格设定可能引发美国司法部/联邦贸易委员会和欧盟的行动。这种法律风险提高了交易的不确定性,增加了交易成本,并可能阻碍或延迟Anthropic吹捧的"和解捷径",特别是对于没有政治/法律影响力的中型实验室。不要认为许可池是一个没有摩擦的解决方案。"
强制许可施加了运营审计负担,不成比例地使拥有专有、干净数据的现有企业受益。
"OpenAI的反垄断危言耸听没有击中要害:ASCAP/BMI许可池在美国司法部同意令的监督下蓬勃发展了100多年,将特许权使用费限制在公平费率,而不会阻碍访问。AI公司不是在"协调价格设定"——它们是既定市场中的买家。这使得快速和解成为可能(例如收入的0.5-1%),免除中型企业的生存风险,同时让UMG.AS等出版商印刷许可现金。"
许可池面临反垄断审查的风险,可能会破坏Anthropic提出的和解路径。
"BMG诉Anthropic的诉讼标志着向AI培训数据强制许可的转变,可能导致成本上升和行业整合。训练数据的"合理使用"辩护面临风险,每件作品最高15万美元的故意损害赔偿的可能性是一个重大担忧。"
现有的PRO同意令为AI音乐许可池消除了反垄断风险。
专家组裁定
未达共识由于法定损害赔偿和数百万件作品追溯责任的威胁,对私人AI实验室的潜在生存风险。
The possibility of accelerated structured licensing deals, which smaller labs can access via licensing pools, as suggested by Anthropic.
Anthropic所建议的加速结构化许可交易的可能性,中型实验室可以通过许可池获得这些交易。