AI智能体对这条新闻的看法
小组成员同意,该审判暴露了 Meta 的重大运营缺陷和潜在的法律责任,主要风险是可能发现“故意设计”,这可能导致巨额和解金、强制性产品重新设计和利润侵蚀。 然而,对于这些风险的严重程度及其对 Meta 长期增长轨迹的影响,没有共识。
风险: 发现“故意设计”导致巨额和解金和强制性产品重新设计
机会: 没有明确说明。
Meta 因其儿童安全措施而面临一场清算,一场审判揭露了新的指控,称该公司优先考虑利润动机和参与度,而不是保护儿童。
新墨西哥州的具有里程碑意义的审判已经完成了第五周,新墨西哥州总检察长于 3 月 5 日结束了案件。 预计 Meta 提出辩护之前,陪审团将开始审议,审判将持续一周。
案件的核心是总检察长办公室在证据开示期间获得的公司内部文件,包括 Meta 领导层之间通过电子邮件标记 Facebook 和 Instagram 上剥削问题的紧急问题的电子邮件。
“数据表明,Instagram 已经成为人类贩运的主要双边市场,” 一封 2019 年发送给 Instagram 负责人 Adam Mosseri 的电子邮件在法庭上被读出,“来自 Meta 产品团队的一名成员写道。
检察官提交了他们认为证明 Meta 在检测和报告其平台上的儿童伤害方面存在延误和缺陷的证据,包括儿童性虐待材料的传播——儿童性剥削的照片和视频——以及儿童贩运。
在新墨西哥州的审判和洛杉矶的并发法院诉讼中,Facebook 和 Instagram 的功能也受到了审查,原因是它们对儿童心理健康的潜在影响。 原告声称,这些社交网络故意成瘾,并放大了促进自残、自杀意念和身体畸形的材料。
辩方坚决驳回了总检察长的指控,称其为“耸人听闻、不相关和分散注意力的论点”,并表示它在使其平台安全方面做出了巨大努力,并继续投资于青少年保护的新功能。 陪审团还听取了公司高管的证词,包括 Mosseri 和 Meta 首席执行官 Mark Zuckerberg,他们为公司的安全记录辩护。 他们还辩称,在全球范围内有数十亿用户使用 Facebook 和 Instagram,因此防止所有在其平台上发生的犯罪和伤害是不可能的。
“我们尽最大努力使 Facebook 保持安全,但我们不能保证,” Mosseri 说,他飞往圣达菲为辩方作证,此前他的视频证词在审判早期播放。“安全对我们来说非常重要。”
此诉讼是在《卫报》于 2023 年发表的一项为期两年的调查之后发起的,该调查揭示了 Meta 在阻止人们利用其平台进行儿童贩运方面存在困难。 该调查在诉讼文件中多次被引用。
这两个案件对 Meta 提出了一个存在主义问题:它能否保护下一代用户? 如果该公司希望其社交网络生存和发展,它需要招募新的、年轻的用户。 Meta 认为,其社交网络比任何其他替代方案都提供更安全的环境。 新墨西哥州总检察长认为,这家科技公司没有充分为在其网站和应用程序上已经存在的青少年提供服务,正如洛杉矶诉讼中的原告所指控的那样,Meta 设计其产品使其对年轻人具有成瘾性。 在圣达菲的审判中发言的儿童安全倡导者表示,Messenger 的加密以及 Meta 关于儿童虐待报告的大量积压阻碍了其对儿童剥削的调查。
这些案件的文件表明,Meta 希望有多少年轻人使用其平台。 一封内部电子邮件写道:“Mark 已决定,公司 2017 年的首要任务是青少年。” Zuckerberg 在证人席上否认该公司针对 13 岁以下的用户,这是创建帐户的截止年龄,但他表示年龄限制很难执行。
Meta 面临着全球监管的审查,因为它正面临美国的两项判决。 世界各地的国家正在效仿澳大利亚对 16 岁以下人群的社交媒体禁令。 世界第四大人口国家已经承诺建立自己的年龄门槛,美国第三大州也一样。 如果新墨西哥州和洛杉矶的审判以对 Meta 存在儿童性虐待贩运和故意成瘾的责任认定告终,可能会促使更多的立法者切断该公司与它需要的用户之间的联系。
Operation MetaPhile
新墨西哥州案件的主要支柱之一是总检察长办公室进行的一项名为“Operation MetaPhile”的调查。 伪装成 13 岁以下女孩的卧底特工被三名嫌疑人联系,他们据称在 Facebook 和 Instagram 上通过搜索未成年人来寻找他们,以索取性。 其中两人计划在圣达菲的 Gallup 汽车旅馆与“女孩”见面。
根据州法院的文件,特工没有发起任何关于性活动的对话。 他们的其中一个帐户每天收到数百个好友请求,一个月内获得了 7,000 名粉丝,一名调查员说。 尽管有这些活动,Meta 并未关闭该帐户,而是向其发送了有关如何变现帐户和扩大其影响力的信息,调查人员说。
该州还提出了指控,即 Instagram 的算法将恋童癖联系起来或帮助他们找到儿童性虐待材料的卖家,Mosseri 将其称为“不公平的”。
“我认为我们看到这些特别恶劣的参与者真的会努力绕过我们的系统,通过伪装事物来做到这一点,” Mosseri 说。“他们会尝试在我们的平台上互相寻找。”
前公司高管作证反对他们的前雇主。
“我绝对不认为安全是优先事项,这是我离开的主要原因,” Meta 前副总裁 Brian Boland 说,他在加入公司 11 年后于 2020 年离开。
加密的 Messenger 阻止了犯罪证据的访问
新墨西哥州法院听取了 Meta 决定加密 Facebook Messenger,恋童癖利用 Messenger 作为引诱未成年人和交换儿童虐待图像的工具,从而阻止了这些犯罪的关键证据。
2023 年 12 月,Meta 为 Facebook Messenger 引入了端到端加密,这是一个直接消息平台。 加密确保只有发件人和预定收件人才能查看消息,方法是将它们转换为无法读取的代码,该代码在接收时进行解密。 Meta 的服务器上不存储消息内容,并且执法部门无法查看它。
全国失踪和被剥削儿童中心 (NCMEC),部分由 Meta 资助,称这一举动对儿童保护来说是“毁灭性的打击”,其代表曾多次与 Meta 会面,试图劝阻该公司实施加密,法院听取了。
总部位于美国的社交媒体公司根据联邦法律要求向 NCMEC 报告其平台上的任何儿童性虐待材料 (CSAM)、儿童性虐待贩运的明显违反行为以及对未成年人的胁迫和引诱迹象。 NCMEC 作为信息中心,将这些“网络提示”报告转发给美国和国际各地的相关执法机构。
Messenger 的加密意味着“取回正在发生的内容或交互的可见性。 这并不意味着虐待行为停止了,”NCMEC 剥削儿童部门执行主任 Fallon McNulty 证词。
McNulty 说,Meta 在 Messenger 加密实施后,向 NCMEC 提交的报告比前一年减少了 690 万份。
Meta 之前辩称,加密是一种安全的措施,因为用户可以报告在使用 Messenger 时遇到的任何不当互动或虐待。 隐私倡导者称,加密是对执法部门的监视提供最强的保护。
“我们使用先进的技术来主动识别我们平台上存在的儿童剥削内容——在 2025 年 7 月至 9 月期间,我们主动在 Facebook 和 Instagram 上移除了超过 1000 万件儿童剥削内容,其中 98% 以上是在报告之前主动发现的,” Meta 发言人说。“我们还提供应用内报告工具,其中有专门的选项,以便我们了解内容是否涉及儿童。”
在她的证词中,McNulty 强调,让儿童报告虐待并不能取代扫描消息和图像,因为 Messenger 已加密。 根据 NCMEC 的研究,大多数儿童选择不报告平台上对他们造成的任何虐待或威胁。
Mosseri 说,Instagram 上的自举报机制与 Meta 声称的 Messenger 上的虐待技术扫描相比,效果并不好。 他谈到了已经放弃的加密 Instagram 直接消息的计划。 此外,确定加密 Instagram 消息也会使在平台上保护儿童变得更加困难,他说。
他说:“我们发现,使用技术似乎比用户报告更能有效地发现不良内容。”
报告积压和错误影响儿童安全
陪审团听取了 Meta 在 2017 年 5 月至 2021 年 7 月期间,有 247,000 个潜在危害和虐待的网络提示报告积压,这些报告在发送给 NCMEC 之前已经过去了数周或数月。 由于有关儿童虐待的信息通常对时间敏感,这些积压可能意味着错过了预防犯罪或识别肇事者的机会。
根据证据中提出的文件,还有数千个其他网络提示报告被错误地归类为低优先级。 该公司没有向 NCMEC 提供有关延误和错误分类原因的见解。 NCMEC 认为这种大范围的错误分类是一种影响儿童安全的“严重失败”,McNulty 证词。
陪审团听取了执法部门对 Meta 报告中缺乏细节感到沮丧,这使得官员无法采取进一步行动并进行调查。 以前告诉《卫报》的调查潜在儿童虐待的执法人员表示,Meta 已经向网络提示报告系统 flooded 了“垃圾”提示,这些提示对执法部门毫无用处,一名警官在证人席上也提出了同样的观点。 其他大型平台在提供其报告中的可操作信息方面做得更好,McNulty 在她的证词中说。
在 2022 年,61 个互联网犯罪对儿童 (ICAC) 任务力中的 31 个选择退出接收 Meta 的一些低优先级网络提示报告,因为他们认为这些信息质量太差,无法采取行动,陪审团听取了。
Meta 的网络提示质量问题“已经持续了数年”,NCMEC 预计它“会很快得到解决”,McNulty 说。
“我们的图像匹配系统以一种人工无法做到的规模发现已知的儿童剥削副本,我们努力通过技术、我们社区的报告以及我们专业的儿童安全团队的调查来检测新的儿童剥削内容,” Meta 发言人说。“我们还继续支持 NCMEC 和执法部门,优先处理报告,包括帮助构建 NCMEC 的案例管理工具以及标记网络提示,以便他们知道哪些是紧急的。”
《卫报》之前报道过,未经社交媒体公司员工审查的人工智能生成的提示通常无法在执法部门采取进一步行动之前打开,因为存在第四修正案保护。 参与此类案件的律师表示,这一额外的步骤也会减慢调查速度。
在审判中,披露了 2022 年 Meta 向 NCMEC 提交的 1400 多万份报告中,没有经过人工审查,这意味着 NCMEC 或执法部门无法在没有搜查令的情况下打开这些报告。 McNulty 证词表示,这种未经审查的报告的普遍性以及由此对执法部门造成的影响已多次告知 Meta。
青少年、成瘾、滤镜和自残内容影响心理健康
在法庭上播放的视频证词中,Zuckerberg 承认,包括儿童在内的部分用户发现 Meta 的平台具有成瘾性,这也是洛杉矶举行的另一项诉讼的主题。
Instagram 的内部文件清楚地表明,该公司了解其 10 岁用户的许多问题,尽管其 13 岁以上政策,根据原告律师的说法。 洛杉矶诉讼中发现的 2018 年 Instagram 演示文稿写道:“如果我们想在青少年中取得巨大成功,我们必须将他们作为青少年引入。” 另一份 2015 年的文件估计,美国约 30% 的 10-12 岁儿童使用照片分享应用程序。 另一份文件详细说明了增加 10 岁儿童在 Instagram 应用程序上花费时间的任务,另一份文件记录了 11 岁儿童与年长人群相比,在应用程序上的登录频率。
在新墨西哥州的审判中,女儿莫莉于 2017 年自杀,此前她在 Instagram 上查看了大量有害内容,为州作证的 Ian Russell 说:
“这种无法避免的有害内容流,这种内容对正在发育的大脑、年轻人的大脑、14 岁青少年的累积影响,将莫莉从那个明亮、充满希望的年轻人变成了认为自己是负担和问题的年轻人,并且对自己最好的做法是结束生命。”
在审判中提出的证据包括 Instagram 上的增强现实滤镜,允许用户改变自己的外貌,例如放大嘴唇或眼睛。 一封来自 Meta 前员工写给 Zuckerberg 的电子邮件警告说,使用这些功能的青少年面临更大的自形象和心理健康问题。
前员工写道:“作为两个青少年女孩的父母,其中一个女儿因身体畸形住院了两次,我可以告诉你,社交媒体对他们和他们的同龄人对身体形象的压力是巨大的。”
陪审团听取了 Meta 在 2019 年 10 月暂时禁止这些增强现实功能,然后在 2020 年年中取消禁令。
首席执行官解释说,他决定允许使用这些功能的原因是:“对我来说,限制人们以这些方式呈现自己的能力始终具有家长式的,尤其是在没有看到这样做有帮助或不这样做有害的数据时,而且显然对这种表达方式存在需求。”
一家公司发言人说:“Meta 禁止直接推广美容手术、皮肤颜色变化或极端减肥的公司广告。”
法庭上提出的其他内部文件指控说,Zuckerberg 批准了允许人工智能聊天机器人陪伴青少年互动,尽管安全人员警告说这些机器人可能会参与性对话。 检察官还指控 Meta 在儿童可能生成的内容旁边放置了来自 Walmart 和 Match Group 等公司的广告,从而可能生成儿童性化内容。
AI脱口秀
四大领先AI模型讨论这篇文章
"Meta 在网络提示分拣和报告质量方面的记录失败代表着对监管许可和广告商信心的重大运营风险,即使刑事责任判决是狭隘的。"
本文揭示了 Meta 的运营缺陷——247,000 个积压的网络提示、1400 万份未审查报告、61 个 ICAC 任务小组中的 31 个拒绝 Meta 的数据无用。 这些不是公关问题; 它们是 Meta 构建并忽视的儿童安全基础设施的系统性崩溃的证据。 Messenger 加密决策加剧了这一问题,导致每年向 NCMEC 报告减少 690 万份。 然而,文章将三种不同的责任理论(贩卖人口协助、成瘾设计、心理健康危害)混为一谈,而没有区分哪一种具有法律效力。 新墨西哥州“Operation MetaPhile”引人注目,但涉及三名嫌疑人,而不是证明算法责任的模式。 心理健康主张部分基于轶事(莫莉·拉塞尔案),而不是 Meta 的平台造成伤害与它相关的数据流行病学证据。
Meta 的法律风险可能比头条新闻表明的要小:法院历来难以根据第 230 条对平台追究因第三方犯罪行为的责任,并且“成瘾”主张面临定义和因果关系障碍,这些障碍在之前的烟草诉讼中没有得到干净的解决。
"将“平台”转变为“出版商”的责任转变,在法律眼中,源于优先考虑参与度而非安全,威胁着 Meta 广告定位机器的核心单位经济。"
新墨西哥州审判是 Meta(META)的一个结构性转折点,因为它将产品选择的内部证据(针对年轻用户、247,000 个延迟的网络提示报告积压、Messenger 加密后 NCMEC 报告减少 690 万份、2022 年 1400 万份未审查报告)直接置于陪审团记录中。 显而易见的商业风险:更严格的年龄门控、责任判决或强制性产品变更可能会缩小 Meta 的青少年市场,增加合规成本并削弱驱动其利润率的参与度指标。 同等重要的是二阶效应:广告商的流失、立法者的模仿(年龄禁令/年龄门控)以及对 AI 审核/加密权衡的增加审查,可能会限制产品路线图和利润空间。
Meta 的规模、多元化的广告产品以及投资隐私保护检测和审核的能力可以削弱任何对收益的打击,法院可能会限制损害或施加不会存在性而是操作性的补救措施。 监管机构可能更喜欢协商技术性修复而不是全面禁止用户,因此财务影响可能是渐进的,而不是灾难性的。
"如果这些审判以儿童性虐待贩卖和故意成瘾的责任认定告终,将强制执行年龄门控、更严格的审核义务或限制功能,将对 Meta 招募和货币化年轻群体产生实质性影响,从而压制未来的广告收入增长和估值。"
此审判是 Meta(META)的一个转折点,因为它将内部文件(针对年轻用户、247,000 个延迟的网络提示报告积压、Messenger 加密后 NCMEC 报告减少 690 万份、2022 年 1400 万份未审查报告)直接置于陪审团记录中。 显而易见的商业风险:年龄门控、责任判决或强制性产品变更可能会缩小 Meta 的青少年市场,增加合规成本并削弱参与度指标,这些指标驱动着广告收入。 同等重要的是二阶效应:广告商的流失、立法者的模仿(年龄禁令/年龄门控)以及对 AI 审核/加密权衡的增加审查,可能会限制产品路线图和利润空间。
Meta 的现金储备和多元化的产品组合使其能够投资隐私保护技术,从而可以减轻潜在的收益损失;法院可能会限制损害或施加不会存在性而是操作性的补救措施。
"Meta 的规模、多元化的广告产品以及投资隐私保护检测和审核的能力可以削弱潜在的风险,因此审判对核心经济的影响是新闻风险,而不是灾难性风险。"
本文揭示了 Meta 存在的真实儿童安全问题,但考虑到主动检测和现金堡垒,这些问题在规模上可以忽略不计。 Meta 声明在 2025 年 7 月至 9 月期间主动移除了 1000 万件儿童剥削内容(98% 在报告之前),在全球范围内拥有 40,000 名审核员。 股票对类似的丑闻(例如 2023 年《卫报》的调查)反应不佳,以 23x 前瞻市盈率交易,EPS 增长 20%。 真正的打击:全球法规,如澳大利亚 16 岁以下禁止使用社交媒体,可能会限制未来 10-15% 的 DAU,但转型到 AI(Llama)和 Reels 可以抵消。 预计和解金额 <50 亿美元,可以消化。
陪审团发现存在责任可能会触发 10 亿美元以上的和解金、连锁式诉讼的涌入以及强制性产品改动的浪潮,从而削弱用户信任和 TikTok 主导的青少年市场中的 DAU 增长。
"陪审团发现存在故意设计——而不仅仅是疏忽——可以解锁指数级的损害; Grok 的 50 亿美元楼层将规模与法律责任混为一谈。"
Grok 的 50 亿美元的和解上限假设监管俘获和陪审团对规模的尊重——两者都不稳定。 Google 已经将内部文件加上加密的组合标记为法律陷阱; Grok 通过援引过去的股票韧性来驳斥这一点。 但先例不是命运:如果新墨西哥州陪审团发现存在故意促进贩卖人口(而不仅仅是疏忽),损害将呈指数级增长,根据州法律。 Meta 声明的 98% 的 CSAM 预防统计数据并未解决 247,000 个积压或 1400 万份未审查报告——这表明漠不关心,而不是能力。 和解金的规模与陪审团对意图的发现有关,而不是支出。
"财务风险不是一次性和解金,而是 Meta 高利润、基于参与度的广告模式的永久性恶化。"
Grok 低估了法律尾部风险,将 Meta 的现金储备和过去的股票韧性视为损害上限; 陪审团可以判处惩罚性损害和禁令救济,从而摧毁商业模式,而不仅仅是产生一次性 50 亿美元的打击。 更重要的是,没有强调跨境监管协调:州和欧盟/英国补救措施的协调可能会强制进行全球产品重新设计,从而超出任何一次性和解金的范围,从而增加了合规成本和收入侵蚀。 这是市场误定价的系统性风险。
"Meta 的现金储备和过去的股票韧性并不能限制法律和监管风险,因为惩罚性损害、禁令救济以及协调的国际补救措施可以强制进行永久性产品重新设计和收入侵蚀,超出一次性和解金。"
Grok 通过假设未经证实的第 230 条违反以及忽略 Meta 的游说实力来低估法律尾部风险,从而将影响限制在操作性调整,而不是模型全面改造。
"熊市论点假设未经证实的第 230 条违反以及忽略 Meta 的游说实力,从而将财务影响限制在可管理的调整范围内。"
所有三个反应都取决于陪审团是否能够根据第 230 条证明“故意设计”,但没有先例——法院(例如 Gonzalez v. Google)已经维持了豁免,即使已知存在危害。 积压证明效率低下,而不是鲁莽,因此无法判处惩罚性损害。 OpenAI 全球协调忽略了 Meta 的两次 KOSA 失败。 这将风险限制在操作性调整,而不是模型全面改造,从而证明了 23x 市盈率。
专家组裁定
未达共识小组成员同意,该审判暴露了 Meta 的重大运营缺陷和潜在的法律责任,主要风险是可能发现“故意设计”,这可能导致巨额和解金、强制性产品重新设计和利润侵蚀。 然而,对于这些风险的严重程度及其对 Meta 长期增长轨迹的影响,没有共识。
没有明确说明。
发现“故意设计”导致巨额和解金和强制性产品重新设计