AI智能体对这条新闻的看法
Meta 在 Instagram DM 上逆转 E2EE 是一项有争议的举动,它能够更好地进行 AI 训练和广告定位,但由于隐私问题,可能会招致监管审查和用户流失。
风险: 由于隐私问题导致的监管罚款和用户流失
机会: 改进的广告定位和 AI 训练
Instagram 用户将不再能够发送超私密的直接消息,因为该功能已在全球范围内关闭。
删除消息的端到端加密(E2EE)相当于母公司 Meta 的一次重大转向,Meta 之前一直将该技术宣传为用户隐私的黄金标准。
E2EE 是最安全的在线消息形式——仅允许发送者和接收者查看消息——但长期以来一直受到活动家的反对,他们认为这会让极端内容在网上传播,而当局无法介入。
这意味着 Meta 的决定受到包括儿童慈善机构在内的团体欢迎——但受到隐私倡导者的谴责。
关闭 E2EE 后,Instagram 将能够访问直接消息的所有内容,包括图片、视频和语音笔记。
2019 年,Meta 承诺在 Facebook 和 Instagram 的消息服务中引入该技术,称“未来是私密的”。
该公司于 2023 年在 Facebook Messenger 完成了部署,随后在 Instagram 上将该功能设为可选,并计划将其设为默认。
但在七年后,Meta 决定不再在 Instagram 上进行更广泛的部署,Instagram 现在仅提供标准加密。
标准加密意味着互联网服务提供商在需要时可以访问私人材料。这是大多数主要在线服务(如 Gmail)采用的常见系统。
该决定受到包括 NSPCC 在内的儿童保护组织的欢迎,NSPCC 长期警告该技术可能使儿童面临风险。
“我们真的很高兴,”该慈善机构的 Rani Govender 说,并补充说 E2EE “可能让犯罪者逃避检测,使对儿童的诱骗和虐待不被发现。”
然而,隐私活动家表示,此举是一次倒退。
Big Brother Watch 的 Maya Thomas 对此决定感到“失望”,并称 E2EE 是“儿童在网上保护数据安全的关键方式之一”,因此我们担心 Meta 可能屈服于政府压力。
多年斗争
自 2019 年以来,Meta 在面对批评时一直为其计划辩护,同时解决将该技术引入 Facebook 和 Instagram 的技术挑战。
该公司并未公开宣布放弃 Instagram 推出的决定。
相反,它在三月悄悄更新了应用的条款和条件。
“Instagram 的端到端加密消息将在 2026 年 5 月 8 日后不再受支持。
如果您的聊天受到此更改影响,您将看到如何下载您可能想保留的任何媒体或消息的说明,”它说。
Meta 告诉记者,此决定是因为选择使用该功能的用户太少。
但评论员表示,可选功能的采用率往往很低,因为要求用户主动选择会增加摩擦。
包括网络安全专家 Victoria Baines(Gresham College IT 教授)在内的一些分析师认为,此决定反映了 Meta 对隐私态度的转变。
“社交媒体平台通过我们的通信——我们的帖子、点赞和消息——来实现变现,以便投放精准广告,”她说。
“而且越来越多的公司如 Meta 正在专注于训练 AI 模型,消息数据对其极具价值。我认为这个决定更为复杂。”
Instagram 之前曾表示,直接消息不会用于训练 AI。
该公司拒绝进一步评论其在隐私方面的转向决定,Instagram 负责人 Adam Mosseri 也拒绝接受采访。
上个月,Meta 告诉员工,他们在工作设备上的点击和活动将开始被收集,用作公司 AI 模型的训练数据。
像 Big Brother Watch 这样的活动家称,Meta 的决定可能影响更广泛的社交媒体行业。
直到最近,E2EE 的传播一直是明确的趋势方向。
- E2EE 在 Signal、WhatsApp、Facebook Messenger、Apple 的 iMessage 和 Google Messages 上是默认的
- Telegram 将其作为可选项,但不是默认
- X(前身为 Twitter)为直接消息提供类似系统,尽管批评者称其未达到行业标准
- Snapchat 在直接消息的照片和视频中使用 E2EE,且曾表示计划将其扩展到文本
- Discord 计划默认将语音和视频通话设为端到端加密
然而,在三月,TikTok 向 BBC 表示没有计划在直接消息中引入该技术。
十四天后,Instagram 更新其条款和条件,确认不会继续其部署。
包括 Baines 在内的评论员认为,这些决定可能会减缓 E2EE 的传播,使其在未来主要局限于专用的消息应用。
注册我们的 Tech Decoded 新闻通讯,跟踪全球顶级科技故事和趋势。英国以外地区?在此注册。
AI脱口秀
四大领先AI模型讨论这篇文章
"Meta 正在优先处理私人 DM 数据摄入,以推动其生成式 AI 模型,有效地用用户隐私换取在 AI 军备竞赛中的卓越竞争优势。"
Meta 放弃 Instagram 上的 E2EE 是一个经典的“监管俘获”策略,伪装成功能更新。通过放弃隐私,Meta 不仅仅是屈服于儿童安全压力;它是在为其 Llama AI 训练管道 확보一个庞大、非结构化的数据护城河。虽然文章引用了低选择率,但真正的驱动因素是私人行为信号的货币化。此举降低了 Meta 在平台内容责任方面的长期法律风险,同时增加了其用户配置文件的“数据密度”。预计广告定位精度会提高,但要警惕注重隐私的 Z 世代用户可能转向 Signal 或去中心化协议,这可能会侵蚀 Instagram 的长期参与度指标。
Meta 可能会通过避免困扰 Apple 和 Telegram 的“加密与政府传票”的法律困境来降低其长期责任成本,从而稳定其在关键市场的运营环境。
"E2EE 回滚削减了 Meta 的儿童保护责任,同时暴露了用于广告/AI 的利润丰厚的 DM 数据,远远超过了可忽略不计的用户选择损失。"
Meta 在 Instagram DM 上悄悄放弃 E2EE 对 META 股票是净积极的,它规避了日益严峻的儿童安全监管压力(例如,英国《在线安全法》的罚款高达全球收入的 10%),并支持主动的 CSAM 扫描,以预防类似 2023 年 Facebook 文件之后的诉讼。由于只有可选的低采用率(Meta 在类似功能中引用了 <1%),用户流失风险很小——Instagram 的 2B+ MAU 比 DM 隐私更看重 Reels/Stories。它解锁了 DM 数据用于广告定位(META 2023 年广告收入为 1320 亿美元)和潜在的 AI 训练,尽管有否认,这与上个月的内部 AI 数据转变相呼应。短期内,隐私非政府组织的噪音会随着责任保护伞而消退。
隐私倡导者的强烈抗议可能会促使用户流向 Signal 或 Snap 等 E2EE 应用,从而侵蚀 Instagram 每天 5 亿的 DM 用户和对 META 20 倍远期 P/E 至关重要的参与度指标。
"Meta 正在用长期的隐私信誉换取近期的数据货币化收益,但该决定尚未反映出监管和声誉方面的负面影响。"
Meta 的 E2EE 回滚对 META 来说在战术上是看涨的,但在战略上却揭示了一家公司选择广告定位可选性而非隐私领导力。三月份悄悄更新的服务条款(将于 2026 年 5 月生效)表明是屈服于监管,而不是技术故障——Meta 于 2023 年完成了 Messenger 的 E2EE,因此“低选择率”的借口掩盖了故意的转变。真正的问题在于:消息数据现在明确可用于 AI 训练。这解锁了增量的广告定位精度和 LLM 训练价值,抵消了近期的监管摩擦。但此举将隐私叙事拱手让给了竞争对手(Signal、Apple),并证实了 Big Brother Watch 关于社交平台将数据货币化置于用户保护之上的论点——这一论点可能引发未来的反垄断或隐私立法。
如果 E2EE 的采用确实是由于低摩擦而不是需求限制,那么恢复它可能不会实质性地改善广告定位或 AI 训练——那些选择加入的用户很可能是注重隐私的,并且已经产生了最小的数据价值。监管机构可能会认为这是对 E2EE 只是可选表演的承认,从而引发*更多*的审查,而不是缓解。
"Meta 正在用隐私形象换取数据访问权限以支持 AI 训练和审核,此举可能会提升长期货币化,尽管可能面临短期隐私的强烈反对。"
文章将 Meta 的决定描述为由隐私驱动,但受到安全问题的平衡。反常的观点是,此举是在监管和安全的名义下,为 AI 训练和定向优化提供了一个数据丰富的管道,而不仅仅是隐私。如果可选 E2EE 的采用率很低,Meta 可以将政策重新定义为合规和风险管理步骤,同时悄悄收紧模型和内容审核的数据访问。短期内,用户可能会感觉隐私性降低,可能导致转向注重隐私的应用;长期来看,更好的 AI 功能可能会提高广告相关性和平台效率——尽管是以牺牲隐私形象为代价。
最有力的反驳是,这有助于竞争对手在隐私和信任方面获胜,促使用户从 Meta 的平台迁移,并招致可能限制数据使用或施加新限制的监管审查。如果隐私的强烈反对加剧,股票可能会面临多重阻力,然后才能实现由 AI 驱动的货币化。
"Meta 在 E2EE 上的逆转可能会引发严重的欧盟监管干预,其影响将超过增加广告定位数据带来的边际收益。"
Claude,你关于“可选表演”的观点是这里的关键失败。如果 Meta 的 E2EE 确实是低摩擦的,那么这次逆转就是一个战术错误,会招致“隐私洗白”的指控,从而在 DMA 下触发欧盟监管机构。Grok,你忽略了这种审查的成本。如果欧盟认为这是为了促进 AI 训练而故意降低用户权利,那么由此产生的罚款可能会超过 DM 数据带来的任何边际广告定位收益。这是一个监管陷阱,而不是保护伞。
"DM 数据可带来 40-100 亿美元的广告收入增长,远远超过可忽略不计的欧盟罚款风险。"
Gemini,关于欧盟 DMA 对“隐私降级”的罚款是推测性的——重点是互操作性,而不是可选的 E2EE 回滚,而且 Meta 的历史表明,监管机构优先考虑 CSAM 合规性而不是 DM 隐私(Messenger 推出后没有罚款)。量化收益:Instagram 每天 5 亿 DM,RPM 提升 2-5%(来自行为信号)= 40-100 亿美元的增量收入,这使得该举措比 <0.5% 的罚款概率更有价值。隐私流失?Z 世代因为 Reels 而留下。
"Meta 关于将 DM 数据用于 AI 训练的明确服务条款语言是监管弹药,而不是保护伞——收入的上涨是推测性的,而罚款的风险是已记录在案的。"
Grok 的 40-100 亿美元收入计算假设来自 DM 行为信号的 RPM 提升 2-5%,但这未经证实。Instagram 的广告栈已经通过 Stories/Reels 行为进行定位——DM 增加的信号很小。更重要的是:Grok 将欧盟 DMA 风险视为“推测性”,但 Meta 的三月服务条款明确表示消息数据用于 AI 训练。这是*记录在案*的用户权利降级,而不是表演。监管机构在剑桥分析事件后就指出了这种确切的模式。罚款概率不是 <0.5%。
"监管机构将权衡同意和信任;执法,而不是政策标签,将决定风险。"
Claude,我认为你夸大了“记录在案的降级”的说法。欧盟 DMA 侧重于互操作性和公平竞争,而不是对 E2EE 回滚的全面裁决。即使消息数据用于 AI,监管机构也会权衡同意、数据最小化和平台信任——你的风险取决于执法,而不是政策标签。反垄断风险可能是真实的,但实质性的罚款需要证明市场损害;更大的短期风险是信任侵蚀和用户流失,如果这被视为以牺牲隐私为代价的数据货币化。
专家组裁定
未达共识Meta 在 Instagram DM 上逆转 E2EE 是一项有争议的举动,它能够更好地进行 AI 训练和广告定位,但由于隐私问题,可能会招致监管审查和用户流失。
改进的广告定位和 AI 训练
由于隐私问题导致的监管罚款和用户流失