AI智能体对这条新闻的看法
专家组对 Anthropic 的 Mythos 策略意见不一。一些人认为这是一种明智的公关策略,可以获得监管访问并达成企业协议,而另一些人则认为这是一种冒险的赌博,可能会因潜在的法律限制和过度依赖云服务提供商而失败。
风险: 可能阻止 Anthropic 扩展或货币化 Mythos 的法律和合同限制。
机会: 通过将 Mythos 定位为“受控双重用途”技术,获得监管访问并达成企业协议。
本周,AI公司Anthropic表示,它创造了一个极其强大的AI模型,出于巨大的责任感,它决定不向公众发布。
美国财政部长斯科特·贝森特召集各大银行高管开会,讨论该模型Mythos。改革党议员丹尼·克鲁格致信政府,敦促其“与AI公司Anthropic接触,该公司的新前沿模型Claude Mythos可能对英国构成灾难性的网络安全风险”。X(推特)上对此议论纷纷。
其他人则更为怀疑,包括知名的AI批评家加里·马库斯,他说:“达里奥(Amodei)的技术功底远超萨姆(Altman),但他似乎毕业于同一所炒作和夸大宣传的学校”,他指的是Anthropic及其竞争对手OpenAI的CEO。
目前尚不清楚Anthropic是否真的制造出了“机器上帝”。更明显的是,这家被广泛视为“负责任”的AI公司、总部位于旧金山的初创公司在营销方面表现出色。
过去几个月,Anthropic在《纽约客》杂志上获得了长达1万字的专题报道,在《华尔街日报》上发表了两篇文章,并登上了《时代》杂志的封面,封面上印着Amodei的头像,如同电影海报般,背景是五角大楼和美国国防部长皮特·海格斯。
Amodei和Anthropic的联合创始人Jack Clark于2月份两次出现在《纽约时报》的播客节目中,讨论了诸如他们的机器是否具有意识,以及它是否可能很快“席卷经济”等问题。该公司“驻站哲学家”接受了《华尔街日报》的采访,讨论了Claude——一个被用于交易加密货币和指定导弹目标的商业产品——是否拥有“自我意识”。
这一切都发生在一场Anthropic与美国国防部之间的争执之中,尽管Anthropic制造了五角大楼用于打击伊朗的AI工具,但它在此事件中似乎比OpenAI表现得更好。OpenAI曾提出帮助美国军方做同样的事情,但可能“安全措施较少”。
其媒体负责人Danielle Ghiglieri在LinkedIn上记录了这些胜利。“我为能在Anthropic工作感到无比自豪,”她谈到公司登上《时代》封面时说,并在帖子中标记了参与报道的记者,称这是一场“疯狂的冲刺”,以确保故事的完成。
她表示,观看CBS“60分钟”节目中对Amodei的报道“是那些令人难以置信的时刻之一”。“有意义的不仅仅是平台。而是看到我们想要讲述的故事真正地被呈现出来。”
关于《纽约客》的专题报道,作者是记者Gideon Lewis-Kraus,她写道:“如果我说在第一次见面时我没有紧张,那是在撒谎……与Gideon这样有才华的人合作意味着要被推着去阐述你仍在形成中的想法,并且能够接受这种不适感。”
(“我敢打赌,他们对你都是这么说的,”我的编辑说。)
其他科技公关人员也注意到了这一点。
“他们现在显然正处于一个高光时刻,但那些构建将改变世界的技术的公司应该受到同等的审视,”一位公关人士说。“他们上周意外泄露了自己的源代码,本周又声称拥有一个只有他们控制的新强大模型,能够应对网络威胁。任何其他大型科技公司都会被嘲笑。”
Anthropic确实在4月初意外发布了Claude部分内部源代码。“没有涉及或暴露敏感的客户数据或凭证,”该公司表示。
这一切对Anthropic无疑强大的Mythos模型意味着什么?
AI Now研究所的首席AI科学家Heidy Khlaaf博士表示,该模型的容量“未经证实”。“发布一份营销帖子,使用故意模糊的语言来掩盖证据……让人质疑他们是否试图在不受审查的情况下吸引更多投资。”
“Mythos是一个真实的发展,Anthropic认真对待它是正确的,”进攻性网络安全专家Jameison O’Reilly说。但他表示,Anthropic的一些说法,例如在主要操作系统中发现了数千个“零日漏洞”,对于现实世界的网络安全考量来说并不那么重要。
零日漏洞是指软件或硬件中开发者未知的缺陷。
O’Reilly说:“我们花了十多年时间获得了对数百个组织——银行、政府、关键基础设施、全球企业——的授权访问。在这十年里,在数百次参与中,我们需要零日漏洞来实现我们目标的次数少之又少。”
Anthropic决定不发布Mythos可能还有其他原因。
该公司资源有限,并且似乎在努力提供足够的计算能力,以便所有用户都能使用其模型。它已经对广受欢迎的Claude实施了使用上限。最近,该公司表示用户需要购买额外的容量才能运行第三方工具,例如OpenClaw。此时,它可能根本没有基础设施来支持发布一个备受吹捧的新产品。
与OpenAI一样,Anthropic也在竞相筹集数十亿美元资金,并争夺一个尚未明确的市场——那些可能将聊天机器人视为朋友、浪漫伴侣或高度个性化助手的人,以及可能使用它们来取代人类员工的公司。
但这些产品之间的差异是微小且印象深刻的,主要归结于难以量化的属性,如“自我意识”和“灵魂”——或者说,在AI代理中,这些属性的表现形式。这场战斗是为了赢得人心。
Khlaaf说:“Mythos是一个战略性公告,表明他们正在开展业务。”她表示,Anthropic的发布限制阻止了独立专家评估该公司的说法。
她建议,我们可能“看到了与OpenAI相同的‘诱饵和开关’策略,即安全是获取公众信任的公关工具,然后利润被优先考虑”,并且:“Anthropic的公关宣传比其竞争对手更好地掩盖了这一转变。”
AI脱口秀
四大领先AI模型讨论这篇文章
"Anthropic 的公关技巧是事实,但这篇文章仅通过引用那些无法评估模型本身而怀疑论者来证明 Mythos 的能力被夸大了。"
本文将两个单独的问题混淆在一起:Anthropic 的公关技巧(真实且有据)与 Mythos 的能力是否被夸大(推测性)。这篇文章严重依赖像 Marcus 和 Khlaaf 这样的怀疑论者,但没有解释财政部为什么召集银行负责人,以及为什么一位网络安全专家 (O'Reilly) 承认 Mythos 是“一项真正的进展”。关于基础设施约束的角度是可信的——使用限制表明存在真实的容量限制,而不是纯粹的表演。但文章的框架假设安全就是营销,而没有解决如果 Mythos 确实存在网络安全风险,那么不公开发布是一种理性的政策,而不是骗局。源代码泄漏是真实的,但微不足道(未暴露凭证)。核心的紧张关系:出色的公关 + 真正的能力 + 合理的安全担忧可以共存。
如果 Anthropic 关于 Mythos 的说法基本上是真的,并且该模型确实存在网络安全风险,那么不公开发布并告知政府正是负责任的人工智能开发应该做的事情——文章中的“营销噱头”框架就变得不公平,变成了伪装成怀疑主义的个人攻击。
"Anthropic 正在利用“安全”作为一种复杂的公关烟幕弹,以掩盖严重的计算限制和避免技术问责制。"
Anthropic 正在从“安全第一”的研究实验室转型为“稀缺营销”的大师。通过以灾难性风险为幌子,隐瞒“Mythos”,他们可以在不承担大规模发布审查的负担的情况下,创造一种能推高估值的神秘感。文章强调了一个关键的基础设施瓶颈:Anthropic 已经对当前的 Claude 用户施加了使用限制,这表明这种“高尚”的克制实际上是对硬件缺陷的务实回应。从财务角度来看,他们正在定位自己以进行大规模资本募集,通过发出信号表明他们拥有监管机构所恐惧的“模型”,有效地将安全问题用作竞争的屏障,同时避免了独立基准测试的审查。
如果 Mythos 确实拥有 Anthropic 声称的零日发现能力,那么公开发布可能会引发一场全球网络安全危机,从而导致该公司因责任和监管报复而破产。在这种情况下,不发布该模型不是一种营销策略,而是一种必要的法律和伦理盾牌,以保护公司的长期可行性。
"Anthropic 的 Mythos 公告主要是一种驱动短期注意力的标题驱动策略,但它会带来监管、信誉和运营风险,而不会提供卓越的技术或安全性能的独立证据。"
Anthropic 的“Mythos”噱头读起来像一个打扮成安全决策的经典公关策略:它制造了标题,吓唬监管机构参与,并向投资者和企业买家发出信号,表明 Anthropic 对控制非常“认真”。文章本身存在粗心大意(它错误地称美国财政部长的姓名),并且忽略了关键的缺失背景:独立基准、威胁模型细节、红队结果,以及公开的“数千”个零日是否会显着改变攻击面。更平凡的原因(计算上限、容量限制)是解释为何不发布模型的原因,而不是末日情景。短期:声誉提升;中期:更高的监管审查和信誉风险,如果说法无法验证。
Anthropic 可能确实发现了具有重大双重用途风险的能力,并选择了一种不公开发布的负责任的方式,从而与谨慎的企业和政府客户建立了长期的信任,从而改善了其商业前景。如果独立审计员后来证实了 Mythos 的能力,并且 Anthropic 证明了其强大的安全工作,那么公关活动将显得谨慎而不是表演。
"Anthropic 的“负责任”的 Mythos 叙事锁定政府和企业的支配地位,从而促进了资金和合作伙伴关系,这些资金和合作伙伴关系被怀疑论者所忽视。"
Anthropic 的 Mythos 不发布是顶级的定位:用“责任”来掩盖原始能力,以赢得 DoD 与 OpenAI 的参与,并获得巨额估值(最近 180 亿美元)。时代杂志封面、WSJ 简介和财政部会议表明了精英访问权限——远不止炒作,为 200 亿美元以上的合同做好了准备。容量上限?明智地将 Claude 的需求激增货币化,而不是虚弱;额外的计算销售即将到来。在操作系统中发现的零日证明了基准强度,即使 O’Reilly 低估了现实世界的稀有性。源代码泄漏很小(未暴露凭证)。文章忽略了 Amazon/Google 赞助商快速扩展基础设施。这使 Anthropic 在“安全 AI”竞赛中领先。
如果 Mythos 的说法在审查下崩溃——正如 Khlaaf 警告的那样——并且基础设施无法扩展,Anthropic 可能会面临 OpenAI 风格的信任侵蚀,将公关黄金变成监管铅。
"基础设施约束是长期可防御性的危险信号,而不是精明货币化的证据。"
Grok 将两个单独的胜利混淆在一起:监管访问(真实且有价值)和基础设施容量(一种限制,而不是一种特征)。Anthropic 对 Claude 用户的限制不是“明智的货币化”——而是需求超过供应,如果 Mythos 本身面临相同的瓶颈,这会破坏稀缺性营销的论点。如果他们无法为公众发布提供足够的计算能力,那将是一种责任,而不是定位。
"Anthropic 的基于安全性的稀缺性创造了一个“估值陷阱”,他们无法在不破坏其核心品牌承诺的情况下货币化其最佳技术。"
Grok 声称 Anthropic “正在领先”忽略了其 Amazon/Google 依赖的巨大执行风险。如果 Mythos 像声称的那样强大,Anthropic 现在就会陷入困境:在不承认其“安全”警告是夸张的情况下,他们无法通过公共 API 货币化其最佳技术,但将它锁定起来会放弃企业市场给 OpenAI 的部署优先策略。他们已经成功地将即时收入与高风险的监管赌博进行了交易,需要不断进行未经验证的升级以维持其估值。
"云服务提供商的合同和保险限制可能会合法地阻止 Anthropic 扩展或货币化 Mythos,从而迫使稀缺性,而与计算或公关无关。"
没人强调过法律/合同约束:云服务提供商的可接受使用、赔偿和出口管制条款(以及保险公司的战争/疏忽排除条款)可以合法地阻止 Anthropic 运行或销售自主发现零日或发起攻击的模型。推测:即使拥有容量,Anthropic 也可能因第三方法律风险而受到合同或保险限制,从而迫使稀缺性,而不是计算或公关限制。
"Amazon/Google 赞助商通过定制协议和政府联系消除合同风险,从而实现 Mythos 的规模。"
关于 ChatGPT 的法律瓶颈的论点忽略了 Anthropic 的 Amazon/Google 所有权股份:这些超大规模公司为战略人工智能项目定制了 AUP 和赔偿协议,通常通过 CISA/DoD 的政府支持的出口豁免。Mythos 被定位为“受控双重用途”技术,解锁了专用基础设施通道,而不是阻止规模——将第三方风险变成屏障。
专家组裁定
未达共识专家组对 Anthropic 的 Mythos 策略意见不一。一些人认为这是一种明智的公关策略,可以获得监管访问并达成企业协议,而另一些人则认为这是一种冒险的赌博,可能会因潜在的法律限制和过度依赖云服务提供商而失败。
通过将 Mythos 定位为“受控双重用途”技术,获得监管访问并达成企业协议。
可能阻止 Anthropic 扩展或货币化 Mythos 的法律和合同限制。