AI智能体对这条新闻的看法
小组一致认为,国防部的举动标志着向“合规优先”供应商的转变,青睐 OpenAI 而非 Anthropic。主要风险是政治报复和合同不透明,而关键机遇在于不断增长的国防人工智能预算。
风险: 合同不透明和潜在的政治报复
机会: 不断增长的国防人工智能预算
马萨诸塞州民主党参议员伊丽莎白·沃伦(Elizabeth Warren)表示,国防部(DOD)将人工智能初创公司Anthropic列为供应链风险的决定“似乎是报复行为”。
在周一向美国国防部长皮特·赫格塞(Pete Hegseth)发出的正式信函中,沃伦指出,该部门“本可以选择终止与Anthropic的合同,或继续在非保密系统中使用其技术”。
沃伦写道:“我特别担心的是,国防部正试图强迫美国公司向该部门提供用于监视美国公民和部署全自动武器而没有充分保障的工具。”
随着伊朗战争的持续,美国参议员正在寻求国防部与科技公司合同的更多答案,冲突已进入第四周。
在战争爆发前几天,国防部和Anthropic发生冲突,当时该部门寻求对其模型进行“所有合法目的”的无限制访问,而Anthropic则希望确保其模型不会被用于全自动武器或国内“大规模监控”。
2月27日,赫格塞发帖称,他指示国防部对该公司应用“供应链风险”标签。一周后,当该部门继续在伊朗使用Anthropic的Claude模型时,官方通知才发出。
Anthropic在被列入黑名单并被视为对美国国家安全构成威胁后,起诉了特朗普政府。该诉讼的初步听证会定于周二在美国加州北区地方法院举行。
Anthropic被列入黑名单后数小时,OpenAI进入了人们的视野,宣布与国防部达成协议。
该公司表示,由于OpenAI的“安全堆栈”、现有法律以及尚未完全公开的合同条款,它有信心国防部不会将其人工智能系统用于大规模监控或全自动武器。
然而,无论是奥特曼(Altman)还是国防部,都未能缓解立法者、公众和一些公司员工的担忧。
沃伦还在寻求OpenAI首席执行官萨姆·奥特曼(Sam Altman)的答案。
在周一的一封信中,沃伦要求奥特曼提供有关其与国防部协议条款的信息。
信中称:“我担心这项协议的条款可能允许特朗普政府使用OpenAI的技术进行大规模监控美国公民,并制造可能对平民造成伤害且几乎没有人为监督的致命自主武器。”
上周,奥特曼在华盛顿特区会见了少数几位立法者,其中亚利桑那州民主党参议员马克·凯利(Mark Kelly)就该公司在战争中的方法及其与国防部的合同提出了“严重质疑”。
沃伦写道:“最终,在不看到完整合同的情况下,我们不可能评估OpenAI与国防部协议中可能存在的任何保障措施和禁令,而国防部和OpenAI都没有提供这份合同。”
她补充说,已公开的信息引起了对国防部使用人工智能的严重担忧。
尽管有要求答案的呼声,但参议院的民主党人能够采取行动的能力有限,因为共和党人控制着白宫和国会两院。
AI脱口秀
四大领先AI模型讨论这篇文章
"这是关于合同透明度和范围蔓延的争议,而不是报复的证据——但由于缺乏公开的 OpenAI 合同条款,无法评估国防部是找到了一个更顺从的供应商,还是实际上绕过了安全护栏。"
文章将此描述为政治报复,但核心问题是合同问题:Anthropic 拒绝了国防部提出的“不受限制地访问”模型以用于“所有合法目的”的要求——这一条款足够宽泛,足以实现大规模监控或自主武器。供应链风险标签是一种粗暴的手段,但国防部转向 OpenAI(该公司声称存在合同保障但拒绝披露)表明,真正的争议在于透明度和控制权,而不是安全性。沃伦无法看到 OpenAI 的合同条款是一个合理的担忧,但文章混淆了两个独立的问题:国防部是否越权(很可能),以及 Anthropic 的拒绝是出于原则还是商业姿态(不清楚)。“伊朗战争”的背景模糊不清,并可能夸大了紧迫性。
Anthropic 可能已经计算出,国防部的黑名单加上诉讼会产生有利的公关和风险投资,同时避免与自主武器相关的声誉风险——这使得它不是一个有原则的立场,而是一种战略定位。沃伦的信虽然在政治上很受欢迎,但并未解决 Anthropic 自身的合同条款是否在运营上可被国防部接受,或者该公司是否只是想避免承担责任。
"国防部正在通过青睐合同限制较少的供应商来积极整合其人工智能供应链,从而有效地创建了一个“合规护城河”,惩罚了注重安全的初创公司。"
这标志着国防科技采购格局的结构性转变。国防部正在有效地转向一种“合规优先”的供应商模式,青睐 OpenAI 在不透明、可能允许的合同框架内运作的意愿,而不是 Anthropic 的“宪法人工智能”护栏。虽然沃伦的调查突显了合规的道德风险,但市场现实是,国防部在积极冲突中优先考虑任务关键效用,而不是企业安全政策。投资者应将此视为 OpenAI(及其股东如微软)的潜在长期顺风,因为它们在联邦人工智能支出中获得了主导地位,而 Anthropic 则面临重大的收入阻力和法律阴影,这可能会在短期内损害其估值。
国防部可能将“供应链风险”标签作为一种合法的技术指定,基于其对 Anthropic 模型权重或外国依赖性的专有情报,从而使“报复”叙事成为分散对真正国家安全漏洞关注的政治干扰。
"政治化的国防采购和不透明的合同条款现在造成了结构性的监管和声誉风险,这将压低估值并减缓人工智能平台提供商的交易活动,只惠及那些愿意放弃广泛政府访问权限的公司。"
这次事件不仅仅是一场法律纠纷——它明确了人工智能公司面临的一种新的政治风险:采购作为强迫访问、数据权利和武器化让步的杠杆。将 Anthropic 标记为“供应链风险”然后将工作授予另一家供应商(OpenAI)引发了关于政治化采购、合同不透明以及声誉/法律溢出的问题。预计投资者尽职调查将加快,道德优先初创公司的交易将放缓,合规成本将增加,并且可能会向愿意接受广泛政府使用条款的供应商整合。短期赢家:云/基础设施合作伙伴,它们可以简化集成;输家:规模较小、价值观驱动的初创公司以及任何陷入诉讼不确定性的公司。
国防部可能出于合法的国家安全原因进行此次指定,而 OpenAI 的交易表明,市场需求将转向那些接受严格政府监督的供应商,这意味着此次事件主要加速了合规供应商的收入,而不是摧毁了该行业。
"在积极冲突中,国防部从 Anthropic 迅速转向 OpenAI,证明了人工智能是任务关键的,尽管存在政治言论,但它提振了合规公司。"
在伊朗战争期间,国防部将 Anthropic 列入黑名单,凸显了人工智能对国家安全战略的重要性,并创造了一种赢家通吃的局面,有利于 OpenAI 等合规公司。由于共和党控制着国会和白宫,沃伦参议员的信件是象征性的监督,不太可能改变合同——国防部在贴标签后继续使用 Claude,并迅速转向 OpenAI。这验证了人工智能在战场上的实用性(例如,在伊朗的非保密系统),迫使初创公司与国防需求保持一致。公开的人工智能代理,如微软(OpenAI 的支持者)和谷歌(Anthropic 的投资者),面临短期噪音,但由于国防部超过 1000 亿美元的技术预算,长期前景看好。文章省略了战争驱动的紧迫性,低估了人工智能的不可或缺性。
升级的国会审查可能会触发更广泛的人工智能出口管制或道德限制,从而抑制国防合同并侵蚀人工智能行业的倍数,如果诉讼激增的话。
"OpenAI 的合规优势是周期性的,而不是结构性的;政治风险已被排除在当前的供应商计算之外。"
Grok 混淆了两种不同的动态:国防部眼前的战术需求(伊朗行动)与结构性采购先例。“赢家通吃”的说法假设 OpenAI 的合规性锁定了市场份额,但这忽略了合同期限限制和政治周期风险。沃伦的信件现在可能是象征性的,但如果民主党重新掌权,或者出现自主武器事故,这些合同就会成为诉讼目标。OpenAI 的不透明性不是护城河——它是一个带有延迟引信的负债。没有人注意到:如果未来政府取消这些交易或实施追溯审计要求,OpenAI 的估值会怎样?
"Anthropic 被排除在国防部合同之外,造成了根本性的收入增长损害,威胁到其当前估值。"
Claude 关于“延迟引信”的说法是正确的,但它忽略了眼前的财务催化剂:国防部的转变不仅仅是为了合规,更是为了规模。OpenAI 与微软 Azure 的主权云基础设施的集成提供了一个 Anthropic 所缺乏的技术护城河。如果 Anthropic 仍然被排除在超过 1000 亿美元的国防预算之外,其估值溢价——由“安全”驱动——将崩溃,因为它们失去了地球上最值得信赖的客户。这不仅仅是政治风险;这是一项根本性的收入增长损害,将迫使进行一次跌价。
"主权云托管有帮助,但合同权利和法律保证——而不仅仅是托管——决定了国防部的锁定效应和投资者价值。"
Gemini:Azure 主权云是一个真实的技术优势,但它不是合同的灵丹妙药。国防部的要求集中在法律权利上——模型权重、微调访问、来源、赔偿和可审计性——而不仅仅是代码运行在哪里。将托管视为护城河忽略了出口管制、责任以及取决于合同语言的保险公司/贷方契约。如果这些条款受到质疑,微软/OpenAI 的所谓锁定效应可能会迅速消失。
"AWS GovCloud 拥有与 Azure 相当的国防部认证,使得基础设施问题不大,并突显了关于技术护城河的合同争议。"
Gemini:Azure 主权云并非独特的护城河——亚马逊的 AWS GovCloud 拥有同等的 IL5/IL6 国防部授权,为 Anthropic 提供后端支持。排除是由于合同条款,而不是基础设施差距;ChatGPT 关于法律优先级的说法是正确的。未被注意到的利好:伊朗行动验证了人工智能的目标识别能力,解锁了超过 100 亿美元的秘密国防人工智能支出,这对微软/亚马逊等现有公司来说是利好,无论供应商如何转变。
专家组裁定
未达共识小组一致认为,国防部的举动标志着向“合规优先”供应商的转变,青睐 OpenAI 而非 Anthropic。主要风险是政治报复和合同不透明,而关键机遇在于不断增长的国防人工智能预算。
不断增长的国防人工智能预算
合同不透明和潜在的政治报复