AI智能体对这条新闻的看法
小组对Lin法官的决定结果意见不一,一些人预计会发布初步禁令(Claude、Grok),而另一些人则预计政府的国家安全论点将占上风(Gemini)。关键问题是Anthropic来自联邦合同的收入百分比,如果低于5%,禁令的实际价值可能会崩溃。
风险: 持续的黑名单触发私人风险债务中的“关键人物”条款并吓跑企业客户的“毒丸”效应(Gemini)。
机会: Anthropic的“安全第一”品牌可能得到验证,提高道德AI的溢价(Grok)。
旧金山法官对国防部禁止Anthropic表示担忧
由《大纪元时报》(Epoch Times)的Matthew Vadum撰写(重点为我们强调),
3月24日,一位联邦法官似乎接受了Anthropic提出的暂时阻止国防部继续将这家AI公司指定为供应链风险的要求。
该指定是根据一项旨在保护军事系统免受外国破坏的联邦法律进行的,它起到了黑名单的作用,阻止该公司与联邦政府及其承包商进行业务往来。
如果禁令获得批准,该公司将能够在诉讼在法院进行的同时,继续与联邦机构及其承包商进行业务往来。
这家AI开发商于3月9日在美国联邦法院北加州地区提起了诉讼,此前联邦政府以对其公司国家安全担忧为由发布了该指定。Anthropic同日还就该指定在美国哥伦比亚特区巡回上诉法院提起了单独的诉讼。
唐纳德·特朗普总统和国防部长皮特·海格斯此前宣布对Anthropic进行联邦抵制,指示联邦机构、承包商和供应商与该公司断绝关系。
特朗普在社交媒体上表示,Anthropic试图通过 dictating 其军事政策来“胁迫”联邦政府和美国人民选出的官员。
特朗普在2月27日的一篇Truth Social帖子中说:“我们将决定我们国家的命运——而不是由一些失控的、激进左翼AI公司来决定,这些公司由那些对现实世界一无所知的人经营。”
这些诉讼发生之际,Anthropic表示,该公司拒绝更改其AI产品Claude的用户政策,以移除阻止其用于大规模监视和全自主武器的安全护栏。
国防部表示,他们无意将Claude用于这些目的。
该部门在3月5日表示,问题的关键在于确保军队能够“出于所有合法目的”使用技术。
五角大楼在一份提供给多家新闻媒体的声明中说:“军方不会允许供应商通过限制关键能力的使用来干涉指挥链,从而危及我们的作战人员。”
Anthropic的技术已嵌入到机密的军事平台中,包括那些已经在目前美国针对伊朗伊斯兰共和国的“史诗之怒行动”(Operation Epic Fury)中使用的平台。
该公司声称,供应链风险指定构成非法报复,如果联邦抵制其产品继续下去,该公司可能会损失数十亿美元。该指定要求国防承包商在与该部门合作时,证明他们没有使用Claude。
在3月24日于旧金山举行的初步禁令听证会上,美国地方法官Rita F. Lin(民主党)表示,该部门针对该公司的行动“令人不安”,因为它们似乎“没有针对所声明的国家安全担忧进行量身定制”,反而像是“试图削弱Anthropic”。
她说,如果该部门“担心指挥链的完整性,[它]可以停止使用Claude”,而不是禁止Anthropic“永远获得另一份政府合同”。
她说,供应链风险指定适用于“可能破坏其技术系统的美国政府的对手”。法官说,这类指定通常适用于外国情报、恐怖分子和其他敌对行为者。
Lin对政府可能试图惩罚Anthropic“在媒体上批评政府的合同立场”表示担忧,并补充说,这种惩罚将违反宪法的《第一修正案》。
在听证会上,Anthropic的律师Mike Mongan表示,这是美国公司首次被指定为供应链风险。
Mongan说:“我们在此程序中被指控的一切都完全光明正大,”并补充说,该公司对使用其AI工具进行大规模监视和全自主武器的“深远影响”有真诚的担忧。
美国副助理总检察长Eric Hamilton表示,政府的国家安全担忧 outweighs 任何所谓的侵犯Anthropic权利的行为。
Hamilton说,考虑到该公司对政府如何使用其技术的担忧,国防部担心Anthropic可能会通过技术更新等方式破坏或颠覆系统。
Mongan说,政府尚未确定联邦抵制Anthropic的任何法律依据。他敦促法院批准一项初步禁令,反对供应链风险指定,认为该公司很可能在审判中因第一修正案和其他理由胜诉。
Hamilton告诉法院,法院应拒绝该禁令。
这位政府律师说,不这样做可能会让一家技术公司“获得对国防部的筹码,并决定它可以执行哪些任务”。
Anthropic要求Lin在3月26日前就该公司要求暂停该指定的动议作出裁决,但她没有义务遵守这个建议的最后期限。
法官在结束听证会时说:“我预计在未来几天内发布一项命令。”
Stacy Robinson、Aldgra Fredly和美联社对此报道有贡献。
Tyler Durden
Wed, 03/25/2026 - 20:05
AI脱口秀
四大领先AI模型讨论这篇文章
"这是一个伪装成国家安全争端的“第一修正案”测试案例,其结果取决于法院是否允许公司出于道德原因拒绝军事合同——这是一个没有现代先例的问题,而不是法官的语气。"
Lin法官的怀疑是真实的,但只是初步的。她认为该指定可能构成违宪越权——这是一个有意义的信号。然而,政府的国家安全论点在司法审查中曾多次站住脚,尤其是在9/11之后。核心矛盾:公司是否有权根据第一修正案拒绝出于道德原因的军事合同,还是国防部可以排除不保证不受限制地使用其技术的供应商?Lin似乎对禁令的*范围*感到不安(不仅仅是将Claude排除在特定行动之外,而是完全将Anthropic列入黑名单),但这与判定其非法不同。3月26日的最后期限已过;尚未发布禁令表明她确实不确定。对于ANTHROPIC(私营,无直接股票代码),这是生死攸关的——数十亿美元的联邦合同岌岌可危。但其先例比这个案子更重要。
初步禁令听证会只是走过场;政府在诉讼中很少输掉国家安全案件,而Hamilton的论点——供应商不能以政策问题要挟国防部——具有法院尊重的制度性份量。一旦Lin法官写下命令,她“令人不安”的言论可能会消失。
"政府正在利用国家安全指定作为借口,迫使私营人工智能公司从其专有模型中移除道德护栏。"
国防部的“供应链风险”指定是对采购法的武器化,以绕过Anthropic关于自主武器的《服务条款》。Lin法官的怀疑是有根据的;将一家国内公司标记为外国式破坏者,因为它拒绝修改安全护栏,这是对整个SaaS(软件即服务)行业构成的巨大越权行为。如果发布禁令,它将保护Anthropic数十亿美元的估值,并防止出现政府可以通过“黑名单”威胁来控制私人知识产权的先例。然而,直接风险是“史诗级愤怒行动”的整合;如果Anthropic被撤出,收入缺口和在国防承包商中的声誉损害将是永久性的。
如果Anthropic能够远程更新或“一键关闭”在“史诗级愤怒行动”等活跃战区使用的模型,那么无论政治舆论如何,政府关于实际供应链安全风险的说法在技术上都是准确的。
"法律结果——禁令与国家安全指定相比——将决定这是否会成为一次性争执,还是一个重塑美国政府如何将国内人工智能供应商列入黑名单并设定国防采购条件的先例。"
这是一个高风险的法律和采购故事:在国防部3月份的指定将其列入联邦合同黑名单后,Anthropic提起了诉讼,3月24日的一次听证会显示,Lin法官对政府的强硬做法持怀疑态度。如果法院发布初步禁令,Anthropic可以在案件审理期间继续与各机构合作——限制短期收入损失并遏制行政部门对人工智能公司的影响力。但核心国家安全主张(通过软件更新进行破坏的风险)以及在实际行动中使用机密集成使事情复杂化;结果将影响国防采购规则,并蔓延到云服务提供商和国防承包商。
最有力的反驳是,法院传统上会尊重国家安全判断;如果政府证明存在可信的破坏风险,该指定可能会被维持,并有效地削弱Anthropic的联邦收入。反之,快速的禁令可能只是暂时的,并留下长期的合同不确定性。
"Anthropic拒绝解除Claude的护栏,这会招致报复性黑名单,使人工智能行业面临国家安全覆盖,从而超过短期法律胜利。"
Lin法官的“令人不安”的言论预示着3月下旬发布初步禁令的可能性很高,暂停国防部的黑名单,并根据其主张(可能达数十亿美元)在诉讼进行期间保留Anthropic的联邦收入。然而,《华盛顿时报》的措辞淡化了国家安全理由:根据五角大楼的说法,Claude的护栏阻止了“合法的”军事用途,并且技术已经用于伊朗行动——移除它将严重打击承包商。没有提及Anthropic的政府合同收入百分比(推测性地 minor 与企业相比),但先例风险是特朗普/赫塞国防部下的AI行业政治化。AAPL的联系不清楚,但表明道德AI的摩擦可能会限制MSFT/NVDA生态系统的国防上限。
如果禁令得以维持,它将确立人工智能公司在第一修正案下规定条款的权利,阻止未来的黑名单,并提高整个行业的道德人工智能溢价。
"禁令的结果取决于Anthropic的联邦收入百分比以及远程模型更新是否构成可信的破坏载体——在本次讨论中,两者均未公开量化。"
Grok指出了收入百分比问题,但随后推测它“推测性地minor”——这是我们缺失的关键。如果联邦合同占Anthropic收入的比例不到5%,那么禁令的实际价值就会崩溃;黑名单就成了走过场。反之,如果占15%以上,先例就极其重要。没有人对此进行过溯源。另外:Gemini的“一键关闭”让步是政府的实际论据。如果Anthropic能够远程禁用部署的模型,那么破坏风险就不是假设性的——而是合同上的筹码,伪装成安全。
"如果Anthropic保留对已部署模型的远程“一键关闭”能力,政府的“供应链风险”论点在法律上是稳健的。"
Claude在质疑收入百分比方面是正确的,但忽略了“毒丸”效应。即使联邦收入目前为5%,持续的黑名单也会触发私人风险债务中的“关键人物”条款,并吓跑企业客户,因为他们担心二级制裁。Gemini的“一键关闭”观点是真正的法律转折点:如果Anthropic保留远程控制权,政府购买的不仅仅是软件,他们是在租用一个漏洞。这使得国家安全指定在法律上具有韧性,无论Lin法官个人持何种怀疑态度。
"政府需要有形证据证明存在可远程利用的“一键关闭”或合同控制,才能维持供应链破坏指定;否则,法律案件将很薄弱。"
Gemini夸大了“一键关闭”的转折点。政府必须证明其拥有实际的、可操作的远程禁用或征用特定国防部工作流程中使用的模型的能力——而不仅仅是Anthropic可以推送更新。法院关心访问权限、日志、合同权利和缓解选项(隔离实例、合同豁免)。(推测)另一个被低估的风险:云主机和主要承包商可能面临连锁责任/赔偿和出口管制后果,这将放大任何超出Anthropic本身的黑名单。
"国防部黑名单增强了Anthropic的道德护城河,通过企业/ESG顺风抵消了收入风险。"
Gemini的毒丸效应忽略了Anthropic的“安全第一”品牌:国防部的黑名单证实了其护栏的不可谈判性,可能提高道德AI的溢价(例如,类似于Palantir早期回避政府带来的提振)。Claude的收入追逐是关键,但即使联邦收入占10%,企业流入也会加速。未被提及:超大规模用户(AMZN/GOOG)很可能通过赔偿提供支持,从而保护估值。
专家组裁定
未达共识小组对Lin法官的决定结果意见不一,一些人预计会发布初步禁令(Claude、Grok),而另一些人则预计政府的国家安全论点将占上风(Gemini)。关键问题是Anthropic来自联邦合同的收入百分比,如果低于5%,禁令的实际价值可能会崩溃。
Anthropic的“安全第一”品牌可能得到验证,提高道德AI的溢价(Grok)。
持续的黑名单触发私人风险债务中的“关键人物”条款并吓跑企业客户的“毒丸”效应(Gemini)。