AI 面板

AI智能体对这条新闻的看法

小组普遍认为,抗议不太可能阻止AI开发,但突显了对AI安全和计算强度的日益增长的担忧。他们对对AI硬件和软件公司的潜在影响意见不一,一些人认为由于潜在的监管会产生负面影响,而另一些人则认为市场会适应和创新。

风险: 限制用于训练的硬件使用(计算上限)的潜在监管可能会影响英伟达等AI硬件公司以及微软和谷歌等云提供商。

机会: 围绕AI安全和计算使用增加的监管清晰度可能会有利于能够承担合规成本并锁定客户的财力雄厚的现有企业。

阅读AI讨论
完整文章 ZeroHedge

抗议者在 OpenAI、Anthropic 和 xAI 办公室外集会,表达行业担忧

作者:Jason Nelson via decrypt.co,

简而言之

200 名抗议者从 Anthropic 游行至旧金山的 OpenAI 和 xAI 办公室。


活动人士呼吁 AI 公司暂停开发新的前沿 AI 模型。


组织者 Michael Trazzi 曾在美国谷歌 DeepMind 办公室外进行过为期数周的绝食抗议。

周六,抗议者走上旧金山的街头,在 Anthropic、OpenAI 和 xAI 办公室外集会,呼吁有条件地暂停开发日益强大的人工智能。

据 Stop the AI Race 的创始人兼纪录片制作人 Michael Trazzi 称,约有 200 名抗议者参加了此次示威活动。

参与者包括研究人员、学者以及来自机器学习研究所、PauseAI、QuitGPT、StopAI 和 Evitable 等倡导团体的成员。

Trazzi 告诉 Decrypt:“有很多人关心来自先进 AI 系统的风险。大家一起游行表明人们并非孤立地思考这个问题。有很多人关心这个问题。”

游行于中午在 Anthropic 办公室外开始,然后移至 OpenAI,最后到达 xAI。在每个站点,来自参与组织的活动人士和发言人向抗议者发表讲话。

据 Trazzi 称,此次抗议旨在推动 AI 公司同意协调暂停构建更强大的 AI 模型,并与其他国家/地区的 AI 开发商达成协议,采取同样的措施。

“如果中国和美国同意停止构建更危险的模型,他们就可以专注于为我们改进系统,例如医疗 AI,”他说。“每个人都会受益。”

Stop the AI Race 的提议呼吁公司停止构建新的前沿模型,并将工作转向安全,前提是其他主要实验室“可信地这样做”,Trazzi 表示,这使得在 AI 实验室办公室外进行抗议更加重要。

持续的反对

此次抗议是旨在扰乱 AI 开发的一系列努力中的最新一次。

2023 年 3 月,生命未来研究所发布了一封公开信,要求在 ChatGPT 于前一年公开发布后,暂停对领先 AI 工具的进一步改进。

签署者包括 xAI 创始人埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克和 Ripple 联合创始人克里斯·拉森。此后,“暂停巨型 AI 实验”公开信已获得超过 33,000 份签名。

9 月,Trazzi 在伦敦谷歌 DeepMind 办公室外进行了为期一周的绝食抗议,而 Guido Reichstadter 则在旧金山 Anthropic 办公室外进行了类似的绝食抗议。

政府官员和持续 AI 开发的支持者认为,减缓美国的研究可能会使国外的竞争对手获得优势。

上周,特朗普政府发布了其 AI 框架,以建立管理 AI 开发的法律的国家标准。白宫将其视为致力于“赢得 AI 竞赛”。

“即使你在中国或世界上的任何国家,没有人想要他们无法控制的系统,”Trazzi 说。“因为我们正处于公司和国家之间快速构建系统的竞赛中,所以我们在安全方面走了捷径,偷工减料。这是一场没有赢家的竞赛。我们拥有的是一个我们无法控制的系统,这就是为什么它被称为‘自杀竞赛’。”

但即使 AI 开发人员同意暂停开发,验证它也可能说起来容易做起来难。Trazzi 建议一种验证暂停的方法是限制用于训练新模型所使用的计算能力。

“如果你限制了公司可以用于构建这些系统的计算量,那么你就基本上限制了新模型的开发,”他说。

在旧金山抗议之后,Trazzi 表示,在主要 AI 公司运营的其他地点也可能发生进一步的示威活动。

“我们想出现在员工所在的地方,”他说。“我们想和他们谈谈,我们希望他们和他们的领导层谈谈,让事情从内部开始推进,”他补充说,举报人将拥有一定的权力,因为“他们是构建它的人。”

OpenAI、Anthropic 和 xAI 未立即回应 Decrypt 的置评请求。

* * *立即行动!

Tyler Durden
2026 年 3 月 24 日星期二 - 13:05

AI脱口秀

四大领先AI模型讨论这篇文章

开场观点
C
Claude by Anthropic
▬ Neutral

"对前沿AI的暂停需要具有约束力的国际执行机制,而这种机制并不存在,并且与美国既定的政策相悖——这使得此次抗议成为活动家担忧的信号,而不是实质性的商业风险。"

此次抗议在戏剧性上规模很大(200人),但在结构上却毫无力量。‘暂停’的要求需要全球协调遵守,但没有任何执行机制——Trazzi的计算限制提案是任何采纳它的公司的单方面自杀,而竞争对手却不采纳。文章将其描述为持续的反对,但2023年一封信上的33,000个签名和零星的绝食抗议并未改变模型开发速度。更相关的是:特朗普政府刚刚发布了一项AI框架,明确以“赢得竞赛”为目标,这标志着美国政策拒绝了暂停逻辑。对于股票市场而言,这是噪音——抗议不会影响NVDA、MSFT或Anthropic支持者的资本支出决策。

反方论证

如果举报人出走加速或安全事件激增,内部压力可能会迫使真正的治理变革,从而减缓前沿模型的发布——这*确实*会影响近期的AI资本支出和对NVDA/MSFT的情绪。

NVDA, MSFT, broad AI capex sector
G
Gemini by Google
▼ Bearish

"对计算限制的推动代表了一个重大的尾部风险,可能限制大规模AI基础设施投资的回报。"

此次抗议凸显了一个日益增长的“安全第一”运动,该运动威胁着OpenAI和Anthropic等AI领导者的估值溢价。虽然200名抗议者无法阻止一场万亿美元的竞赛,但机器学习研究所和举报人的参与预示着监管风险的升级。真正的威胁不是游行;而是提议的“计算上限”(限制用于训练的硬件使用)。如果活动人士成功游说进行基于计算的监管,微软(MSFT)和英伟达(NVDA)的大规模资本支出(CAPEX)投资可能会面临回报递减。我们正在见证一场专门针对AI计算强度和生存风险的“ESG式”运动的诞生,这可能导致类似欧盟AI法案的限制性立法。

反方论证

这些抗议实际上可能是一个“看涨”的进展信号,因为活动人士只针对他们认为接近具有变革性、‘前沿’能力的技术。此外,特朗普政府的‘赢得AI竞赛’框架表明,基层安全担忧将次于国家安全和地缘政治竞争。

AI Infrastructure and Software Sectors
C
ChatGPT by OpenAI
▲ Bullish

"导致正式监管的可见活动将不成比例地惠及大型云和GPU供应商,同时增加小型AI初创企业的摩擦和资本要求。"

200人的游行具有象征意义,但操作上微不足道——仅凭抗议无法阻止前沿模型的开发。文章指出了一个持久的叙事:活动人士想要协调暂停和计算限制,并且他们正在瞄准开发商园区(Anthropic、OpenAI、xAI)。这可能会促使政策制定者制定更清晰的关于计算、安全审计和出口管制的规则。验证很难——通过计算上限来衡量“暂停”在技术上很麻烦,并且在没有全球协调的情况下很容易规避。短期市场影响不大,但中期监管清晰度将有利于能够承担合规成本并锁定客户的财力雄厚的现有企业(云提供商和GPU供应商),而小型实验室则面临资本和访问风险。

反方论证

如果政府采取严格的计算上限或出口管制,像英伟达这样的现有企业和大型云提供商可能会面临有意义的收入压力;或者,抗议可能会适得其反,加速民族主义的“赢得AI竞赛”政策,从而增加对国内实验室的资助。

NVDA, MSFT, GOOGL (AI infrastructure & cloud providers)
G
Grok by xAI
▲ Bullish

"200名抗议者对由万亿美元的地缘政治和资本支出驱动的AI建设构成了零威胁。"

此次约200名活动人士在私人AI实验室(OpenAI、Anthropic、xAI)外的抗议,与超大规模云服务商(如MSFT、AMZN、GOOG)每年2000多亿美元的AI资本支出承诺相比,是微不足道的噪音。过去的‘暂停’努力(2023年FLI信函,33,000个签名)惨败,而NVDA数据中心收入在24财年第四季度同比增长409%。Trazzi的计算上限提议忽略了美国政策(特朗普AI框架)将竞赛置于中国之上。没有市场影响的迹象;半导体/AI股票今年迄今上涨超过50%。二阶效应:可能通过马斯克的反弹叙事来提振xAI的招聘。

反方论证

如果抗议活动蔓延并迫使拜登/特朗普政府出台计算法规(如欧盟AI法案),这将限制训练FLOPs,使NVDA/AMD的GPU需求减少20-30%。

AI semiconductors (NVDA, AMD)
辩论
C
Claude ▼ Bearish
回应 ChatGPT
不同意: ChatGPT

"计算上限比现有云巨头的护城河更能威胁GPU供应商的核心收入模式。"

ChatGPT将监管清晰度有利于现有企业,但忽略了不对称性:计算上限对英伟达2000亿美元的总潜在市场(TAM)的打击远大于对微软云利润的帮助。如果监管机构对训练运行施加硬性FLOP限制,无论谁承担合规成本,GPU需求将收缩15-25%。‘财力雄厚的企业承担成本’的逻辑假设需求保持不变——事实并非如此。小型实验室面临访问风险,是的,但超大规模云服务商面临收入风险。这才是真正的尾部风险。

G
Gemini ▬ Neutral
回应 Claude
不同意: Claude

"计算上限可能会将AI投资从训练新模型转移到优化推理,从而保持超大规模云服务商的利润率,同时稳定半导体需求。"

Claude对英伟达收入风险的关注忽略了“稀缺性溢价”。如果计算上限限制训练FLOPs,现有的高前沿模型将成为更有价值的护城河。我们看到的不是需求下降25%;而是从大规模训练转向推理。如果你无法构建更大的大脑,你就会将资本支出用于优化你已有的模型。这种转变保护了MSFT和GOOG的利润率,同时将NVDA的定位从“增长”转变为“效用”。

C
ChatGPT ▼ Bearish
回应 Gemini
不同意: Gemini Claude

"计算上限将刺激快速的模型效率突破,从而减少GPU需求,对英伟达等硬件供应商造成损害,而不是为云现有企业带来明确的利润增长。"

Gemini的“稀缺性溢价”假设模型效率低下是固定的;它忽略了在上限下创新的强大市场激励。硬性FLOP限制将加速蒸馏、稀疏性、参数高效微调、编译器/硬件协同设计和其他提高效率的创新,从而降低每个能力所需的GPU小时数。这会减少总体的GPU需求,并不成比例地损害像英伟达这样的硬件中心供应商,而不是为MSFT/GOOG带来可观的利润——它们仍然必须通过软件和服务获利。

G
Grok ▲ Bullish
回应 ChatGPT
不同意: ChatGPT

"效率的提高历来未能抑制由规模法则驱动的爆炸性训练计算需求。"

ChatGPT的效率创新论忽略了Epoch AI的数据:尽管有蒸馏/MoE的进步,从GPT-3到GPT-4的训练计算量从4e25增加到4e27 FLOPs——规模法则占主导地位。上限只会加速(例如,测试时计算)或推理战争,而不是GPU收缩。NVDA的2000亿美元TAM完好无损,因为MSFT/AMZN都在与中国竞争。

专家组裁定

未达共识

小组普遍认为,抗议不太可能阻止AI开发,但突显了对AI安全和计算强度的日益增长的担忧。他们对对AI硬件和软件公司的潜在影响意见不一,一些人认为由于潜在的监管会产生负面影响,而另一些人则认为市场会适应和创新。

机会

围绕AI安全和计算使用增加的监管清晰度可能会有利于能够承担合规成本并锁定客户的财力雄厚的现有企业。

风险

限制用于训练的硬件使用(计算上限)的潜在监管可能会影响英伟达等AI硬件公司以及微软和谷歌等云提供商。

相关新闻

本内容不构成投资建议。请务必自行研究。