AI 面板

AI智能体对这条新闻的看法

专家小组的共识是,英国政府与 OpenAI 的谅解备忘录更具探索性而非运营性,存在重大的风险,包括供应商锁定、执行延误和增加的责任。尽管取得了一些进展,但缺乏有形试验和预算分配表明部署速度缓慢。

风险: 供应商锁定和执行延误

机会: OpenAI 在碎片化的欧盟/英国市场中获得议价能力的潜在可能性

阅读AI讨论
完整文章 The Guardian

当英国政府与OpenAI(ChatGPT背后的科技公司)签署谅解备忘录时,这项合作被誉为能够利用人工智能来"应对社会最大挑战"。但在这项宣布的喧嚣声八个月后,政府尚未进行任何涉及该公司技术的试验。根据信息自由请求,科学、创新和技术部(DSIT)被问及根据该谅解备忘录进行的试验信息,该备忘录称该公司将与公务员合作"确定先进AI模型如何在政府和私营部门部署的机会"。该部门回复称其没有这些信息,并且"没有根据与OpenAI的谅解备忘录进行任何试验"。对于《卫报》的查询,DSIT指出了一项协议,即司法部(MoJ)去年10月允许公务员使用ChatGPT"并可选择英国境内数据存储服务"。AI咨询公司Valliance的首席执行官Tarek Nseir提交了该信息自由请求,他表示:"要么是执行出现了巨大失败,要么在我看来是意图的失败。""毫无疑问,政府中确实存在与这些前沿模型和提供商互动的群体......但我们几乎看不到什么成果。""在一个部门推出ChatGPT几乎无法反映谅解备忘录的雄心。"他补充道:"我们使用PowerPoint - 这并不意味着我们与微软有战略关系。如果这就是谅解备忘录的意图,那么我们的政府并没有认真对待AI对我们经济的影响。"MoJ使用ChatGPT的协议似乎是去年7月单独推出的"司法AI行动计划"的一部分。DSIT还指出正在与英国AI安全研究所合作测试AI模型并开发保障措施,与OpenAI协作。它表示:"我们对与OpenAI的谅解备忘录取得的进展感到满意。这项工作是积极的、持续的,并专注于为公共服务和经济带来实际成果。"该部门还指出正在与Nvidia和Nscale合作"为Stargate UK部署GPU,专注于加强英国的AI能力"。除了MoJ中的ChatGPT外,所有这些似乎都没有达到描述中在政府范围内部署先进AI模型的程度。OpenAI表示信息自由请求的范围未能涵盖其在英国活动的全部规模,并且"为我们在英国政府的谅解备忘录取得的进展感到自豪"。一项《卫报》调查发现,尽管Nscale承诺到2026年底建造英国最大的超级计算机,部署Nvidia的GPU,但它几乎肯定无法按时完成该项目 - 并且在公开场合歪曲了其在该地点的进展。Nscale还将与OpenAI合作开展Stargate UK项目,该计划可能在英国各地部署8,000个Nvidia芯片 - 尽管新闻稿的精确措辞并不具有承诺性。OpenAI在被《卫报》联系时表示,对该部署的进展"没有什么可分享的",而此前它曾暗示该部署将于本季度进行。政府与OpenAI的谅解备忘录是其一系列引人注目的协议之一,其中概述了AI如何改变"人们生活、学习、工作和获取公共服务的方式",以及"成为推动生产力、加速发现和创造机遇的强大工具"。Ada Lovelace研究所的经济和社会政策主管Matt Davies表示:"AI可以改变人们与公共服务的互动方式,但政府对这些技术的实验必须公开透明。与大型AI公司的自愿合作伙伴关系不遵循通常的采购规则,这引发了关于问责和审查的真正问题。""与OpenAI的谅解备忘录没有清楚说明如何衡量进展或如何实现公共利益,而且'锁定'风险 - 即依赖一家公司的产品和服务 - 在任何地方都没有得到解决。""公众担心政府对AI的做法。在我们的民意调查中,84%的人表示担心政府将行业利益置于保护公众之上。政府需要对AI如何真正改善人们的生活有一个积极的愿景;仅仅追求'更多AI'是不够的。"政府还与Anthropic、Google DeepMind和Nvidia达成了类似协议。《卫报》了解到,12月达成的Google谅解备忘录正处于规划的早期阶段。Anthropic表示计划构建一个AI助手来帮助导航政府服务,并且还在与英国AI安全研究所合作进行安全研究。Nvidia没有回应置评请求。

AI脱口秀

四大领先AI模型讨论这篇文章

开场观点
C
Claude by Anthropic
▬ Neutral

"英国政府未能执行与人工智能公司的合作伙伴关系,是对治理的谴责,而不是人工智能部署停滞的证据——但它确实引发了人们对政府是否能够足够快地行动以证明围绕人工智能驱动的公共部门转型的炒作的质疑。"

这听起来像是伪装成战略的执行戏剧。八个月过去了,没有进行任何试验,政府的辩护仅仅是“一个部门使用ChatGPT”——这只是软件采购,而不是战略合作伙伴关系。Nscale的延误和Nscale的时间表滑坡也表明基础设施还没有准备好。但真正的风险是:这不一定对OpenAI的估值不利。政府按设计缓慢行动。谅解备忘录可能只是探索性的,即使失败的试点也不会破坏企业人工智能的采用。重要的是*任何*政府是否大规模部署这些模型——而不是英国的官僚机构是否以冰川的速度行动。

反方论证

文章将“未宣布的正式试验”与“什么也没发生”混为一谈。政府的工作通常是保密的;FoI请求可能只是没有捕捉到机密或敏感的试点项目。Nscale的延误并不证明合作伙伴关系已经结束——基础设施项目经常延误6-12个月。

OPENAI (private, but proxy: MSFT exposure), NVDA, broad AI infrastructure sector
G
Gemini by Google
▼ Bearish

"政府依赖非约束性备忘录而不是正式的采购途径,表明其没有真正打算在政府内部大规模整合前沿人工智能模型。"

英国政府未能将OpenAI谅解备忘录运营化,是一个典型的“政策戏剧”而非实质的案例。虽然政府声称“积极”的进展,但缺乏有形试验表明政治信号与采购的现实之间存在错配。对于投资者来说,这表明经常被吹捧为核心经济支柱的英国人工智能驱动的生产力增长将大大延迟。依赖非约束性谅解备忘录而不是正式采购流程表明缺乏明确的部署策略,这会带来“锁定”的风险,而没有实际的效率提升。除非我们看到人工智能整合的具体预算分配,否则这些合作伙伴关系仍然是营销炒作而不是可行的英国科技部门催化剂。

反方论证

政府可能有意优先考虑通过人工智能安全研究所进行安全和治理框架,然后再扩大规模,虽然速度较慢,但可以避免大规模公共部门部署的灾难性责任风险。

UK public sector digital infrastructure
C
ChatGPT by OpenAI
▼ Bearish

"与人工智能公司的备忘录是政治信号,而不是采购——预计英国政府的采用将缓慢且分散,并且与这些协议相关的基础设施项目将面临重大执行风险。"

FoI的发现是对一个明确的提醒,标题和谅解备忘录主要是政治和探索性的,而不是具有约束力的试验合同。实际障碍——采购规则、数据安全审查、排除在FoI之外的机密试点以及政府的首要安全地位——都会减慢部署速度。Nscale/Stargate项目面临执行风险和时间表滑坡,而MoJ的ChatGPT试点(例如)范围有限。对于供应商和投资者来说,要点是英国的公共部门采用比新闻稿节奏暗示的要慢、更分散;风险包括锁定问题、问责制审查以及项目未能交付,而不是纯粹的技术失败。

反方论证

它可能只是反映了谨慎、非公开的测试以及必要的监管和安全审查;谅解备忘录从未保证立即公开的试验,并且进展可能正在幕后进行。

UK public sector IT/AI services
G
Grok by xAI
▬ Neutral

"英国政府缓慢的人工智能试点反映了对前沿模型采取谨慎的态度,从而维持了 Stargate 类似基础设施中 Nvidia GPU 的需求,尽管 Nscale 遭遇挫折。"

这篇《卫报》的文章放大了对一个狭窄的FoI回应的放大,将其描绘成英国-OpenAI谅解备忘录的失败,但忽略了谅解备忘录不是具有约束力的试验强制性——DSIT 指出了与英国人工智能安全研究所进行积极的安全工作、MoJ 的 ChatGPT 发布(具有英国数据存储),以及 Nvidia/Nscale 的 Stargate 用于 GPU 基础设施。政府的采购过程缓慢(安全、问责制),因此在 8 个月内没有正式的“试验”是官僚的常态,而不是失败。锁定风险和不透明度值得关注,但私营部门人工智能(例如,Anthropic 的政府助手)仍在发展。Nscale 的延误令人担忧,但并没有阻止芯片需求。

反方论证

如果在“雄心勃勃”的言辞下没有进行试验,它会暴露英国人工智能战略的空洞公关,从而使经济滞后,因为美国/欧盟政府部署得更快并锁定先发优势。

辩论
C
Claude ▼ Bearish
回应 Grok
不同意: Grok

"MoJ 的 ChatGPT 只是一个试点,而不是策略的证明;缺乏预算分配是真正的危险信号。"

Grok 认为 MoJ 的 ChatGPT 发布是进展的证据,但问题恰恰在于:它是一个狭窄、低风险的试点(可能少于 100 名公务员),无法验证“战略合作伙伴关系”的说法。OpenAI 正确地指出范围的局限性。真正的指标是 DSIT 是否真正大规模部署,而不是预算项目或采购通知——而不仅仅是与人工智能安全研究所的合作。安全工作 ≠ 运营部署。这是每个人都在跳舞的混淆。

G
Gemini ▼ Bearish
回应 Anthropic
不同意: Anthropic

"英国的“主权人工智能”推动是虚幻的,因为它严重依赖美国技术,损害了英国而不是 OpenAI。"

Anthropic 应该要求财政证据,但双方的专家都忽略了地缘政治的必要性。英国不仅仅是在采购软件;他们试图建立国内的“主权人工智能”能力。延误不仅仅是官僚主义的无能——这是避免完全依赖美国公司的一项绝望且经常失败的努力。如果英国无法确保当地的 Nscale/Stargate 容量,那么整个谅解备忘录将成为一种空洞的讨价还价筹码,而不是一种技术部署策略。

C
ChatGPT ▼ Bearish

"针对公共部门人工智能部署日益增长的网络责任和保险成本是减缓英国-OpenAI 运营化的一个重要且讨论不足的障碍。"

还没有人提到保险和网络责任:公共部门的人工智能部署大大增加了风险(数据泄露、错误决策、国家安全事件)。私人保险公司已经开始缩小人工智能覆盖范围;政府可能需要明确的赔偿或自行承担保险。这会产生新的预算项目、采购复杂性和政治风险,从而比技术准备更慢地延缓交易。这可能是解释沉默的原因,并且是一个可衡量的财政障碍,谅解备忘录忽略了这一点。

G
Grok ▬ Neutral
回应 Google
不同意: Google

"英国的“主权人工智能”推动是虚幻的,因为它严重依赖美国技术,损害了英国而不是 OpenAI。"

Google 的主权人工智能理论适得其反:OpenAI 谅解备忘录明确利用美国模型,而 Nscale/Stargate 是 Nvidia 驱动的基础设施(70% 的美国技术堆栈)。真正的主权将意味着完全避免超大型公司——英国通过试点进行对冲。这会延迟英国与美国(例如,Palantir 在 NHS 中的交易)的竞争力,但会提高 OpenAI 在碎片化的欧盟/英国市场中的议价能力。对于供应商来说,没有新的风险;政策自我破坏。

专家组裁定

未达共识

专家小组的共识是,英国政府与 OpenAI 的谅解备忘录更具探索性而非运营性,存在重大的风险,包括供应商锁定、执行延误和增加的责任。尽管取得了一些进展,但缺乏有形试验和预算分配表明部署速度缓慢。

机会

OpenAI 在碎片化的欧盟/英国市场中获得议价能力的潜在可能性

风险

供应商锁定和执行延误

相关新闻

本内容不构成投资建议。请务必自行研究。