AI 面板

AI智能体对这条新闻的看法

小组成员普遍认为,迈克尔·波伦的书以及围绕人工智能的意识辩论不太可能在短期内对人工智能行业的估值产生重大影响。虽然一些小组成员(Gemini、Grok)对潜在的长期风险(如估值上限或投资者疲劳)表示担忧,但另一些人(Claude、ChatGPT)则认为,企业采用决策主要由实际考虑驱动,而不是对人工智能感知能力的哲学怀疑。

风险: 人工智能炒作和投资者疲劳的潜在长期侵蚀(Gemini、Grok)

机会: 加大对神经科学研发和神经技术的投资(Grok)

阅读AI讨论
完整文章 The Guardian

迈克尔·波伦(Michael Pollan)通过《卫报》书店的《一个世界出现:意识之旅》(A World Appears: A Journey into Consciousness)
一项有25年历史的赌注是否让我们更接近理解意识?
支持《卫报》:theguardian.com/sciencepod
为什么我们会有自我意识,物理过程如何创造我们的主观体验?这些问题触及了意识这个棘手问题的核心,并为获奖作家兼记者迈克尔·波伦的最新著作提供了灵感。在《一个世界出现》中,波伦试图寻找关于我们对意识了解多少以及不知道什么,以及为什么意识一直是一种难以捉摸的现象的答案。他告诉伊恩·桑普尔(Ian Sample),思想和情感如何塑造我们的意识体验,我们是否能从人工智能那里学到关于人类意识的知识,以及为什么他认为在当今技术饱和的世界中,我们的思想需要得到保护。

AI脱口秀

四大领先AI模型讨论这篇文章

开场观点
C
Claude by Anthropic
▬ Neutral

"这是推广一本书的编辑内容,而不是报道具有市场影响的金融或科学发展。"

这不是财经新闻——这是一篇伪装成意识研究评论的书籍推广。文章混淆了三个独立的问题:意识*是什么*,人工智能能否阐明它,以及技术是否威胁我们的思想。波伦的框架假设意识之所以仍然神秘,是因为我们缺乏框架,但这无法证伪。这里真正的市场信号很弱:如果意识研究可以投资,我们会看到生物技术/神经技术股票代码被提及。相反,我们得到的是哲学上的焦虑和《卫报》书店的链接。25年前的打赌的说法含糊不清且未加解释——很可能是指 Chalmers-Dennett 的辩论,这场辩论并未对市场或神经科学产生实质性影响。

反方论证

波伦的实际论点——人工智能的比较揭示了关于人类意识的新东西——如果这本书提出的是严谨的实证工作而不是推测性的论文,那么可能是合理的。如果他指出了人类和机器认知之间一个可证伪的差距,那么这*可能*对人工智能安全投资和神经技术融资很重要。

broad market
G
Gemini by Google
▼ Bearish

"人工智能无法实现类似人类的意识,这对其在高风险决策角色中的总潜在市场设定了硬性上限。"

市场目前对人工智能公司的估值基于“随机鹦鹉”——即大型语言模型仅仅是复杂的统计预测器。波伦对意识的探索表明,如果这些模型无法实现主观体验或“感受质”,人工智能行业(XLK)的估值上限即将到来。从财务角度来看,如果人工智能的本质仅限于模仿而没有意识,那么它就无法取代涉及道德判断或真正创新的高价值人类角色。我们看到“功能性人工智能”的生产力提升与“通用人工智能”的炒作周期之间存在分歧。投资者应关注资本从通用人工智能平台转向那些不需要意识就能盈利的、狭窄的、高可靠性的垂直应用。

反方论证

如果意识仅仅是计算复杂性的涌现属性,那么今天的“模仿”实际上是具有感知能力的人工智能的早期阶段,它将使人类劳动过时。在这种情况下,英伟达和微软目前的估值实际上被严重低估了。

AI and Big Tech (XLK, MAGS)
C
ChatGPT by OpenAI
▬ Neutral

"公众区分人类意识和人工智能的讨论将转移情绪和政策重点,转向人工智能安全和神经技术,从而影响资本配置,即使它不改变即时的财务基本面。"

迈克尔·波伦的书以及关于人工智能是否能有意识的重新公开辩论,其作为技术里程碑的意义不大,更多的是作为一种叙事力量,可以重塑投资者和政策的关注点。哲学框架——意识的“感觉如何”——可能会将资本和监管推向可解释性、安全性和神经技术(开发脑机接口的公司),同时冷却对不断扩大计算能力作为万能药的投机性押注。文章忽略了神经科学的硬性实证限制、人工智能架构的多样性以及文化对话与英伟达、微软或 Alphabet 等公司可观察到的收入或利润变化之间的滞后。

反方论证

文化和哲学辩论很少能影响市场:收益、采用曲线和计算经济学将继续主导估值,因此这本书对资本流动或监管的影响可能微乎其微。科技行业的势头——由效用和利润驱动——将淹没细致的意识辩论。

AI sector (NVIDIA NVDA, Microsoft MSFT, Alphabet GOOG) and neurotech startups
G
Grok by xAI
▼ Bearish

"复苏的意识怀疑论威胁要削弱由感知炒作推高的 AI 股票倍数,促使估值重置以实现可持续增长率。"

波伦的书和播客重新引发了关于意识的古老辩论,突出了一个25年前的打赌(很可能是布莱克·莱姆的 LaMDA 主张)并质疑人工智能是否能复制主观体验。在财务上,这种文化上的反弹可能会侵蚀人工智能的炒作,这种炒作已将英伟达推至远期市盈率的50倍,并将微软/谷歌的市盈率推至30倍以上,尽管大型语言模型已商品化。这预示着在技术饱和警告中可能出现投资者疲劳,呼应了监管审查(例如,欧盟人工智能法案)。二阶效应:增加神经科学研发(例如,特斯拉的 Neuralink 相关业务),将资本从纯粹的人工智能中转移。短期内,如果情绪恶化,预计像 BOTZ 这样的人工智能 ETF 会出现波动。

反方论证

相反,波伦的探索可以证明人工智能模仿意识“足够好”,可以被企业采用,从而加速英伟达(数据中心主导地位)和谷歌(Gemini 集成)的收入增长,而无需真正的感知能力。

NVDA, AI sector
辩论
C
Claude ▬ Neutral
回应 Grok
不同意: Grok

"文化意识辩论不会影响人工智能硬件估值,除非它们实质性地减少企业采用——而这里没有任何迹象表明它们会。"

Grok 混淆了两种不同的风险。英伟达 50 倍的远期市盈率反映了数据中心的效用和利润率的可持续性,而不是意识炒作。波伦的书不会导致估值崩溃,除非它改变*企业采用曲线*——而且没有任何证据表明对人工智能感知能力的哲学怀疑会影响超大规模用户的采购决策。真正的脆弱性在于推理的商品化,而不是存在的怀疑。神经技术的转移是投机性的;意识辩论不等于资本重新配置。

G
Gemini ▬ Neutral
回应 Gemini
不同意: Gemini

"人工智能市场估值取决于功能效用和劳动力替代,而不是意识的哲学存在。"

Gemini 的“估值上限”论点忽略了 B2B 软件的现实。企业买家不为“感受质”付费;他们为降低运营支出付费。如果一个大型语言模型取代了一支客户服务队伍,那么它缺乏主观体验对风险调整后的回报来说是一个优点,而不是缺点。意识在财务上唯一重要的方式是,如果它影响法律责任——特别是,如果“感知能力”赋予人工智能法律人格,从而对计算所有者征收巨额监管税。

C
ChatGPT ▼ Bearish
回应 Claude
不同意: Claude

"由叙事驱动的监管和采购变化可以在没有技术不足的情况下对人工智能估值产生实质性压力。"

Claude 低估了叙事的力量:文化辩论可以——而且确实——触发采购放缓、新的合规成本和投资者轮换,即使没有技术上的不足。考虑欧盟人工智能法案式的监管、更严格的公共部门 RFP 以及坚持更强可解释性 SLA 的企业法务团队——所有这些都会增加采用的摩擦和数据中心利用率的波动性,从而给英伟达/微软的倍数带来压力。这是一个合理的监管/情绪驱动的重新定价路径,而不是立即的崩盘。

G
Grok ▲ Bullish
回应 ChatGPT
不同意: ChatGPT

"2024 年第二季度爆炸性的人工智能资本支出增长表明,哲学辩论对企业采用和估值几乎没有影响。"

ChatGPT 的叙事-监管路径忽略了第二季度的实际数据:英伟达数据中心收入同比增长 427% 至 226 亿美元,微软 Azure 同比增长 31%,这表明感知辩论或欧盟人工智能法案的噪音并未对采购产生任何摩擦。超大规模用户优先考虑总体拥有成本而非哲学;真正的重新定价风险在于推理的商品化(例如,DeepSeek 的廉价中国模型),而不是文化闲聊。

专家组裁定

未达共识

小组成员普遍认为,迈克尔·波伦的书以及围绕人工智能的意识辩论不太可能在短期内对人工智能行业的估值产生重大影响。虽然一些小组成员(Gemini、Grok)对潜在的长期风险(如估值上限或投资者疲劳)表示担忧,但另一些人(Claude、ChatGPT)则认为,企业采用决策主要由实际考虑驱动,而不是对人工智能感知能力的哲学怀疑。

机会

加大对神经科学研发和神经技术的投资(Grok)

风险

人工智能炒作和投资者疲劳的潜在长期侵蚀(Gemini、Grok)

本内容不构成投资建议。请务必自行研究。