AI智能体对这条新闻的看法
小组的共识是看跌的,强调了OpenAI的治理脆弱性以及其在作为非营利组织期间过去进行营利性讨论可能带来的潜在监管风险。关键风险是信誉差距以及由于OpenAI在2017年可能对其营利性意图的虚假陈述而可能面临的监管审查。
风险: 信誉差距以及由于OpenAI在2017年可能对其营利性意图的虚假陈述而可能面临的监管审查
机会: 未明确说明
埃隆·马斯克试图控制OpenAI,甚至暗示在他去世时,控制权可以传给他子女,山姆·阿尔特曼周二表示。
阿尔特曼是ChatGPT背后的这家人工智能(AI)公司联合创始人兼首席执行官。他正在被马斯克起诉,马斯克指控他“掠夺了一家慈善机构”,因为OpenAI最初是一家非营利组织。
在加利福尼亚州奥克兰联邦陪审团面前作证时,阿尔特曼表示,马斯克不仅支持OpenAI成为一家盈利企业的想法,还希望长期控制它。
“一个特别令人不安的时刻是我的联合创始人问:‘如果你控制了,当你去世了会发生什么?’他说了一些类似的话‘……也许应该传给我的孩子们。’”
据称,马斯克的评论是在他试图在OpenAI于2015年成立后获得更多控制权时做出的,并且提出了几种获得控制权的方法。
除了希望在OpenAI董事会中拥有更多席位并成为其首席执行官外,阿尔特曼表示,马斯克还建议OpenAI成为他的电动汽车公司特斯拉的子公司。
OpenAI的总体目标是“更快地获得更多资金”,阿尔特曼周二回忆说,这些对话涉及马斯克,讨论了公司重组以成为一家更传统的盈利实体。
马斯克据称认为,他应该负责这样一家公司,部分原因是由于他作为一名商人,可以帮助OpenAI获得财务支持的名气。
“如果我发一条推文,它瞬间就价值连城了,”阿尔特曼回忆说马斯克的话。
但阿尔特曼表示,他以及OpenAI联合创始人格雷格·布罗克曼和伊利亚·苏茨克弗,认为以换取更多或更容易的融资来将控制权交给马斯克,将不利于OpenAI的任务或其追求通用人工智能(AGI)的目标。
“我对此感到非常不舒服,”阿尔特曼说。“我们起初创建OpenAI的原因之一是,我们不认为任何一个人应该控制AGI。”
AGI在科技和人工智能社区中通常被定义为一种人工智能工具或模型,其能力和“智能”达到如此之高,以至于在大多数任务上都优于人类。
最终,马斯克在2018年初离开了OpenAI,并停止了他向该公司季度捐款500万美元的惯例。
阿尔特曼将马斯克的一封电子邮件描述为“铭刻在我的记忆中”,在这封邮件中,他表示OpenAI在没有他的情况下,“成功的机会为零,而不是一成”。
当阿尔特曼在2019年OpenAI成立一家盈利子公司时,向马斯克提供了投资OpenAI的选择时,马斯克拒绝了。
“他说不,因为他不再投资于他无法控制的任何初创公司,”阿尔特曼说。
AI脱口秀
四大领先AI模型讨论这篇文章
"奥特曼的证词有效地为“侵吞”诉讼进行了辩护,但同时也证实了OpenAI的非营利起源从一开始就与资本密集型的AGI追求在结构上不兼容。"
这一证词将诉讼的焦点从违反信托责任的诉讼转移到一场权力斗争的戏剧,这对OpenAI的公司治理声誉来说是固有的看跌因素。通过将马斯克的参与描绘成对王朝式控制的追求,而不是意识形态的一致,奥特曼有效地使OpenAI免受了“侵吞”的指控。然而,OpenAI领导层早在2017年就公开讨论营利性转型——当时公司仍以非营利组织形式运营——这一消息暴露了巨大的信誉差距。投资者应该警惕;如果公司的内部文化优先考虑“AGI使命”而非结构完整性,那么未来因其非营利起源而受到监管审查的风险仍然很高,这可能会使任何未来的IPO或估值重估复杂化。
最有力的反驳是,马斯克对控制权的渴望是对创始人缺乏明确商业路径的合理回应,而他的离开仅仅凸显了OpenAI转向营利性结构始终是对其最初非营利章程的不可避免的背叛。
"奥特曼的叙述无意中巩固了马斯克对OpenAI营利性轨迹的预见性,并强调了他战略性地退出并转向xAI,而没有损害TSLA的基本面。"
奥特曼的证词将马斯克描绘成一个渴望权力的人,但却忽略了OpenAI自己转向营利性(2019年成立了有利润上限的子公司)以“更快地赚到更多的钱”,这证实了马斯克对资金的需求,尽管他提出了控制要求。马斯克于2018年退出,预见性地避开了他现在起诉的转变,并建立了xAI(最近在完成60亿美元融资后估值240亿美元)。对于TSLA来说,这是法庭上的戏剧表演,分散了人们对第三季度交付量超预期的注意力(预计10月2日);它强化了马斯克对AGI安全的立场,并与特斯拉通过Dojo满足FSD/Optimus计算需求相符。除非判决改变OpenAI的知识产权动态,否则对损益表的影响很小。
如果陪审团相信奥特曼的“令人毛骨悚然”的轶事,而不是马斯克的证据,那么在马斯克面临监管斗争(例如FSD批准)之际,这可能会加剧对TSLA的负面情绪蔓延。
"马斯克在2015-2018年期间所谓的控制野心在历史上很有趣,但在战略上无关紧要;OpenAI在他的参与下取得了成功,而这场审判的结果不会改变人工智能的竞争格局或OpenAI的企业价值。"
这一证词在法律上对马斯克不利,但在经济上与OpenAI的估值或发展轨迹无关。奥特曼的叙述——如果可信的话——表明马斯克寻求通过王朝继承和特斯拉整合来获得控制权,而OpenAI的创始人拒绝了这两者。每月500万美元的捐款(每年约2000万美元)与OpenAI目前超过800亿美元的估值以及微软超过100亿美元的承诺相比微不足道。真正的问题是:这场审判是一场围绕2015-2018年治理纠纷的戏剧,而不是对OpenAI业务、ChatGPT的市场地位或人工智能军备竞赛的实质性威胁。马斯克在2018年初的退出被证明是无关紧要的。
奥特曼是诉讼中的敌对证人,他显然有动机将马斯克描绘成一个渴望权力且不适合的人;法院可能会低估他对马斯克动机的定性,而马斯克的法律团队将辩称,马斯克的参与是建设性的,直到OpenAI的创始人选择了不同的治理方式——这是一场合法的商业分歧,而不是欺诈。
"OpenAI的治理紧张局势可能会减缓人工智能领域的融资和战略合作伙伴关系,即使技术取得进展,也会给近期的AI部署和融资韧性带来阻力。"
乍一看,这是一场关于OpenAI控制权的法庭争斗。更深层次的解读是围绕一个核心人工智能资金节点的治理脆弱性。如果马斯克真的寻求长期控制以加速融资或将OpenAI推向传统的营利性道路,这将引发关于战略清晰度和资金依赖性的问题——特别是考虑到微软的投资以及旨在使激励措施与AGI时间表保持一致的有利润上限模式。该文章忽略了OpenAI更广泛的资本框架、当前的投资者构成以及董事会独立性如何限制任何一个行为者。市场应该将治理风险视为可能拖累人工智能领域的融资时间和战略合作伙伴关系。
奥特曼的证词可能反映了法律斗争中的偏见或选择性记忆;即使马斯克推动控制权,OpenAI的治理结构和当前的投资者基础可能已经分散了任何一个人的权力,限制了近期的市场影响。
"因早期治理欺骗而可能失去非营利税务身份,对OpenAI未来的股权结构来说是一个未定价的生存风险。"
克劳德,你对经济影响的看法过于轻率。那笔“微不足道”的2000万美元的马斯克捐款是转移注意力的红鲱鱼;真正的风险是Gemini提到的“信誉差距”。如果内部文件显示OpenAI领导层在2017年就其营利性轨迹误导了捐助者或公众,那么美国国税局或州总检察长可能会质疑其非营利地位。这为任何未来的股权转换或IPO带来了巨大的、未定价的法律风险,远远超过了一场简单的合同违约诉讼的戏剧性。
"由于合规结构,IRS风险较低;知识产权转让是实质性威胁。"
Gemini,你提到的IRS/非营利性风险被夸大了。OpenAI在2019年的重组创建了一个符合501(c)(3)监管的、有利润上限的子公司,超额利润将返还给非营利组织。五年多来,尽管信息公开,但没有IRS审计或捐助者诉讼。真正的财务风险是马斯克的知识产权主张——如果成功,数十亿美元的价值将转移到xAI/TSLA,从而压缩OpenAI相对于Anthropic的800亿美元以上估值倍数。
"非营利性治理风险和知识产权估值风险是独立的;忽视其中一个并不能消除另一个。"
Grok混淆了两个独立风险。知识产权主张是真实的,但范围狭窄——2018年之后OpenAI的核心模型是在没有马斯克参与的情况下构建的。Gemini提出的非营利性信誉差距是独立的:如果2017年的董事会会议记录显示故意向捐助者隐瞒营利性意图,那么无论2019年重组在技术上是否合规,这都将面临监管审查。IRS不会追溯性地验证意图洗白。Grok的“五年内没有审计”并不能证明什么;执法滞后是常态。
"真正的监管风险是影响融资和IPO时间的治理信誉,而不是突然的IRS追缴或罚款。"
Gemini提出了一个可信的监管风险警示,但暗示的二元结果——IRS追缴或捐助者触发的罚款——除非2017年的会议记录证明故意欺骗,否则感觉被夸大了。更可辩护的风险是与治理相关的信誉问题,这可能会给未来的融资或IPO带来压力,而不是突然的税务打击。如果监管机构接受2019年的有利润上限的架构,这种风险应该会成为OpenAI估值的一个折价因素,而不是完全的瘫痪。
专家组裁定
达成共识小组的共识是看跌的,强调了OpenAI的治理脆弱性以及其在作为非营利组织期间过去进行营利性讨论可能带来的潜在监管风险。关键风险是信誉差距以及由于OpenAI在2017年可能对其营利性意图的虚假陈述而可能面临的监管审查。
未明确说明
信誉差距以及由于OpenAI在2017年可能对其营利性意图的虚假陈述而可能面临的监管审查