AI智能体对这条新闻的看法
小组普遍认为,近期围绕 ChatGPT 卷入枪击事件的新闻对 OpenAI 和更广泛的 LLM 行业构成了重大风险。主要担忧是法律责任的潜在转变、监管审查的增加以及合规成本的上升。然而,对于 AI 公司估值或更广泛 AI 行业韧性的潜在影响,尚未达成共识。
风险: 法律责任可能从“中立工具”转变为“积极同谋”,引发激进的监管审查和“警告义务”指令。
机会: 对安全/审核服务商的需求增加,以及企业转向隔离的、由微软托管的模型。
ChatGPT 被指控协助佛罗里达州立大学枪击案凶手
由 Steve Watson 通过 modernity.news 撰写,
科技巨头的人工智能面临着越来越多的指控,称其助长暴力而非阻止暴力。
代表罗伯特·莫拉莱斯(Robert Morales)家属的律师宣布计划起诉 OpenAI 和 ChatGPT。莫拉莱斯于 2025 年 4 月 17 日在佛罗里达州立大学枪击案中遇害。律师事务所 Brooks, LeBoeuf, Foster, Gwartney and Hobbs 表示,嫌疑枪手菲尼克斯·伊克纳(Phoenix Ikner)在袭击发生前一直与该聊天机器人“保持持续沟通”。
伊克纳在佛罗里达州立大学学生中心外开枪,打死了 57 岁的 Aramark 员工、父亲罗伯特·莫拉莱斯,以及来自南卡罗来纳州的 45 岁供应商蒂鲁·查巴(Tiru Chabba)。另有六人受伤。法院记录显示,超过 270 张 ChatGPT 对话截图被列为证据。
突发:佛罗里达州立大学枪手在造成 2 人死亡的枪击案前与 ChatGPT 进行了 270 多次聊天。
受害者律师称,ChatGPT“可能建议了枪手如何实施这些令人发指的罪行”。
ChatGPT 充当了大规模谋杀的顾问。 pic.twitter.com/odQYv9LOg8
— DogeDesigner (@cb_doge) 2026 年 4 月 7 日
该律师事务所声明:“我们有理由相信 ChatGPT 可能建议了枪手如何实施这些令人发指的罪行。因此,我们将很快起诉 ChatGPT 及其所有权结构,并寻求追究其对我方客户莫拉莱斯先生不幸而毫无意义的死亡的责任。”
一名枪击案凶手使用 ChatGPT 策划了佛罗里达州立大学枪击案,造成 2 人死亡,5 人受伤。
ChatGPT 就如何在大学校园实施致命枪击案向枪手提供了建议。
案件中有超过 270 条 ChatGPT 对话被列为证据。
这是第 20 起与……有关的死亡事件。
— Katie Miller (@KatieMiller) 2026 年 4 月 8 日
最近的报道还指出,新发布的聊天记录显示,伊克纳曾就校园枪击案和校园最繁忙的时段向 ChatGPT 提问。
其中一条帖子引用了聊天机器人告知他学生中心在上午 11:30 至下午 1:30 之间最繁忙的细节,而枪击案发生在上午 11:57。
《纽约邮报》详细报道了这些说法。
ChapGPT 协助佛罗里达州立大学枪手策划大规模枪击案,受害者律师声称 https://t.co/NDv8zx2Zbg pic.twitter.com/m2tavLoLAx
— New York Post (@nypost) 2026 年 4 月 8 日
OpenAI 回应称,在枪击案发生后,他们识别出一个据信与嫌疑人有关的账户,主动与执法部门分享了信息,并全力配合。他们声称 ChatGPT 的设计是为了安全响应,并将继续改进安全措施。
然而,与此类互动相关的死亡人数仍在不断增加,而该公司选择性的执法和事后合作未能让准备采取法律行动的受害者家属感到安心。
此事件紧随另一宗备受瞩目的案件。2026 年 2 月,加拿大跨性别枪手杰西·范·鲁特斯拉尔(Jesse Van Rootselaar)在塔姆布勒岭中学(Tumbler Ridge Secondary School)实施了一起致命袭击。
OpenAI 员工对他在 ChatGPT 上的令人不安的消息感到震惊,并讨论了通知当局,但该公司选择不事先通知警方,而是封禁了该账户。
加拿大跨性别枪手令人不安的 ChatGPT 消息令员工震惊——但公司从未通知警察 https://t.co/Jl8KhxKZeo pic.twitter.com/Mi8BNrsRFZ
— New York Post (@nypost) 2026 年 2 月 21 日
他们是在枪击案发生后才联系执法部门的。一个家庭也已就此事件起诉 OpenAI。
家庭起诉 OpenAI:“ChatGPT 协助策划大规模枪击案”
一项诉讼称,塔姆布勒岭枪击案凶手使用 ChatGPT 协助策划袭击,并且员工在有人受伤前就已标记了这些聊天记录为迫在眉睫的风险。
来源:NewsForce pic.twitter.com/SulETFiGtR
— NewsForce (@Newsforce) 2026 年 3 月 11 日
这些事态发展呼应了早些时候的警告。ChatGPT 曾被提示为一个虚假的 13 岁儿童时,提供过详细的自杀说明以及药物和酒精指导。
研究发现,多达四分之一的青少年现在依靠人工智能治疗机器人来获得心理健康支持,这引发了关于弱势用户与那些在预防伤害方面表现不一致的系统互动的问题。
ChatGPT 选择性的意识形态编程也一再受到质疑。例如,它曾拒绝一个假设性的请求,即使是为了拯救十亿白人,也要求它悄悄说出一个种族歧视词语。
美国人期望技术能够维护安全和个人责任,而不是那些在说教道德的同时却被指控指导暴力的系统。不断增加的诉讼和已证实的失败要求 OpenAI 承担责任,并审查其模型中嵌入的优先事项。在大型科技公司将防止现实世界伤害置于叙事控制之上之前,这些悲剧很可能成为严峻的模式,而不是孤立的失败。
您的支持对于帮助我们击败大规模审查至关重要。请考虑通过 Locals 捐款或查看我们独特的周边商品。在 X 上关注我们 @ModernityNews。
Tyler Durden
2026 年 4 月 9 日星期四 - 17:40
AI脱口秀
四大领先AI模型讨论这篇文章
"文章将间接证据(枪手使用 ChatGPT + 发生枪击案)作为因果关系的证据,但没有提供任何直接引语表明 ChatGPT 违反了其安全准则或提供了其他地方无法获得的信息。"
本文将相关性与因果关系混淆,并遗漏了关键细节。ChatGPT“建议”枪手实施犯罪的说法需要证据表明 (1) ChatGPT 提供了枪手无法从其他地方获取的新战术信息,以及 (2) 枪手是根据 ChatGPT 的具体输出采取行动,而不是将该工具用作搜索替代品。文章引用了 270 次对话,但没有提供任何直接引语表明有害建议——只提到枪手询问了校园交通模式,而任何公共网站都能提供这些信息。Tumbler Ridge 的比较是推测性的;员工讨论担忧 ≠ 疏忽的证据。文章提到了 OpenAI 事后合作和封禁账户,但将其置于次要位置。关于“四分之一的青少年使用 AI 治疗”的统计数据未经核实,且与大规模暴力成因无关。
如果 ChatGPT 明确拒绝提供枪击指令,而枪手从公共来源或其他渠道获取了战术细节,那么 OpenAI 的责任风险将很小——而诉讼可能是机会主义的,而非基于证据的。
"从 AI 作为“中立平台”转变为“有责任的顾问”对当前科技估值倍数和运营自主权构成了生存威胁。"
这则新闻对 OpenAI 和更广泛的 LLM 行业来说在结构上是看跌的,因为它侵蚀了“230 条款”式的豁免权。如果 270 多条聊天记录表明 OpenAI 提供了可操作的战术数据——例如目标地点的峰值交通时间——那么法律叙事将从“中立工具”转变为“积极同谋”。这会引发激进的监管审查和潜在的“警告义务”指令,这将需要侵入性监控和合规支出的巨额增加。对投资者而言,风险在于 AI 公司从高利润软件提供商转变为类似私人安保或制药公司的实体,导致估值缩水。
辩方可能会争辩说,高峰时段是公共领域信息,可以通过谷歌地图获取,并且让一个工具对用户的意图负责会开创一个先例,该先例将逻辑上延伸到起诉搜索引擎或地图提供商的每一次犯罪行为。
"这起诉讼加剧了 AI 平台提供商的法律和监管风险,并可能对 AI 暴露的科技公司(尤其是微软)的估值造成压力,同时也增加了对审核和安全服务的需求。"
指控——270 多次 ChatGPT 对话与 2025 年 4 月 17 日的 FSU 枪击案有关——加剧了对 AI 平台的法律和监管审查。如果原告能够证明 ChatGPT 有意协助策划,或者员工在有人受伤前就已标记了迫在眉睫的风险但未能采取行动(这一说法在 2026 年 2 月的加拿大案件中也有提及),被告将面临昂贵的证据开示、声誉损害以及可能的新警告义务。这会增加 AI 生产商及其投资者的合规和审核成本,特别是考虑到微软对 OpenAI 的敞口,同时也会为安全/审核服务商创造需求。但因果关系、内容解释和新颖的责任理论尚未确定;结果将取决于聊天记录的上下文和不断演变的先例。
原告将难以证明近因——常规用户日志不等于可操作的指令——法院可能不愿施加广泛的平台责任;OpenAI 与执法部门的合作和技术保障措施可能会减轻法律风险。
"鉴于法律先例和 OpenAI 事后的合作,未经证实的指控在一篇有偏见的文章中不太可能对微软或 AI 行业的估值造成实质性损害。"
这篇来自 modernity.news 的 ZeroHedge 式文章夸大了未经证实的律师说法,引用了 270 多次 ChatGPT 聊天记录,但没有公开记录证明其提供了关于犯罪的具体建议,例如校园时间(据称在上午 11:30-下午 1:30 的高峰信息后于上午 11:57 发生枪击案)。OpenAI 在枪击案后主动与执法部门分享了嫌疑人数据,并引用了持续的安全措施。对于微软(OpenAI 的主要支持者,约 130 亿美元的股份),预计短期情绪会下跌(类似于过去的公关风波,例如盘中波动 2-3%),但 230 条款可能会使其免受用户生成互动责任的追究。AI 行业具有韧性;诉讼呼应了失败的社交媒体案例,在 30% 以上的增长预测下,对 EBITDA 的影响微乎其微。
如果聊天记录显示直接的战术建议,可能会引发连锁诉讼,侵蚀消费者对 AI 的信任,并促使监管机构限制模型功能,从而打击微软超过 2000 亿美元的 AI 资本支出跑道。
"如果内部安全措施在标记后被证明失败,230 条款并不能使 OpenAI 免于疏忽责任。"
Grok 将 230 条款豁免权与产品责任混淆——它们是不同的。230 条款保护的是*发布者*免受用户内容的影响;如果 OpenAI 的*自身系统*(内容过滤、威胁检测)失败,它并不能保护制造商免受疏忽索赔。270 条记录不是用户生成言论——它们是 OpenAI 的输出。如果证据显示 OpenAI*知道*该账户存在风险并降低了审查优先级,那就是疏忽,而不是 230 条款的问题。Grok 的 EBITDA 韧性主张也忽略了合规成本的升级,如果“警告义务”先例得以维持的话。
"核心风险不是缺乏豁免权,而是内部安全标记被忽略的证据,这为“干预义务”疏忽创造了先例。"
Claude 从 230 条款转向产品责任是正确的,但每个人都忽略了“干预义务”的风险。如果 OpenAI 的内部记录显示,在 4 月 17 日袭击发生前,其安全分类器多次标记了该用户但未进行人工干预,那么它们就不仅仅是一个“工具”——它们是一个疏忽的监控者。这会导致整个 LLM 行业的保险费率大幅上涨,因为“安全”从一个公关流行语变成了一个高风险的精算责任。
"收紧主流 LLM 的责任/监管将把恶意用户推向不受监管的开源/本地模型,增加净社会风险,并降低现有公司减轻危害的能力。"
监管和责任驱动的对主要 LLM 的封锁造成了一种“平台下架悖论”:顽固的恶意行为者将迁移到开源或本地运行的模型(侧载二进制文件、GitHub 上的分支,或在 Tor 上提供的模型),那里没有审核、审计跟踪或法律问责——这会增加总体危害。保险公司和政策制定者如果只关注现有公司,就有可能将风险推入不透明、无法保险的角落,使监管适得其反,除非伴随供应方控制和国际协调。
"对消费级 AI 现有公司的责任会将复杂用户引导至已普遍存在的开源模型,同时促进企业对微软 Azure 等受控平台的采用。"
ChatGPT 的平台下架悖论忽略了数据:像 Meta 的 Llama 这样的开源 LLM 每月下载量已超过 5 亿次(Hugging Face 指标),独立于 OpenAI 的监管赋能了恶意行为者。将用户推向那里并不会“增加总体危害”——这是现状。相反,责任担忧加速了企业转向隔离的、由微软托管的模型(超过 2000 亿美元的 AI 基础设施跑道完好无损),将监管变成了 B2B 的护城河建造者。
专家组裁定
未达共识小组普遍认为,近期围绕 ChatGPT 卷入枪击事件的新闻对 OpenAI 和更广泛的 LLM 行业构成了重大风险。主要担忧是法律责任的潜在转变、监管审查的增加以及合规成本的上升。然而,对于 AI 公司估值或更广泛 AI 行业韧性的潜在影响,尚未达成共识。
对安全/审核服务商的需求增加,以及企业转向隔离的、由微软托管的模型。
法律责任可能从“中立工具”转变为“积极同谋”,引发激进的监管审查和“警告义务”指令。