สิ่งที่ตัวแทน AI คิดเกี่ยวกับข่าวนี้
ฉันทามติของคณะกรรมการคือการโจมตีสำนักงานใหญ่ของ OpenAI เมื่อเร็วๆ นี้ส่งสัญญาณถึงการเปลี่ยนแปลงในการถกเถียงเรื่องความปลอดภัยของ AI ไปสู่ความเสี่ยงด้านความปลอดภัยทางกายภาพสำหรับผู้นำด้านเทคโนโลยี ซึ่งอาจนำไปสู่การเพิ่มขึ้นของค่าใช้จ่ายด้านความปลอดภัยและการเปลี่ยนแปลงเบี้ยประกันภัยสำหรับบุคลากรสำคัญ อย่างไรก็ตาม ผลกระทบทางการเงินต่อบริษัท AI คาดว่าจะจำกัด และเหตุการณ์นี้ไม่ถือเป็นภัยคุกคามที่เป็นระบบต่อภาค AI
ความเสี่ยง: ค่าใช้จ่ายด้านความปลอดภัยที่เพิ่มขึ้นและการเปลี่ยนแปลงที่เป็นไปได้ในเบี้ยประกันภัยสำหรับบุคลากรสำคัญ ซึ่งอาจส่งผลกระทบต่อ 'พรีเมียมที่นำโดยผู้ก่อตั้ง' ในมูลค่าบริษัท
โอกาส: ผู้ที่ครอบครองตลาดที่มีโครงสร้างพื้นฐานและกระแสเงินสดด้านความปลอดภัยที่มีอยู่แล้ว อาจได้รับความได้เปรียบทางการแข่งขันเหนือสตาร์ทอัพแบบกระจายอำนาจ
ในช่วงเช้าตรู่ของวันที่ 10 เมษายน ชายคนหนึ่งเดินเข้าไปใกล้ประตูบ้านของแซม อัลท์แมน ซีอีโอของ OpenAI ในซานฟรานซิสโก และขว้างค็อกเทลโมโลตอฟใส่ตัวอาคารก่อนที่จะหลบหนี ผู้ต้องสงสัยคือ ดานีเอล โมเรโน-กามา อายุ 20 ปี ถูกจับกุมได้น้อยกว่าสองชั่วโมง ต่อมา ขณะที่เขาพยายามบุกเข้าไปในสำนักงานใหญ่ของ OpenAI พร้อมกับกาละมังใส่น้ำมันก๊าด ไฟแช็ก และเอกสารแสดงความไม่พอใจต่อ AI
เจ้าหน้าที่รัฐบาลกลางและรัฐแคลิฟอร์เนียได้ตั้งข้อหา โมเรโน-กามา ในความผิดหลายกระทง รวมถึงการพยายามวางเพลิงและฆาตกรรม พ่อแม่ของเขาออกแถลงการณ์สัปดาห์นี้ว่าลูกชายของพวกเขาเพิ่งประสบวิกฤตด้านสุขภาพจิต โมเรโน-กามา ซึ่งยังไม่ได้ให้การแก้ต่างเผชิญกับโทษจำคุกตลอดชีวิต หากถูกตัดสินว่ามีความผิด
การมุ่งเป้าไปที่ อัลท์แมน และ OpenAI เกิดขึ้นท่ามกลางความไม่พอใจอย่างกว้างขวางต่อปัญญาประดิษฐ์ที่เพิ่มขึ้น และเป็นเหตุการณ์โจมตีที่โดดเด่นที่สุดต่อบุคคลหรือธุรกิจที่เกี่ยวข้องกับเทคโนโลยีนี้ โมเรโน-กามามีประวัติการโพสต์ความเห็นเชิงลบต่อ AI ออนไลน์ ในกรณีหนึ่ง เขาเสนอว่า "จะลูอิ-จิ้งค์ซีอีโอเทคบางคน" โดยอ้างอิงถึง ลูอิยี แมนจิโอเน ซึ่งกำลังถูกพิจารณาคดีในข้อหาฆาตกรรมประธานเจ้าหน้าที่บริหารของ UnitedHealthcare
อัลท์แมนกล่าวถึงเหตุการณ์ดังกล่าว รวมถึงบทความโปรไฟล์ที่เพิ่งเผยแพร่เกี่ยวกับเขาในนิตยสาร New Yorker และการวิพากษ์วิจารณ์ AI ในบล็อกโพสต์เมื่อสุดสัปดาห์ที่ผ่านมา เขาเรียกร้องให้ลดความตึงเครียดในการถกเถียงเกี่ยวกับปัญญาประดิษฐ์ และแบ่งปันรูปถ่ายของครอบครัวของเขา รวมถึงลูกสาววัยเยาว์ของเขา
“รูปภาพมีพลัง ฉันหวังว่า ปกติแล้วเราพยายามที่จะรักษาความเป็นส่วนตัวค่อนข้างมาก แต่ในกรณีนี้ ฉันกำลังแบ่งปันรูปภาพด้วยความหวังว่ามันจะขัดขวางคนที่กำลังจะขว้างค็อกเทลโมโลตอฟใส่บ้านของเรา ไม่ว่าพวกเขาจะคิดอย่างไรเกี่ยวกับฉันก็ตาม” อัลท์แมนโพสต์
สองวันหลังจากเหตุการณ์ค็อกเทลโมโลตอฟ ตำรวจซานฟรานซิสโกจับกุมผู้ต้องสงสัยสองคนหลังจากที่พวกเขาถูกกล่าวหาว่ายิงปืนจากรถยนต์นอกบ้านของ อัลท์แมน เจ้าหน้าที่ปล่อยตัวทั้งสองออกจากสถานีตำรวจและยังไม่ได้ตั้งข้อหาใดๆ สำนักงานอัยการเขตซานฟรานซิสโกระบุว่าการสอบสวนเพิ่มเติมกำลังดำเนินการเพื่อพิจารณาว่าจะตั้งข้อหาหรือไม่ ตามที่ San Francisco Chronicle รายงาน
เกิดอะไรขึ้นในการโจมตีที่บ้านของอัลท์แมน
โมเรโน-กามาถูกกล่าวหาว่าเดินทางจากบ้านของเขาในย่านชานเมืองของฮิวสตัน เท็กซัส ไปยังซานฟรานซิสโกเพื่อก่อเหตุโจมตี ตามคำร้องเรียนทางอาญาของรัฐบาลกลาง ภาพจากกล้องวงจรปิดที่บ้านของ อัลท์แมน แสดงให้เห็นผู้ก่อเหตุที่ถูกกล่าวหาเดินขึ้นทางขับพร้อมกับค็อกเทลโมโลตอฟที่กำลังลุกไหม้ในมือ และขว้างใส่บ้าน ลูกไฟนั้นกระเด้งออกจากอาคารและไม่มีใครได้รับบาดเจ็บ อัลท์แมนเขียนในบล็อกโพสต์ของเขา โดยระบุว่าเหตุการณ์เกิดขึ้นในเวลา 3.45 น.
หลังจากออกจากบ้านของ อัลท์แมน โมเรโน-กามาปรากฏตัวประมาณ 3 ไมล์ (5 กม.) จากสำนักงานใหญ่ของ OpenAI ในเวลาประมาณ 5 น. เขาถูกกล่าวหาว่าพยายามทุบประตูทางเข้าด้วยเก้าอี้ก่อนที่เจ้าหน้าที่รักษาความปลอดภัยของอาคารจะเข้าขัดขวาง โมเรโน-กามาบอกเจ้าหน้าที่รักษาความปลอดภัยว่าเขาตั้งใจจะเผาอาคารและฆ่าทุกคนที่อยู่ข้างใน ตามคำร้องเรียน
เมื่อเจ้าหน้าที่ตำรวจซานฟรานซิสโกมาถึงที่เกิดเหตุและจับกุม โมเรโน-กามา พวกเขาถูกกล่าวหาว่าพบอุปกรณ์จุดไฟ น้ำมันก๊าด และเอกสารที่ประณาม AI และเรียกร้องให้ฆ่าซีอีโอที่เกี่ยวข้องกับเทคโนโลยี
คำประกาศของโมเรโน-กามาประกอบด้วยสามส่วน คำร้องเรียนระบุ ส่วนแรกมีชื่อว่า “คำเตือนครั้งสุดท้าย” ซึ่งรวมถึงคำมั่นสัญญาว่าจะฆ่ารายชื่อซีอีโอ บอร์ด และนักลงทุนด้าน AI ที่เกี่ยวข้องกับ AI ส่วนที่สองอธิบายถึง “การทำลายล้างที่กำลังจะเกิดขึ้น” ของเรา และภัยคุกคามที่ AI จะทำลายล้างมนุษยชาติ ส่วนสุดท้ายของเอกสารนี้กล่าวถึง อัลท์แมนโดยตรง โดยระบุว่าหากเขารอดชีวิตจากการโจมตี เขาควรรับมันว่าเป็นสัญญาณศักดิ์สิทธิ์ให้ชดใช้ตัวเอง
เจ้าหน้าที่รัฐบาลกลางอธิบายว่าการโจมตีครั้งนี้เป็นการยกระดับความรุนแรงต่อเทคโนโลยีขนาดใหญ่ และให้คำมั่นว่าจะใช้กำลังบังคับใช้กฎหมายอย่างเต็มที่เพื่อป้องกันการกระทำใดๆ ที่ทำลายล้างอุตสาหกรรม โดยระบุว่า “FBI จะไม่ยอมรับการคุกคามต่อผู้นำนวัตกรรมของประเทศ”
“หากหลักฐานแสดงให้เห็นว่า นายโมเรโน-กามาได้ดำเนินการโจมตีเหล่านี้เพื่อเปลี่ยนแปลงนโยบายสาธารณะหรือเพื่อบีบบังคับเจ้าหน้าที่รัฐบาลและเจ้าหน้าที่อื่นๆ เราจะถือว่านี่เป็นการกระทำของก่อการร้ายภายในประเทศ” นาย Craig Missakian อัยการสหรัฐกล่าวในการแถลงข่าว ยังไม่มีกฎหมายก่อการร้ายภายในประเทศตามรัฐบาลกลาง และรัฐแคลิฟอร์เนียก็ไม่มีกฎหมายก่อการร้ายภายในประเทศของรัฐ
Diamond Ward ทนายสาธารณะของ Moreno-Gama ในคดีนี้ ได้วิพากษ์วิจารณ์คำอธิบายของหน่วยงานบังคับใช้กฎหมายเกี่ยวกับการโจมตี โดยระบุว่า Moreno-Gama มีประวัติเป็นโรคออทิสติกและมีปัญหาสุขภาพจิตโดยไม่มีประวัติอาชญากรรมก่อนหน้า การโจมตีเป็นผลมาจากวิกฤตด้านสุขภาพจิตมากกว่าความพยายามที่จะทำร้าย Ward กล่าว
“คดีนี้ถูกตั้งข้อหาเกินจริงอย่างชัดเจน คดีนี้เป็นอาชญากรรมเกี่ยวกับทรัพย์สินเท่านั้น” Ward กล่าว “ไม่ยุติธรรมและไม่ถูกต้องสำหรับอัยการเขตซานฟรานซิสโกและรัฐบาลกลางที่จะสร้างความหวาดกลัวและใช้ประโยชน์จากความเปราะบางของชายหนุ่มคนนี้เนื่องจากสถานะที่มีชื่อเสียงสูงของผู้ที่เกี่ยวข้อง”
การขึ้นศาลของ Moreno-Gama กำหนดไว้สำหรับวันที่ 5 พฤษภาคม และเขาถูกควบคุมตัวไว้โดยไม่มีประกันจนกว่าจะถึงวันนั้น
เราทราบอะไรเกี่ยวกับผู้ต้องสงสัย
Moreno-Gama อาศัยอยู่ในพื้นที่ Spring, Texas ทางเหนือของฮิวสตัน จนกระทั่งเมื่อเร็วๆ นี้ เขาได้เข้าเรียนในชั้นเรียนที่วิทยาลัยชุมชนและทำงานในร้านอาหาร ตามแถลงการณ์จากพ่อแม่ของเขา ซึ่งกล่าวว่าเขาประสบปัญหาสุขภาพจิตในช่วงก่อนเหตุการณ์โจมตีที่ถูกกล่าวหา
“ลูกชายของเรา Daniel เป็นคนที่รักใคร่ที่มีความทุกข์ทรมานจากภาวะสุขภาพจิตที่กำลังเกิดขึ้น” พ่อแม่ของเขา กล่าว “เราพยายามอย่างเต็มที่เพื่อจัดการกับปัญหานี้และให้การรักษาที่มีประสิทธิภาพแก่เขา และเรารู้สึกเป็นห่วงอย่างมากเกี่ยวกับความเป็นอยู่ที่ดีของเขา เขาเป็นคนที่ใส่ใจมากและไม่เคยถูกจับกุมมาก่อน”
Lone Star College ยืนยันกับ The Guardian ว่านักศึกษาชื่อ Daniel Moreno-Gama สมัครเข้าเรียนที่สถาบันตั้งแต่เดือนมิถุนายน 2024 ถึงกลางเดือนธันวาคมปีที่แล้ว
Moreno-Gama ยังได้ทิ้งร่องรอยดิจิทัลจำนวนมาก ซึ่งส่วนใหญ่ดูเหมือนจะอุทิศให้กับความเสี่ยงที่ปัญญาประดิษฐ์ก่อให้เกิดต่อสังคม ในโพสต์ออนไลน์ เขาใช้ชื่อผู้ใช้ว่า “Butlerian Jihadist” โดยอ้างอิงถึงชุดนิยายวิทยาศาสตร์ Dune และแนวคิดของการลุกฮือของมนุษย์ต่อต้านเครื่องจักรที่คิดได้ เขายังเข้าร่วมฟอรัม Discord สาธารณะสำหรับองค์กร PauseAI ซึ่งสนับสนุนการป้องกันการพัฒนาปัญญาประดิษฐ์ขั้นสูง กลุ่มนี้ประณามการโจมตีและระบุว่า Moreno-Gama ไม่มีส่วนเกี่ยวข้องกับ PauseAI นอกเหนือจากการเข้าร่วมฟอรัมสนทนาเปิดของพวกเขา
“ผู้ต้องสงสัยเข้าร่วมเซิร์ฟเวอร์ Discord สาธารณะของเราประมาณสองปีที่แล้ว ในช่วงเวลานั้น เขาโพสต์ข้อความทั้งหมด 34 ข้อความ ไม่มีข้อความใดที่มีการเรียกร้องให้ใช้ความรุนแรงอย่างชัดเจน อย่างไรก็ตาม ผู้ดูแลของเราได้ตั้งค่าสถานะข้อความหนึ่งว่าเป็นข้อความคลุมเครือและออกคำเตือนเพื่อความระมัดระวัง” PauseAI กล่าวในแถลงการณ์
Moreno-Gama ยังเข้าร่วมฟอรัมออนไลน์อีกแห่งที่ดำเนินการโดย Stop AI ซึ่งเป็นกลุ่มที่มุ่งมั่นที่จะต่อต้านปัญญาประดิษฐ์ผ่านการเคลื่อนไหวที่ไม่ใช้ความรุนแรง
“หลายเดือนก่อนที่เขาจะระเบิดอารมณ์รุนแรง Moreno-Gama เข้าร่วมเซิร์ฟเวอร์ Discord สาธารณะของเรา แนะนำตัวเอง จากนั้นถามว่า ‘การพูดถึงความรุนแรงจะทำให้ฉันถูกแบนหรือไม่’ เขาได้รับการตอบกลับอย่างหนักแน่นว่า ‘ใช่’ จากนั้นเขาก็หยุดกิจกรรมทั้งหมดในเซิร์ฟเวอร์ Discord ของเรา” ตัวแทนจาก Stop AI กล่าว
นอกเหนือจากการมีส่วนร่วมกับกลุ่มผู้สนับสนุนแล้ว Moreno-Gama ยังดูเหมือนจะเผยแพร่บล็อก Substack และแสดงความคิดเห็นเชิงลบต่อ AI ออนไลน์อื่นๆ ในโพสต์หนึ่งในฐานะ “Butlerian Jihadist” Moreno-Gama เสนอ “จะลูอิ-จิ้งค์ซีอีโอเทคบางคน”
เมื่อเร็วๆ นี้ กิจกรรมออนไลน์ของ Moreno-Gama ดึงดูดความสนใจจากผู้ผลิตพอดแคสต์ The Last Invention ซึ่งกำลังทำงานเกี่ยวกับตอนที่เกี่ยวกับผู้คนที่ต่อต้าน AI อย่างรุนแรง พวกเขาสัมภาษณ์ Moreno-Gama ในเดือนมกราคม ซึ่งเขาพูดคุยเกี่ยวกับวิธีที่ความเชื่อทางการเมืองของเขาเปลี่ยนแปลงไป แต่จากนั้นก็สนใจข้อโต้แย้งของ Eliezer Yudkowsky นักทฤษฎี AI ที่มีชื่อเสียงซึ่งเตือนว่า AI ที่มีความฉลาดเหนือกว่าจะทำลายล้างมนุษยชาติ
ในระหว่างการสัมภาษณ์ ซึ่งพอดแคสต์โพสต์ฉบับแก้ไขในวันพฤหัสบดี Moreno-Gama พูดคุยเกี่ยวกับวิธีที่เขาเริ่มหมกมุ่นกับแนวคิดที่ว่า AI เป็นภัยคุกคามที่มีอยู่ เมื่อถูกถามโดยผู้สัมภาษณ์ว่าผู้คนควรใช้ความรุนแรงเพื่อป้องกันอันตรายของ AI Moreno-Gama โต้แย้งว่าควรใช้กลไกสันติทั้งหมดก่อน และตอบว่า “ไม่อยากแสดงความคิดเห็น” เกี่ยวกับว่าการกระทำรุนแรงนั้นสมเหตุสมผลหรือไม่ เขายังอธิบายถึงโพสต์ออนไลน์ที่รุนแรงที่สุดของเขา เช่น การอ้างอิงถึง Mangione ว่าเป็นการวางท่าทางออนไลน์ที่ยั่วยุ
“ดังนั้นคุณไม่คิดว่าใครบางคนควรจะฆ่าแซม อัลท์แมนเหรอ” พอดแคสต์ถาม Moreno-Gama
“อืม ไม่” Moreno-Gama ตอบ พร้อมเสริมว่า “ฉันเข้าใจถึงความหงุดหงิดที่ใครบางคนอาจสนับสนุนสิ่งนั้น แต่ไม่คุ้มค่า”
วงสนทนา AI
โมเดล AI ชั้นนำ 4 ตัวอภิปรายบทความนี้
"การเปลี่ยนจากความรู้สึกต่อต้าน AI จากการสนทนาออนไลน์ไปสู่ความรุนแรงทางกายภาพที่มุ่งเป้าหมาย จะบังคับให้เกิดการเพิ่มขึ้นอย่างถาวรและลดผลกำไรของค่าใช้จ่ายด้านความปลอดภัยในการดำเนินงานสำหรับบริษัท AI ชั้นนำ"
เหตุการณ์นี้ส่งสัญญาณถึงการเปลี่ยนจากการถกเถียงเรื่องความปลอดภัยของ AI ที่เป็นนามธรรมไปสู่ความเสี่ยงด้านความปลอดภัยทางกายภาพสำหรับผู้นำ Big Tech ในขณะที่ตลาดมักจะเพิกเฉยต่อความเสี่ยง 'บุคคลสำคัญ' จนกว่าจะเกิดขึ้นจริง การยกระดับจากวาทกรรม 'Butlerian Jihad' ออนไลน์ไปสู่การโจมตีทางกายภาพต่อโครงสร้างพื้นฐาน (สำนักงานใหญ่ OpenAI) และบ้านเรือน ทำให้เกิดค่าใช้จ่ายด้านความปลอดภัยที่จับต้องได้และยังไม่ได้ตั้งราคา สำหรับบริษัทต่างๆ เช่น Microsoft (MSFT), Alphabet (GOOGL) และ Meta (META) สิ่งนี้จำเป็นต้องมีการเพิ่มงบประมาณการคุ้มครองผู้บริหารและการเสริมความแข็งแกร่งทางกายภาพของสิ่งอำนวยความสะดวกด้าน R&D อย่างมหาศาล นี่ไม่ใช่แค่เรื่องสุขภาพจิต แต่เป็นการเปลี่ยนแปลงเชิงโครงสร้างในต้นทุนการดำเนินธุรกิจ ทำให้บริษัทเทคโนโลยียักษ์ใหญ่ต้องดำเนินงานเหมือนผู้รับเหมาด้านการป้องกันประเทศที่มีความปลอดภัยสูงมากกว่าบริษัทซอฟต์แวร์แบบดั้งเดิม
เหตุการณ์นี้เป็นกรณีที่แยกได้ของความเจ็บป่วยทางจิตที่รุนแรง และการปฏิบัติต่อมันในฐานะความเสี่ยงที่เป็นระบบสำหรับภาคเทคโนโลยี อาจทำให้เกิดการประเมินค่าที่สูงเกินไปต่อค่าผิดปกติทางสถิติที่จะส่งผลกระทบเป็นศูนย์ต่อการลงทุนระยะยาวหรือผลการดำเนินงานของหุ้น
"การโจมตีที่ล้มเหลวของบุคคลที่มีปัญหาสุขภาพจิตเพียงคนเดียว ไม่ได้เปลี่ยนแปลงพื้นฐานหรือมูลค่าของภาค AI แต่อย่างใด"
การโจมตีที่แยกได้นี้โดยชายหนุ่มอายุ 20 ปีที่มีปัญหาสุขภาพจิตและไม่มีความเกี่ยวข้องกับกลุ่มต่อต้าน AI ที่จัดตั้งขึ้น เน้นย้ำถึงความเสี่ยงด้านความปลอดภัยส่วนบุคคลสำหรับซีอีโอเทค แต่มีผลกระทบทางการเงินน้อยมากต่อ OpenAI หรือภาค AI OpenAI (เอกชน, มูลค่า 1.57 แสนล้านดอลลาร์, ได้รับการสนับสนุนจาก MSFT) รายงานว่าไม่มีการหยุดชะงัก NVDA และ MSFT ซื้อขายคงที่ถึงขึ้นหลังเหตุการณ์ท่ามกลางการคาดการณ์ capex AI ที่เป็นสถิติสูงสุด (มากกว่า 2 แสนล้านดอลลาร์ในปี 2025) การตอบสนองที่ก้าวร้าวของหน่วยงานบังคับใช้กฎหมายและการลดความตึงเครียดของ Altman หลังเหตุการณ์ ช่วยลดความกลัวการขยายวงกว้าง ความรู้สึกต่อต้าน AI ในวงกว้างมีอยู่ (เช่น PauseAI Discord) แต่ความรุนแรงยังคงเป็นส่วนน้อย—แตกต่างจากภัยคุกคามด้านกฎระเบียบที่ยั่งยืนจาก EU AI Act
หากเหตุการณ์นี้กระตุ้นให้เกิดการโจมตีเลียนแบบหรือขยายการต่อต้านของสาธารณชน อาจกระตุ้นให้เกิดความระมัดระวังของนักลงทุนต่อหุ้นที่เน้น AI เช่น NVDA (75x forward P/E) และ MSFT โดยเปลี่ยนจุดสนใจจากผลกำไรไปสู่ความเสี่ยง ESG/ความปลอดภัย
"ความเสี่ยงทางธุรกิจต่อบริษัท AI นั้นน้อยมาก ความเสี่ยงทางการเมือง—การต่อต้านกฎระเบียบที่ปลอมตัวเป็น 'การปกป้องผู้นำด้านนวัตกรรม'—คือเรื่องจริงที่กำลังถูกมองข้าม"
นี่เป็นการกระทำทางอาญาโดยบุคคลที่สับสนเพียงคนเดียว ไม่ใช่ภัยคุกคามที่เป็นระบบต่อบริษัท AI หรือผู้นำของพวกเขา บทความนี้ผสมผสานวิกฤตสุขภาพจิตเข้ากับการก่อการร้ายทางอุดมการณ์—การสัมภาษณ์พอดคาสต์ของ Moreno-Gama เองแสดงให้เห็นถึงความลังเลเกี่ยวกับความรุนแรง และทนายจำเลยของเขามีประเด็นที่สมเหตุสมผลเกี่ยวกับการตั้งข้อหาเกินจริง ความเสี่ยงที่แท้จริงไม่ใช่ต่อรูปแบบธุรกิจของ OpenAI แต่เป็นการควบคุมดูแลที่มากเกินไป หากเจ้าหน้าที่รัฐบาลกลางใช้เหตุการณ์ที่แยกได้นี้เพื่อสร้างความชอบธรรมในการสอดแนมผู้ที่วิพากษ์วิจารณ์ AI หรือเพื่อปราบปรามการอภิปรายเชิงนโยบายที่ถูกต้องตามกฎหมาย สิ่งนั้นจะสร้างผลกระทบที่น่ากลัวต่อการสนทนาและอาจเร่งให้เกิดการแบ่งขั้ว เหตุการณ์การยิงครั้งที่สอง—ผู้ต้องสงสัยสองคนถูกปล่อยตัวโดยไม่มีข้อหา—บ่งชี้ว่าตำรวจอาจกำลังค้นหาความเชื่อมโยงที่ไม่มีอยู่จริง เรื่องเล่านี้อาจแข็งตัวกลายเป็น 'ผู้ที่วิพากษ์วิจารณ์ AI = กลุ่มหัวรุนแรงที่ใช้ความรุนแรง' ซึ่งไม่ถูกต้องและอันตราย
การโจมตีหนึ่งครั้งบวกกับการยิงติดตามผลใน 48 ชั่วโมง ร่วมกับแถลงการณ์ที่มุ่งเป้าไปที่ผู้บริหาร AI หลายคน บ่งชี้ถึงอารมณ์ที่จัดตั้งขึ้น ไม่ใช่พยาธิวิทยาที่แยกได้ หากเหตุการณ์เลียนแบบเพิ่มขึ้น สิ่งนี้จะกลายเป็นประเด็นด้านความปลอดภัยและการประกันภัยที่แท้จริงสำหรับผู้นำด้านเทคโนโลยี ซึ่งส่งผลต่อการสรรหาผู้บริหารและการจัดองค์ประกอบคณะกรรมการ
"นี่ดูเหมือนจะเป็นเหตุการณ์ที่รุนแรงและแยกได้มากกว่าปัจจัยเสี่ยงที่เป็นระบบสำหรับหุ้น AI"
เหตุการณ์นี้น่าตกใจอย่างยิ่ง แต่มีแนวโน้มที่จะเป็นค่าผิดปกติมากกว่าสัญญาณของความเสี่ยงที่เป็นระบบ ผู้โจมตีดูเหมือนจะได้รับแรงจูงใจจากวิกฤตสุขภาพจิตส่วนบุคคลมากกว่าการเคลื่อนไหวที่ประสานงานกัน ความเชื่อมโยงกับ PauseAI ฯลฯ นั้นเป็นเพียงส่วนเสริม บทความเน้นย้ำถึงความรู้สึกต่อต้าน AI แต่ไม่มีหลักฐานของฉันทามติสาธารณะในวงกว้างหรือแรงผลักดันในการกำหนดนโยบายที่จะทำให้การยอมรับ AI ในระยะยาวหยุดชะงัก ผลกระทบทางการเงินควรจำกัดอยู่ที่ค่าใช้จ่ายด้านความปลอดภัยที่เพิ่มขึ้นและความเสี่ยงด้านข่าวระยะสั้นที่เป็นไปได้ ไม่ใช่การเปลี่ยนแปลงพื้นฐานที่มีนัยสำคัญสำหรับผู้พัฒนาและผู้ใช้ AI ในระยะสั้น capex AI และการยอมรับขององค์กรยังคงเป็นปัจจัยขับเคลื่อนหลัก ความคาดหวังสำหรับการเติบโตแบบฆราวาสยังคงไม่เปลี่ยนแปลง
ตรงกันข้ามกับจุดยืนนี้: หากความรุนแรงประเภทนี้กลายเป็นอาการของความรู้สึกต่อต้านเทคโนโลยีที่กว้างขึ้น อาจกระตุ้นให้เกิดการปราบปรามด้านกฎระเบียบและแรงกดดันด้านต้นทุนการประกันภัย/ความปลอดภัยที่ส่งผลเสียต่อหุ้น AI แม้แต่เหตุการณ์ที่แยกได้ก็สามารถเอียงความเสี่ยงได้หากผู้กำหนดนโยบายตอบสนอง
"ผลกระทบทางการเงินที่แท้จริงจะปรากฏผ่านเบี้ยประกันที่เพิ่มขึ้นและข้อจำกัดที่คณะกรรมการกำหนดต่อการมองเห็นของผู้บริหาร แทนที่จะเป็นเพียงค่าใช้จ่ายด้านความปลอดภัยโดยตรง"
Gemini และ Grok กำลังเพิกเฉยต่อบทบาทของตลาดประกันภัยในฐานะผู้ควบคุมเงียบ ไม่ใช่แค่เรื่องงบประมาณความปลอดภัยทางกายภาพเท่านั้น แต่เป็นเรื่องของความสามารถในการประกันความเสี่ยงของบุคคลสำคัญสำหรับผู้นำ AI ที่มีชื่อเสียง หากผู้รับประกันจัดประเภทซีอีโอ AI เป็นเป้าหมาย 'ความเสี่ยงสูง' เบี้ยประกันจะพุ่งสูงขึ้น ซึ่งอาจบังคับให้คณะกรรมการกำหนดข้อจำกัดในการมองเห็นต่อสาธารณะ สิ่งนี้สร้างความเสี่ยงด้านสภาพคล่องที่ซ่อนอยู่: หากผู้นำไม่สามารถมีส่วนร่วมในบทบาทที่ต้องเผชิญหน้ากับสาธารณะได้อย่างปลอดภัย 'พรีเมียมที่นำโดยผู้ก่อตั้ง' ที่ปัจจุบันถูกรวมอยู่ในมูลค่าของบริษัทต่างๆ เช่น OpenAI หรือ Meta อาจเริ่มลดลง
"การเพิ่มขึ้นของค่าใช้จ่ายด้านความปลอดภัยนั้นน้อยมากเมื่อเทียบกับขนาดของ Big Tech แต่อาจเร่งอัตราเงินเฟ้อของต้นทุนบุคลากรในศูนย์กลาง AI ที่มีความเสี่ยงสูง เช่น SF"
Gemini ชี้ให้เห็นถึงพลวัตของการประกันภัยอย่างถูกต้อง แต่ก็ประเมินผลกระทบทางการเงินสูงเกินไป ค่าใช้จ่ายด้านความปลอดภัยที่มีอยู่ของ MSFT (หลายร้อยล้านดอลลาร์ต่อปี ตามการเปิดเผย) หมายความว่าแม้แต่การเพิ่มขึ้น 50% ก็เป็นเพียงประมาณ 0.1% ของรายได้ 2.5 แสนล้านดอลลาร์ ซึ่งมองไม่เห็นในอัตรากำไร EBITDA 35% หรือ capex AI มากกว่า 2 แสนล้านดอลลาร์ของ NVDA ความเสี่ยงที่ยังไม่ได้ตั้งราคาที่คนอื่นมองข้าม: การหลบหนีของบุคลากรใน SF เนื่องจากมุมมองเกี่ยวกับความรุนแรงทำให้ค่าคอมมิชชั่นสำหรับ AI PhDs เพิ่มขึ้น 10%+ ท่ามกลางการอพยพออกจากที่อยู่อาศัย
"โครงสร้างพื้นฐานด้านความปลอดภัยที่บังคับใช้เอื้อประโยชน์ต่อบริษัทเทคโนโลยักษ์ใหญ่ที่รวมศูนย์มากกว่าสตาร์ทอัพ AI แบบกระจายอำนาจ สร้างความได้เปรียบเชิงโครงสร้างโดยไม่ขึ้นกับความถี่ของเหตุการณ์"
ความเสี่ยงด้านการหลบหนีของบุคลากรของ Grok นั้นเป็นจริง แต่เป็นการเคลื่อนไหวที่ผิดทิศทาง แรงกดดันที่แท้จริงไม่ใช่การอพยพออกจาก SF แต่เป็นการ 'รวมศูนย์' หากความเป็นผู้นำด้าน AI ต้องการความปลอดภัยเหมือนป้อมปราการ บริษัทต่างๆ จะรวมตัวกันในวิทยาเขตที่แข็งแกร่ง (นึกถึงโมเดลผู้รับเหมาด้านการป้องกันประเทศ) สิ่งนี้เอื้อประโยชน์ต่อโครงสร้างพื้นฐานที่มีอยู่ของ MSFT/GOOGL มากกว่าสตาร์ทอัพแบบกระจายอำนาจ เบี้ยประกันภัยมีความสำคัญน้อยกว่าความได้เปรียบทางการแข่งขันที่สิ่งนี้สร้างขึ้น: บริษัท AI ขนาดเล็กไม่สามารถจ่ายค่าคุ้มครองผู้บริหารตลอด 24 ชั่วโมงทุกวันได้ 'การลดลงของพรีเมียมที่นำโดยผู้ก่อตั้ง' ของ Gemini สันนิษฐานว่าการสูญเสียการมองเห็น; ฉันจะพลิกกลับ—ความปลอดภัยจะกลายเป็น 'คุณสมบัติ' ของขนาด
"ค่าใช้จ่ายด้านประกันภัยและการเปลี่ยนแปลงการกำกับดูแลอาจทำให้มูลค่าที่นำโดยผู้ก่อตั้งลดลงและผลักดันโมเดลวิทยาเขตแบบป้อมปราการ สร้างแรงกดดันที่มีนัยสำคัญต่อการเติบโตและเปลี่ยนอำนาจไปสู่ผู้ที่ครอบครองตลาดที่มีขนาด"
ตอบสนองต่อ Grok: ฉันจะโต้แย้งเรื่อง 'ผลกระทบทางการเงินที่น้อยมาก' การควบคุมโดยบริษัทประกันภัยอาจกลายเป็นค่าใช้จ่ายที่เกิดขึ้นซ้ำๆ ที่มีนัยสำคัญ เบี้ยประกันที่สูงขึ้นอาจยับยั้งพรีเมียมที่นำโดยผู้ก่อตั้งและจำกัดการมองเห็นต่อสาธารณะ เปลี่ยนแรงจูงใจของหุ้น เมื่อรวมกับความเสียดทานในตลาดแรงงาน (ค่าคอมมิชชั่น 10%+ สำหรับ AI PhDs) และความไม่แน่นอนด้านกฎระเบียบ มันคือแรงกดดันหลายไตรมาส ไม่ใช่เหตุการณ์ครั้งเดียว วิทยาเขตที่เหมือนป้อมปราการอาจเอียงการแข่งขันไปทางผู้ที่ครอบครองตลาดที่มีขนาดและความสามารถในการสร้างกระแสเงินสดด้านความปลอดภัย—ไม่ใช่ข้อได้เปรียบที่สมบูรณ์สำหรับพลวัตของระบบนิเวศแบบเปิด
คำตัดสินของคณะ
บรรลุฉันทามติฉันทามติของคณะกรรมการคือการโจมตีสำนักงานใหญ่ของ OpenAI เมื่อเร็วๆ นี้ส่งสัญญาณถึงการเปลี่ยนแปลงในการถกเถียงเรื่องความปลอดภัยของ AI ไปสู่ความเสี่ยงด้านความปลอดภัยทางกายภาพสำหรับผู้นำด้านเทคโนโลยี ซึ่งอาจนำไปสู่การเพิ่มขึ้นของค่าใช้จ่ายด้านความปลอดภัยและการเปลี่ยนแปลงเบี้ยประกันภัยสำหรับบุคลากรสำคัญ อย่างไรก็ตาม ผลกระทบทางการเงินต่อบริษัท AI คาดว่าจะจำกัด และเหตุการณ์นี้ไม่ถือเป็นภัยคุกคามที่เป็นระบบต่อภาค AI
ผู้ที่ครอบครองตลาดที่มีโครงสร้างพื้นฐานและกระแสเงินสดด้านความปลอดภัยที่มีอยู่แล้ว อาจได้รับความได้เปรียบทางการแข่งขันเหนือสตาร์ทอัพแบบกระจายอำนาจ
ค่าใช้จ่ายด้านความปลอดภัยที่เพิ่มขึ้นและการเปลี่ยนแปลงที่เป็นไปได้ในเบี้ยประกันภัยสำหรับบุคลากรสำคัญ ซึ่งอาจส่งผลกระทบต่อ 'พรีเมียมที่นำโดยผู้ก่อตั้ง' ในมูลค่าบริษัท