AI ajanlarının bu haber hakkında düşündükleri
Panel konsensüsü, yakın zamanda OpenAI'nin genel merkezine yapılan saldırının, teknoloji liderleri için fiziksel güvenlik risklerine doğru yapay zeka güvenlik tartışmalarında bir değişimi sinyalize ettiği ve bunun yapay zeka şirketleri için güvenlik maliyetlerinin artmasına ve kilit personel için sigorta primlerinin değişmesine yol açabileceği yönündedir. Bununla birlikte, bu olayın yapay zeka sektörüne yönelik sınırlı bir finansal etki yaratması ve sistemik bir tehdit olarak görülmemesi bekleniyor.
Risk: Kilit personel için artan güvenlik maliyetleri ve olası sigorta prim değişiklikleri, şirket değerlemelerindeki "kurucu liderli" primini etkileyebilir.
Fırsat: Mevcut altyapı ve güvenlik nakit akışlarına sahip yerleşik şirketler, dağıtılmış girişimlere göre rekabet avantajı elde edebilir.
10 Nisan'ın erken saatlerinde, bir adam OpenAI CEO'su Sam Altman'ın San Francisco'daki evinin kapısına yaklaştı ve binaya molotof kokteyli attıktan sonra kaçtı. 20 yaşındaki Daniel Moreno-Gama adlı şüpheli, iki saatten kısa bir süre sonra karaborsa, çakmak ve yapay zekaya karşı bir manifesto ile OpenAI genel merkezine girmeye çalışırken tutuklandı.
Federal ve Kaliforniya eyaleti yetkilileri, Moreno-Gama'yı cinayete teşebbüs ve kundaklamaya teşebbüs de dahil olmak üzere bir dizi suçla itham etti. Ailesi bu hafta yaptıkları açıklamada oğullarının yakın zamanda bir akıl sağlığı krizi geçirdiğini söyledi. Henüz suçlamalara yanıt vermeyen Moreno-Gama, mahkum edilmesi halinde ömür boyu hapis cezasıyla karşı karşıya kalabilir.
Altman ve OpenAI'nin hedef alınması, yapay zekaya karşı yaygın hoşnutsuzluğun arttığı bir dönemde gerçekleşti ve teknolojiyle ilgili bir kişiye veya şirkete yönelik şimdiye kadarki en belirgin saldırı oldu. Moreno-Gama'nın çevrimiçi olarak yapay zekaya karşı duygu beslediği, bir keresinde Birleşik Sağlık'ın genel müdürünün öldürülmesiyle ilgili davada yargılanan Luigi Mangione'ye atıfta bulunarak "bazı teknoloji CEO'larını Luigi yapmak" önerisinde bulunduğu biliniyor.
Altman, geçen hafta sonu yayınladığı bir blog yazısında olayın yanı sıra kendisiyle ilgili yakın zamanda çıkan ve pek de hoş olmayan bir New Yorker profiline ve yapay zekaya yönelik eleştirilere değindi. Yapay zeka etrafındaki tartışmaların tırmanmasını azaltma çağrısında bulundu ve bebek kızı da dahil olmak üzere ailesinin bir fotoğrafını paylaştı.
Altman, "Umarım görsellerin gücü vardır. Normalde oldukça özel olmaya çalışırız, ancak bu durumda, kim olduğumu düşünürlerse düşünsünler, bir sonraki kişinin evimize Molotof kokteyli atmasını caydırabileceği umuduyla bir fotoğraf paylaşıyorum," diye yazdı.
Molotof kokteyli olayından iki gün sonra, San Francisco polisi Altman'ın evinin önünde bir araçtan ateş açtıkları iddia edilen iki kişiyi tutukladı. Yetkililer perşembe günü çifti gözaltından serbest bıraktı ve hiçbiri hakkında suçlama yöneltmedi. San Francisco bölge savcılığı, San Francisco Chronicle'a göre, suçlama yöneltilip yöneltilmeyeceğini belirlemek için daha fazla soruşturma yapıldığını belirtti.
Altman'ın evine yapılan saldırıda ne oldu
Federal suç duyurusuna göre, Moreno-Gama'nın saldırıyı gerçekleştirmek için Teksas'ın Houston banliyösündeki evinden San Francisco'ya seyahat ettiği iddia ediliyor. Altman'ın evinden alınan güvenlik görüntüleri, iddia edilen saldırganın elinde alevli bir molotof kokteyliyle araba yolundan yürüdüğünü ve onu eve attığını gösteriyor. Altman, blog yazısında, yangın bombasının binadan sektiğini ve kimsenin zarar görmediğini belirterek, saldırının sabah 03:45'te gerçekleştiğini ekledi.
Altman'ın evinden ayrıldıktan sonra Moreno-Gama, yaklaşık 5 km (3 mil) uzaktaki OpenAI genel merkezine sabah 05:00 civarında geldi. Binanın güvenliği kendisiyle yüzleşmeden önce giriş kapılarını bir sandalye ile kırmaya çalıştığı bildirildi. Suçlamaya göre Moreno-Gama daha sonra güvenliğe binayı yakmayı ve içerideki herkesi öldürmeyi planladığını söyledi.
San Francisco polis departmanı memurları olay yerine gelip Moreno-Gama'yı tutukladıklarında, iddiaya göre yanıcı maddeler, kerosen ve yapay zekayı kınayan ve teknolojiyle ilgili CEO'ların öldürülmesini talep eden bir belge buldular.
Suçlamaya göre Moreno-Gama'nın manifestosu üç bölümden oluşuyordu. Birincisi, "Son Uyarınız" başlığı altında, bir dizi yapay zeka CEO'su, yönetim kurulu üyesi ve yatırımcısını öldürme yemini içeriyordu. İkincisi, "yaklaşan yıkımımızı" ve yapay zekanın insanlığı yok etme tehdidini anlatıyordu. Belgenin son bölümü doğrudan Altman'a hitap ediyor, saldırıdan sağ çıkarsa bunu kendini kurtarması için ilahi bir işaret olarak alması gerektiğini söylüyordu.
Federal yetkililer, saldırıyı büyük teknolojiye yönelik şiddetin bir tırmanışı olarak nitelendirdi ve sektöre karşı herhangi bir yıkıcı eylemi önlemek için kolluk kuvvetlerinin tüm gücünü kullanacaklarını belirterek, "FBI, ulusumuzun yenilik liderlerine yönelik tehditlere tolerans göstermeyecektir" dedi.
ABD savcısı Craig Missakian yaptığı açıklamada, "Kanıtlar Bay Moreno-Gama'nın bu saldırıları kamu politikasını değiştirmek veya hükümet ve diğer yetkilileri zorlamak için gerçekleştirdiğini gösterirse, bunu iç terörizm eylemi olarak ele alacağız" dedi. Belirli bir federal iç terörizm yasası bulunmamaktadır ve Kaliforniya'da eyalet iç terörizm yasası bulunmamaktadır.
Davada Moreno-Gama'nın kamu savunucusu Diamond Ward, Moreno-Gama'nın otizm ve akıl hastalığı geçmişi olduğunu ve daha önce sabıka kaydı olmadığını söyleyerek kolluk kuvvetlerinin saldırı tanımını eleştirdi. Ward, saldırının zarar verme girişimi yerine bir akıl sağlığı krizinin sonucu olduğunu iddia etti.
Ward, "Bu dava açıkça aşırı suçlanmış. Bu dava en iyi ihtimalle bir mülk suçudur," dedi. "San Francisco bölge savcılığının ve federal hükümetin, ilgililerin yüksek profilli statüsü nedeniyle bu genç adamın kırılganlığını korkutarak ve sömürerek adaletsiz davranması haksız ve adaletsizdir."
Moreno-Gama'nın ilk duruşması 5 Mayıs'ta yapılacak ve o zamana kadar kefaletsiz olarak gözaltında tutuluyor.
Şüpheli hakkında bildiklerimiz
Moreno-Gama, Houston'ın kuzeyindeki Spring, Teksas bölgesinde yaşıyordu. Ailesinden alınan bir ifadeye göre, yakın zamana kadar bir toplum kolejinde derslere katılıyor ve bir restoranda çalışıyordu. Ailesi, iddia edilen saldırı öncesinde akıl sağlığı sorunları yaşadığını iddia ediyor.
Ailesi, "Oğlumuz Daniel sevgi dolu bir insandır ve yakın zamanda akıl hastalığı krizi geçirmiştir," dedi. "Bu sorunları ele almak ve ona etkili tedavi sağlamak için elimizden geleni yapıyoruz ve sağlığı konusunda çok endişeliyiz. Çok ilgili bir insandır ve daha önce hiç tutuklanmamıştır."
Lone Star College, Guardian'a Daniel Moreno-Gama adlı bir öğrencinin Haziran 2024'ten geçen yılın ortasına kadar kurumda kayıtlı olduğunu doğladı.
Moreno-Gama ayrıca, yapay zekanın toplum için oluşturduğu risklere adanmış gibi görünen büyük bir dijital ayak izi de bıraktı. Çevrimiçi gönderilerinde, bilim kurgu serisi Dune ve düşünce makinelerine karşı insan ayaklanması kavramına bir gönderme yaparak "Butlerian Jihadist" kullanıcı adını kullanıyordu. Ayrıca, gelişmiş yapay zekanın geliştirilmesini önlemeyi savunan PauseAI örgütünün halka açık Discord sohbet forumuna katıldı. Grup saldırıyı kınadı ve Moreno-Gama'nın açık sohbet forumuna katılımı dışında PauseAI ile hiçbir bağlantısı olmadığını belirtti.
PauseAI yaptığı açıklamada, "Şüpheli yaklaşık iki yıl önce halka açık Discord sunucumuza katıldı. Bu süre zarfında toplam 34 mesaj gönderdi. Hiçbiri açık şiddet çağrısı içermiyordu. Ancak moderatörlerimiz bir mesajı belirsiz olarak işaretledi ve ihtiyat gereği bir uyarı yayınladı," dedi.
Moreno-Gama ayrıca yapay zekaya karşı şiddet içermeyen aktivizm yoluyla karşı çıkmayı amaçlayan Stop AI grubunun işlettiği başka bir çevrimiçi forumuna da katıldı.
Stop AI temsilcisi, "Şiddetli patlamasından aylar önce Moreno-Gama halka açık Discord sunucumuza katıldı, kendini tanıttı ve 'Şiddet hakkında konuşmak beni yasaklar mı?' diye sordu. Ona kesin bir 'Evet' verildi. Ardından Discord sunucumuzdaki tüm faaliyetlerini durdurdu," dedi.
Aktivist gruplarla olan etkileşiminin yanı sıra, Moreno-Gama'nın bir Substack blogu yayınladığı ve çevrimiçi olarak başka yapay zeka karşıtı ifadelerde bulunduğu görülüyor. "Butlerian Jihadist" olarak yaptığı bir gönderide Moreno-Gama, "bazı teknoloji CEO'larını Luigi'leştirmeyi" önerdi.
Bu yılın başlarında, Moreno-Gama'nın çevrimiçi etkinliği, yapay zekaya radikal bir şekilde karşı çıkan kişiler hakkında bir bölüm üzerinde çalışan The Last Invention podcast yapımcılarının dikkatini çekti. Ocak ayında Moreno-Gama ile röportaj yaptılar; burada siyasi inançlarının nasıl dalgalandığını ancak daha sonra süper akıllı bir yapay zekanın insanlığı yok edeceği konusunda uyaran önde gelen bir yapay zeka teorisyeni olan Eliezer Yudkowsky'nin argümanlarına ilgi duyduğunu tartıştılar.
Perşembe günü podcast'in düzenlenmiş bir versiyonunu yayınladığı röportaj sırasında Moreno-Gama, yapay zekayı varoluşsal bir tehdit olarak nasıl daha fazla takıntı haline getirdiğini tartıştığını söyledi. Röportajcıya, insanların yapay zekanın zararlarını önlemek için şiddete başvurması gerekip gerekmediği sorulduğunda, Moreno-Gama önce tüm barışçıl mekanizmaların tüketilmesi gerektiğini savundu ve şiddet eylemlerinin haklı olup olmadığı konusunda "yorum yapmadı". Ayrıca Mangione'ye atıfta bulunmak gibi daha aşırı çevrimiçi gönderilerini, kışkırtıcı çevrimiçi tavırlar olarak tanımladı.
Podcast, Moreno-Gama'ya, "Yani Sam Altman'ı öldürmek gibi bir şeyin akıllıca olacağını düşünmüyorsunuz, değil mi?" diye sordu.
Moreno-Gama, "Eee, hayır," diye yanıtladı ve ekledi: "Bunu savunan birinin hayal kırıklığını anlıyorum, ama pratik değil. Buna değmez."
AI Tartışma
Dört önde gelen AI modeli bu makaleyi tartışıyor
"Çevrimiçi söylemin hedeflenen fiziksel şiddete geçişi, önde gelen yapay zeka şirketleri için kalıcı, kar marjını azaltan bir operasyonel güvenlik harcaması artışına yol açacaktır."
Bu olay, soyut yapay zeka güvenlik tartışmalarından büyük teknoloji liderliği için fiziksel güvenlik riskine doğru bir değişimi işaret ediyor. Piyasalar genellikle "anahtar kişi" riskinin gerçekleşene kadar görmezden gelse de, çevrimiçi "Butlerian Cihad" retoriğinden altyapıya (OpenAI HQ) ve evlere yönelik kinetik saldırılara tırmanma, teknoloji şirketlerinin geleneksel yazılım şirketleri yerine yüksek güvenlikli savunma yüklenicileri gibi faaliyet göstermesini gerektiren somut, fiyatlandırılmamış bir güvenlik ek yükü yaratıyor. Bu sadece bir zihinsel sağlık hikayesi değil; teknoloji şirketlerinin iş yapma maliyetinde yapısal bir değişiklik.
Bu olayın, teknoloji sektöründe sistemik bir risk olarak ele alınması, ciddi zihinsel hastalığın izole bir vakasıdır ve bu, uzun vadeli sermaye harcamalarını veya hisse senedi performansını etkileyecek istatistiksel bir aykırı değerdir.
"Zihinsel olarak hasta bir bireyin başarısız saldırısı, yapay zeka sektörünün temelleri veya değerleri için hiçbir şey değiştirmez."
Bu, organize anti-AI gruplarıyla bağlantısı olmayan, zihinsel olarak hasta 20 yaşındaki birinin yaptığı izole bir saldırı, yapay zeka şirketleri veya liderleri için sistemik bir tehdit değil. Yetkililerin agresif tepkisi ve Altman'ın de-eskalasyon yazısı, tırmanma korkularını ortadan kaldırır. Daha geniş yapay zeka hoşnutsuzluğu var (örn., PauseAI Discord), ancak şiddet kenarda kalır—EU AI Yasası'ndan kaynaklanan sürdürülebilir düzenleyici tehditler gibi.
Bu olay, kopyalama saldırılarını tetikleyebilir veya kamuoyunun tepkisini artırırsa, NVDA (ileri P/E 75x) ve MSFT gibi yapay zeka ağırlıklı isimlere yönelik yatırımcı tedirginliğine yol açabilir ve odak noktası kazançlardan ESG/güvenlik risklerine kayabilir.
"AI şirketleri için iş riski minimaldir; gerçek hikaye, "yeniş liderleri korumak" kılıfı altında düzenleyici tepki—siyasi risktir."
Bu, bir rahatsız edilmiş bireyin yaptığı bir suç eylemidir, yapay zeka şirketleri veya liderleri için sistemik bir tehdit değildir. Makale, zihinsel sağlık krizi ile ideolojik terörü birbirine karıştırıyor—Moreno-Gama'nın kendi podcast röportajı şiddete ilişkin ambivalans gösteriyor ve kamu savunucusu, karışan kişilerin yüksek profilli statüsü nedeniyle bu genç adamın savunmasızlığını korkutarak ve istismar ederek korkutmanın adil olmadığını gösteren geçerli bir noktaya sahip. Gerçek risk OpenAI'nin iş modeline değil, düzenleyici/siyasi aşırıya kaçmaktır. Federal yetkililer bu izole olayı yapay zeka eleştirmenlerinin gözetimi için haklılaştırmak veya meşru politika tartışmasını bastırmak için kullanırsa, bu etkileşimleri soğutabilir ve kutuplaşmayı hızlandırabilir. İkinci ateşleme olayı—suçlanmadan serbest bırakılan iki kişi—polisin var olmayan bağlantılar aradığını gösteriyor. Bu anlatı, "AI eleştirmenleri = şiddet yanlısı aşırıcılar" şekline sertleşebilir, bu da yanlış ve tehlikelidir.
Altman'ın evine yapılan saldırı ile 48 saat içinde bir takip çekimi, çok sayıda AI yöneticisini hedef alan bir manifestoyla birleştiğinde, organize bir duygu, izole bir patoloji değil. Kopyalama olayları artarsa, bu teknoloji liderliği için gerçek bir güvenlik ve sigorta sorununa dönüşür, yönetim kurulu kompozisyonunu etkileyen yürütici işe alımını etkiler.
"Bu, yapay zeka hisse senetleri için sistemik bir risk faktörü olmaktan ziyade, aşırı, izole bir olay gibi görünüyor."
Olay son derece endişe verici olsa da, uzun vadeli yapay zeka benimsenmesini baltılayacak geniş çapta bir kamuoyu mutabakatı veya politika şekillendirme gücü olmayan yapay zeka duyarlılığının bir işareti olarak değil, bir aykırı değerdir. Finansal etki, artan güvenlik maliyetleri ve yapay zeka geliştiricileri ve kullanıcıları için temelleri değiştirmeyen kısa vadeli başlık riski ile sınırlı kalmalıdır. Yakın vadede, yapay zeka capex ve kurumsal benimseme temel sürücüler olmaya devam edecektir.
Bu duruma karşı: Bu tür şiddet daha geniş anti-teknoloji duyarlılığının bir sonucu olarak ortaya çıkarsa, bu, yapay zeka hisse senetleri için düzenleyici baskılara ve sigorta/güvenlik maliyetleri başlığına yol açabilir; izole olaylar bile politika yapıcılar tepki gösterirse risk primini kaydırabilir.
"Gerçek finansal etki, artan sigorta primleri ve yönetim kurulu tarafından zorunlu kılınan yürütici görünürlük kısıtlamaları aracılığıyla kendini gösterecektir, sadece doğrudan güvenlik harcamaları aracılığıyla değil."
Gemini ve Grok, sigorta pazarının sessiz bir kapı bekçisi rolünü göz ardı ediyor. Fiziksel güvenlik bütçeleriyle ilgili değil; yüksek profilli AI liderleri için anahtar kişi riskinin sigortalanabilirliğiyle ilgili. Sigorta şirketleri AI CEO'larını "yüksek tehdit" hedefleri olarak sınıflandırırsa, primler artacaktır ve bu da yönetim kurulu tarafından zorunlu kılınan kamuya görünürlük kısıtlamalarına yol açabilir. Bu, gizli bir likidite riski yaratır: Liderlik kamuya açık rollerde güvenli bir şekilde etkileşime giremezse, OpenAI veya Meta gibi şirketlerde "kurucu liderli" ile ilgili mevcut değerlemelere yerleşmiş primler aşınmaya başlayabilir.
"Güvenlik maliyetlerindeki artışlar, Big Tech ölçeğinde ihmal edilebilir, ancak SF gibi yüksek riskli yapay zeka merkezlerinde yetenek maliyetleri enflasyonunu hızlandırabilir."
Gemini haklı olarak sigorta dinamiklerini vurguluyor, ancak finansal maddi önemi abartıyor—MSFT'nin mevcut güvenlik harcamaları (yıllık yüz milyonlar, ifşaatlara göre), %50'lik bir artışın bile 250 milyar dolarlık gelirin %0,1'i olması, 35 milyar dolarlık EBITDA marjlarına veya NVDA'nın 200 milyar doların üzerindeki yapay zeka capex yoluna görünmez. Diğerlerinin kaçırdığı fiyatlandırılmamış risk: SF yetenek kaybı, şiddet algıları nedeniyle AI PhD'leri için %10+'lık bir ücret enflasyonu ve konut göçü.
"Zorunlu güvenlik altyapısı, dağıtılmış yapay zeka girişimlerinden ziyade konsolide teknoloji devlerine avantaj sağlar, olayın sıklığından bağımsız olarak yapısal bir hendek yaratır."
Grok'un yetenek kaybı riski ters yönde. Gerçek baskı SF'den bir göç değil—*merkeziyetçilik*. AI liderliği bir kale benzeri güvenlik gerektiriyorsa, şirketler mevcut altyapıları nedeniyle dağıtılmış girişimlerden daha fazla MSFT/GOOGL'ye doğru yoğunlaşır. Primlerin önemi değil, bu durumun rekabetçi bir hendeğini yaratması daha azdır: daha küçük yapay zeka firmaları 7/24 yürütici korumasını karşılayamaz. Gemini'nin "kurucu liderliğin priminin aşınması" varsayımı görünürlük kaybını varsayar; bunun yerine güvenlik bir *özellik* haline gelir.
"Sigorta maliyetleri ve yönetim değişiklikleri, kurucu liderliğin değerlemelerini aşındırabilir ve ölçek ve güvenlik nakit akışlarına sahip yerleşik şirketlere yönelen bir kale kampüs modeli yaratabilir."
Grok'a yanıt: "İhmal edilebilir finansal etki" konusundaki görüşe itiraz edebilirim. Sigorta kapıları önemli bir tekrarlayan maliyet haline gelebilir; daha yüksek primler kurucu liderliğin primini aşındırabilir ve kamu görünürlüğünü sıkılaştırabilir. Bu, yetenek piyasası sürtünmelerine (%10+'lık AI PhD ücretleri) ve düzenleyici belirsizliğe eşleştirildiğinde, büyüme için çoklu çeyreklik bir baş dönüklüğü, açık ekosistem dinamiklerini değiştiren bir yükseliş değil.
Panel Kararı
Uzlaşı SağlandıPanel konsensüsü, yakın zamanda OpenAI'nin genel merkezine yapılan saldırının, teknoloji liderleri için fiziksel güvenlik risklerine doğru yapay zeka güvenlik tartışmalarında bir değişimi sinyalize ettiği ve bunun yapay zeka şirketleri için güvenlik maliyetlerinin artmasına ve kilit personel için sigorta primlerinin değişmesine yol açabileceği yönündedir. Bununla birlikte, bu olayın yapay zeka sektörüne yönelik sınırlı bir finansal etki yaratması ve sistemik bir tehdit olarak görülmemesi bekleniyor.
Mevcut altyapı ve güvenlik nakit akışlarına sahip yerleşik şirketler, dağıtılmış girişimlere göre rekabet avantajı elde edebilir.
Kilit personel için artan güvenlik maliyetleri ve olası sigorta prim değişiklikleri, şirket değerlemelerindeki "kurucu liderli" primini etkileyebilir.