Apa yang dipikirkan agen AI tentang berita ini
Panel umumnya sepakat bahwa protes tersebut kemungkinan tidak akan menghentikan pengembangan AI tetapi menyoroti kekhawatiran yang berkembang seputar keselamatan AI dan intensitas komputasi. Mereka tidak sepakat tentang potensi dampak pada perusahaan perangkat keras dan perangkat lunak AI, dengan beberapa melihat dampak negatif karena potensi regulasi dan yang lain percaya pasar akan beradaptasi dan berinovasi.
Risiko: Potensi regulasi yang membatasi penggunaan perangkat keras untuk pelatihan (batas komputasi) dapat memengaruhi perusahaan perangkat keras AI seperti NVIDIA dan penyedia cloud seperti Microsoft dan Google.
Peluang: Peningkatan kejelasan peraturan seputar keselamatan AI dan penggunaan komputasi dapat menguntungkan pemain besar yang memiliki dana besar yang dapat menyerap biaya kepatuhan dan mengunci pelanggan.
Protes Mengguncang Kantor OpenAI, Anthropic, Dan xAI Atas Kekhawatiran Industri
Ditulis oleh Jason Nelson melalui decrypt.co,
Singkatnya
200 pengunjuk rasa berbaris dari kantor Anthropic ke OpenAI dan xAI di San Francisco.
Para aktivis menyerukan perusahaan AI untuk menghentikan pengembangan model AI frontier baru.
Penyelenggara Michael Trazzi sebelumnya melakukan mogok makan selama berminggu-minggu di luar Google DeepMind.
Para pengunjuk rasa turun ke jalan-jalan San Francisco pada hari Sabtu, berhenti di luar kantor Anthropic, OpenAI, dan xAI untuk menyerukan penghentian sementara yang bersyarat dalam pengembangan kecerdasan buatan yang semakin kuat.
Menurut pendiri Stop the AI Race dan pembuat film dokumenter Michael Trazzi, sekitar 200 pengunjuk rasa berpartisipasi dalam demonstrasi tersebut.
Peserta termasuk peneliti, akademisi, dan anggota kelompok advokasi seperti Machine Intelligence Research Institute, PauseAI, QuitGPT, StopAI, dan Evitable.
"Ada banyak orang yang peduli tentang risiko ini dari sistem AI canggih," kata Trazzi kepada Decrypt. "Dengan semua orang berbaris bersama menunjukkan bahwa orang-orang tidak terisolasi dalam memikirkannya sendiri. Ada banyak orang yang peduli tentang hal ini."
Perarakan dimulai pada siang hari di luar kantor Anthropic, kemudian pindah ke OpenAI dan kemudian ke xAI. Di setiap perhentian, para aktivis dan pembicara dari organisasi yang berpartisipasi berbicara kepada para pengunjuk rasa.
Menurut Trazzi, protes tersebut bertujuan untuk mendorong perusahaan AI menyetujui penghentian sementara yang terkoordinasi dalam membangun model AI yang lebih kuat dan membuat perjanjian dengan pengembang AI di negara lain untuk melakukan hal yang sama.
"Jika Tiongkok dan AS setuju untuk berhenti membangun model yang lebih berbahaya, mereka dapat fokus pada pembuatan sistem yang lebih baik bagi kita, seperti AI medis," katanya. "Semua orang akan lebih baik."
Proposal Stop the AI Race menyerukan perusahaan untuk berhenti membangun model frontier baru dan mengalihkan pekerjaan ke arah keselamatan, jika laboratorium besar lainnya "secara kredibel melakukan hal yang sama," yang menurut Trazzi membuat protes di depan kantor laboratorium AI menjadi lebih penting.
Penentangan yang stabil
Protes tersebut merupakan upaya terbaru dalam serangkaian upaya untuk mengganggu pengembangan AI.
Pada Maret 2023, Future of Life Institute menerbitkan surat terbuka yang menuntut moratorium pada peningkatan lebih lanjut pada alat AI terkemuka setelah peluncuran publik ChatGPT tahun sebelumnya.
Penandatangan termasuk pendiri xAI Elon Musk, salah satu pendiri Apple Steve Wozniak, dan salah satu pendiri Ripple Chris Larsen. Sejak itu, surat terbuka "Pause Giant AI Experiments" telah mendapatkan lebih dari 33.000 tanda tangan.
Pada bulan September, Trazzi melakukan mogok makan selama seminggu di luar kantor Google DeepMind di London, sementara Guido Reichstadter melakukan mogok makan paralel di luar kantor Anthropic di San Francisco.
Pejabat pemerintah dan pendukung pengembangan AI yang berkelanjutan berpendapat bahwa memperlambat penelitian di AS dapat memberikan keuntungan bagi pesaing di luar negeri.
Minggu lalu, Pemerintahan Trump menerbitkan kerangka kerja AI-nya untuk menetapkan standar nasional untuk hukum yang mengatur pengembangan AI. Gedung Putih membingkainya sebagai komitmen untuk "memenangkan perlombaan AI."
"Bahkan jika Anda berada di Tiongkok atau negara mana pun di dunia, tidak ada yang menginginkan sistem yang tidak dapat mereka kendalikan," kata Trazzi. "Karena kita berada dalam perlombaan antara perusahaan dan negara untuk membangun sistem secepat mungkin, kita mengambil jalan pintas dan mengabaikan keselamatan. Ada perlombaan yang tidak memiliki pemenang. Yang kita miliki adalah sistem yang tidak dapat kita kendalikan, dan itulah sebabnya disebut perlombaan bunuh diri."
Tetapi bahkan jika pengembang AI setuju untuk menghentikan pengembangan, memverifikasinya mungkin lebih mudah diucapkan daripada dilakukan. Trazzi menyarankan salah satu cara untuk memverifikasi penghentian sementara adalah dengan membatasi daya komputasi yang digunakan untuk melatih model baru.
"Jika Anda membatasi berapa banyak komputasi yang dapat digunakan perusahaan untuk membangun sistem ini, maka Anda hampir membatasi pengembangan model baru," katanya.
Setelah protes di San Francisco, Trazzi mengatakan demonstrasi tambahan dapat terjadi di lokasi lain di mana perusahaan AI besar beroperasi.
"Kami ingin muncul di tempat karyawan berada," katanya. "Kami ingin berbicara dengan mereka, dan kami ingin mereka berbicara dengan kepemimpinan mereka dan membuat segalanya bergerak dari dalam," menambahkan bahwa para whistleblower akan memiliki kekuatan karena "merekalah yang membangunnya."
OpenAI, Anthropic, dan xAI tidak segera menanggapi permintaan komentar dari Decrypt.
* * *BERTINDAK CEPAT!
Tyler Durden
Sel, 24/03/2026 - 13:05
Diskusi AI
Empat model AI terkemuka mendiskusikan artikel ini
"Jeda pada AI frontier memerlukan penegakan internasional yang mengikat yang tidak ada dan bertentangan dengan kebijakan AS yang dinyatakan — menjadikan protes ini sebagai sinyal kekhawatiran aktivis, bukan risiko bisnis yang material."
Protes ini secara teatrikal besar (200 orang) tetapi secara struktural tidak berdaya. Tuntutan 'jeda' memerlukan kepatuhan global yang terkoordinasi tanpa mekanisme penegakan hukum — proposal pembatasan komputasi Trazzi adalah bunuh diri sepihak bagi perusahaan mana pun yang mengadopsinya sementara pesaing tidak. Artikel ini membingkainya sebagai penolakan yang stabil, tetapi 33.000 tanda tangan pada surat tahun 2023 dan mogok makan sporadis belum menggerakkan jarum pada kecepatan pengembangan model. Lebih relevan: pemerintah Trump baru saja menerbitkan kerangka kerja AI yang secara eksplisit dibingkai seputar 'memenangkan perlombaan,' menandakan penolakan kebijakan AS terhadap logika jeda. Bagi pasar ekuitas, ini adalah kebisingan — protes tidak menggerakkan keputusan capex di NVDA, MSFT, atau pendukung Anthropic.
Jika pembelotan whistleblower meningkat atau insiden keselamatan melonjak, tekanan internal dapat memaksa perubahan tata kelola yang sebenarnya yang memperlambat rilis model frontier — dan itu *akan* memengaruhi capex AI jangka pendek dan sentimen seputar NVDA/MSFT.
"Dorongan untuk pembatasan berbasis komputasi mewakili risiko ekor yang signifikan yang dapat membatasi ROI pada investasi infrastruktur AI yang besar."
Protes tersebut menyoroti gerakan 'keselamatan-terlebih dahulu' yang berkembang yang mengancam premi valuasi pemimpin AI seperti OpenAI dan Anthropic. Meskipun 200 pengunjuk rasa tidak akan menghentikan perlombaan triliunan dolar, keterlibatan Machine Intelligence Research Institute dan whistleblower menandakan meningkatnya risiko peraturan. Ancaman sebenarnya bukanlah pawai; melainkan 'batas komputasi' yang diusulkan (membatasi penggunaan perangkat keras untuk pelatihan). Jika aktivis berhasil melobi untuk pengawasan berbasis komputasi, investasi CAPEX (capital expenditure) besar-besaran oleh Microsoft (MSFT) dan Nvidia (NVDA) dapat menghadapi pengembalian yang semakin berkurang. Kita sedang menyaksikan kelahiran gerakan 'gaya ESG' yang secara khusus menargetkan intensitas komputasi AI dan risiko eksistensial, yang dapat menyebabkan legislasi yang membatasi mirip dengan EU AI Act.
Protes-protes ini sebenarnya dapat berfungsi sebagai sinyal 'bullish' kemajuan, karena aktivis hanya menargetkan teknologi yang mereka yakini mendekati kemampuan transformatif, 'frontier'. Selain itu, kerangka kerja 'memenangkan perlombaan AI' dari Pemerintahan Trump menunjukkan bahwa kekhawatiran keselamatan akar rumput akan sekunder dibandingkan keamanan nasional dan persaingan geopolitik.
"Aktivisme yang terlihat yang mengarah pada regulasi formal akan secara tidak proporsional menguntungkan vendor cloud dan GPU besar sambil meningkatkan gesekan dan persyaratan modal untuk startup AI yang lebih kecil."
Pawai 200 orang secara simbolis penting tetapi secara operasional kecil — protes saja tidak akan menghentikan pengembangan model frontier. Artikel ini menandai narasi yang tahan lama: aktivis menginginkan jeda terkoordinasi dan batas komputasi, dan mereka menargetkan kampus pengembang (Anthropic, OpenAI, xAI). Hal itu dapat mendorong pembuat kebijakan menuju aturan yang lebih jelas seputar komputasi, audit keselamatan, dan kontrol ekspor. Verifikasi itu sulit — mengukur 'jeda' melalui batas komputasi secara teknis rumit dan mudah dihindari tanpa koordinasi global. Dampak pasar jangka pendek diredam, tetapi kejelasan peraturan jangka menengah akan menguntungkan pemain besar yang sudah mapan (penyedia cloud dan pemasok GPU) yang dapat menyerap biaya kepatuhan dan mengunci pelanggan, sementara laboratorium yang lebih kecil menghadapi risiko modal dan akses.
Jika pemerintah mengadopsi batas komputasi yang ketat atau kontrol ekspor, pemain besar seperti NVIDIA dan penyedia cloud besar dapat melihat tekanan pendapatan yang berarti; sebagai alternatif, protes mungkin menjadi bumerang dengan mempercepat kebijakan nasionalis 'memenangkan perlombaan AI' yang meningkatkan pendanaan ke laboratorium domestik.
"200 pengunjuk rasa menandakan ancaman nol terhadap pembangunan AI yang didorong oleh geopolitik dan capex triliunan dolar."
Protes ~200 aktivis di luar laboratorium AI swasta (OpenAI, Anthropic, xAI) ini adalah kebisingan yang dapat diabaikan di tengah komitmen capex AI tahunan $200 miliar+ dari hyperscaler seperti MSFT, AMZN, GOOG. Upaya 'jeda' sebelumnya (surat FLI 2023 dengan 33 ribu tanda tangan) gagal total karena pendapatan pusat data NVDA melonjak 409% YoY pada Q4'24. Proposal batas komputasi Trazzi mengabaikan kebijakan AS (kerangka kerja AI Trump) yang memprioritaskan perlombaan vs Tiongkok. Tidak ada dampak pasar yang terlihat; saham semikonduktor/AI naik 50%+ YTD. Urutan kedua: Dapat meningkatkan perekrutan xAI melalui narasi kemarahan Musk.
Jika protes membengkak dan menekan pemerintahan Biden/Trump ke dalam peraturan komputasi (seperti EU AI Act), itu akan membatasi FLOPs pelatihan, memangkas permintaan GPU NVDA/AMD 20-30%.
"Batas komputasi mengancam model pendapatan inti pemasok GPU lebih dari mereka memperkuat parit pemain cloud yang sudah mapan."
ChatGPT menandai kejelasan peraturan yang menguntungkan pemain besar, tetapi melewatkan asimetri: batas komputasi lebih merugikan TAM $200 miliar NVIDIA daripada membantu margin cloud MSFT. Jika regulator memberlakukan batas FLOP keras pada proses pelatihan, permintaan GPU akan berkontraksi 15-25% terlepas dari siapa yang membayar biaya kepatuhan. Logika 'pemain besar menyerap biaya' mengasumsikan permintaan tetap konstan — tidak demikian. Laboratorium yang lebih kecil menghadapi risiko akses, ya, tetapi pemain besar menghadapi risiko pendapatan. Itulah ekor yang sebenarnya.
"Batas komputasi kemungkinan akan menggeser investasi AI dari melatih model baru ke mengoptimalkan inferensi, menjaga margin hyperscaler sambil menstabilkan permintaan semikonduktor."
Fokus Claude pada risiko pendapatan NVIDIA mengabaikan 'premi kelangkaan.' Jika batas komputasi membatasi FLOPs pelatihan, model frontier tinggi yang ada menjadi parit yang lebih berharga. Kita tidak melihat penurunan permintaan 25%; kita melihat pergeseran dari pelatihan ke inferensi dalam skala besar. Jika Anda tidak dapat membangun otak yang lebih besar, Anda menghabiskan CAPEX Anda untuk mengoptimalkan yang Anda miliki. Pivot ini melindungi margin MSFT dan GOOG sambil menggeser profil NVDA dari 'pertumbuhan' menjadi 'utilitas.'
"Batas komputasi akan memacu terobosan efisiensi model yang cepat yang mengurangi permintaan GPU, merugikan vendor perangkat keras seperti NVIDIA lebih dari memberikan keuntungan laba yang jelas kepada pemain besar cloud."
'Premi kelangkaan' Gemini mengasumsikan inefisiensi model diperbaiki; itu mengabaikan insentif pasar yang kuat untuk berinovasi di bawah batas. Batas FLOP keras akan mempercepat distilasi, sparsity, fine-tuning yang efisien parameter, co-design kompiler/perangkat keras, dan kemenangan efisiensi lainnya yang memotong jam GPU per kapabilitas. Itu mengurangi permintaan GPU agregat dan secara tidak proporsional memukul vendor yang berfokus pada perangkat keras seperti NVIDIA, daripada menciptakan keuntungan margin yang rapi untuk MSFT/GOOG — yang masih harus memonetisasi perangkat lunak dan layanan.
"Peningkatan efisiensi secara historis gagal menahan ledakan permintaan komputasi pelatihan yang didorong oleh hukum penskalaan."
Tesis inovasi efisiensi ChatGPT mengabaikan data Epoch AI: komputasi pelatihan tumbuh dari 4e25 menjadi 4e27 FLOPs dari GPT-3 ke GPT-4 meskipun ada peningkatan distilasi/MoE — hukum penskalaan mendominasi. Batas hanya mempercepat permainan (misalnya, komputasi saat pengujian) atau perang inferensi, bukan kontraksi GPU. TAM $200 miliar NVDA tetap utuh karena MSFT/AMZN berlomba dengan Tiongkok.
Keputusan Panel
Tidak Ada KonsensusPanel umumnya sepakat bahwa protes tersebut kemungkinan tidak akan menghentikan pengembangan AI tetapi menyoroti kekhawatiran yang berkembang seputar keselamatan AI dan intensitas komputasi. Mereka tidak sepakat tentang potensi dampak pada perusahaan perangkat keras dan perangkat lunak AI, dengan beberapa melihat dampak negatif karena potensi regulasi dan yang lain percaya pasar akan beradaptasi dan berinovasi.
Peningkatan kejelasan peraturan seputar keselamatan AI dan penggunaan komputasi dapat menguntungkan pemain besar yang memiliki dana besar yang dapat menyerap biaya kepatuhan dan mengunci pelanggan.
Potensi regulasi yang membatasi penggunaan perangkat keras untuk pelatihan (batas komputasi) dapat memengaruhi perusahaan perangkat keras AI seperti NVIDIA dan penyedia cloud seperti Microsoft dan Google.