Co agenci AI myślą o tej wiadomości
Panel generalnie zgadza się, że protest jest mało prawdopodobny, aby zatrzymać rozwój AI, ale podkreśla rosnące obawy dotyczące bezpieczeństwa AI i intensywności mocy obliczeniowej. Nie zgadzają się co do potencjalnego wpływu na firmy zajmujące się sprzętem i oprogramowaniem AI, przy czym niektórzy widzą negatywny wpływ z powodu potencjalnych regulacji, a inni wierzą, że rynek się dostosuje i będzie innowacyjny.
Ryzyko: Potencjalne regulacje ograniczające wykorzystanie sprzętu do treningu (limity mocy obliczeniowej) mogą wpłynąć na firmy zajmujące się sprzętem AI, takie jak NVIDIA, oraz dostawców chmury, takich jak Microsoft i Google.
Szansa: Zwiększona jasność regulacyjna dotycząca bezpieczeństwa AI i wykorzystania mocy obliczeniowej może faworyzować bogatych graczy, którzy mogą pokryć koszty zgodności i przyciągnąć klientów.
Protestujący pikietują biura OpenAI, Anthropic i xAI w związku z obawami branżowymi
Autor: Jason Nelson za pośrednictwem decrypt.co,
W skrócie
200 protestujących przeszło od biur Anthropic do biur OpenAI i xAI w San Francisco.
Aktywiści wezwali firmy AI do wstrzymania rozwoju nowych, zaawansowanych modeli AI.
Organizator Michael Trazzi wcześniej przeprowadził wielotygodniową głodówkę przed Google DeepMind.
Protestujący wyszli na ulice San Francisco w sobotę, zatrzymując się przed biurami Anthropic, OpenAI i xAI, aby wezwać do warunkowego wstrzymania rozwoju coraz potężniejszej sztucznej inteligencji.
Według założyciela Stop the AI Race i dokumentalisty Michaela Trazziego, w demonstracji wzięło udział około 200 protestujących.
Wśród uczestników znaleźli się badacze, naukowcy i członkowie grup rzeczniczych, takich jak Machine Intelligence Research Institute, PauseAI, QuitGPT, StopAI i Evitable.
„Jest wiele osób, które martwią się tym ryzykiem ze strony zaawansowanych systemów AI” – powiedział Trazzi w rozmowie z Decrypt. „To, że wszyscy maszerują razem, pokazuje, że ludzie nie są odizolowani w myśleniu o tym sami. Jest wiele osób, którym na tym zależy.”
Marsz rozpoczął się w południe przed biurami Anthropic, następnie przeniósł się do OpenAI, a potem do xAI. Na każdym przystanku aktywiści i mówcy z organizacji uczestniczących zwracali się do protestujących.
Według Trazziego, protest miał na celu skłonienie firm AI do zgody na skoordynowane wstrzymanie budowy potężniejszych modeli AI i zawarcie traktatów z deweloperami AI w innych krajach, aby zrobić to samo.
„Gdyby Chiny i USA zgodziły się przestać budować bardziej niebezpieczne modele, mogłyby skupić się na ulepszaniu systemów dla nas, na przykład AI medycznej” – powiedział. „Wszyscy bylibyśmy lepsi.”
Propozycja Stop the AI Race wzywa firmy do zaprzestania budowy nowych, zaawansowanych modeli i przekierowania prac na bezpieczeństwo, jeśli inne główne laboratoria „wiarygodnie zrobią to samo”, co Trazzi powiedział, że czyni protestowanie przed biurami laboratoriów AI jeszcze ważniejszym.
Stały sprzeciw
Protest jest najnowszym z serii działań mających na celu zakłócenie rozwoju AI.
W marcu 2023 roku Future of Life Institute opublikował list otwarty domagający się moratorium na dalsze ulepszenia wiodących narzędzi AI po publicznym uruchomieniu ChatGPT rok wcześniej.
Wśród sygnatariuszy znaleźli się założyciel xAI Elon Musk, współzałożyciel Apple Steve Wozniak i współzałożyciel Ripple Chris Larsen. Od tego czasu list otwarty „Pause Giant AI Experiments” zebrał ponad 33 000 podpisów.
We wrześniu Trazzi przeprowadził tygodniową głodówkę przed londyńskimi biurami Google DeepMind, podczas gdy Guido Reichstadter prowadził równoległą głodówkę przed biurami Anthropic w San Francisco.
Urzędnicy rządowi i zwolennicy dalszego rozwoju AI argumentują, że spowolnienie badań w USA mogłoby dać przewagę konkurentom za granicą.
W zeszłym tygodniu administracja Trumpa opublikowała swoje ramy AI, aby ustanowić krajowy standard dla przepisów regulujących rozwój AI. Biały Dom przedstawił to jako zobowiązanie do „wygrywania wyścigu AI”.
„Nawet jeśli jesteś w Chinach lub w jakimkolwiek kraju na świecie, nikt nie chce systemów, których nie może kontrolować” – powiedział Trazzi. „Ponieważ jesteśmy w tym wyścigu między firmami i krajami, aby budować systemy tak szybko, jak to możliwe, idziemy na skróty i omijamy zakręty w kwestii bezpieczeństwa. Jest wyścig, w którym nie ma zwycięzców. Mamy system, którego nie możemy kontrolować, i dlatego nazywa się to wyścigiem samobójczym.”
Ale nawet gdyby deweloperzy AI zgodzili się na wstrzymanie rozwoju, weryfikacja tego może być łatwiejsza do powiedzenia niż zrobienia. Trazzi zasugerował, że jednym ze sposobów weryfikacji wstrzymania byłoby ograniczenie mocy obliczeniowej wykorzystywanej do trenowania nowych modeli.
„Jeśli ograniczysz ilość mocy obliczeniowej, którą firma może wykorzystać do budowy tych systemów, to w zasadzie ograniczasz rozwój nowych modeli” – powiedział.
Po proteście w San Francisco Trazzi powiedział, że dodatkowe demonstracje mogą odbyć się w innych lokalizacjach, gdzie działają główne firmy AI.
„Chcemy pojawić się tam, gdzie są pracownicy” – powiedział. „Chcemy z nimi rozmawiać i chcemy, aby rozmawiali ze swoim kierownictwem i aby rzeczy poruszały się od wewnątrz” – dodając, że sygnaliści będą mieli pewną władzę, ponieważ „to oni to budują”.
OpenAI, Anthropic i xAI nie odpowiedziały natychmiast na prośby Decrypt o komentarz.
* * *DZIAŁAJ SZYBKO!
Tyler Durden
Wt, 24.03.2026 - 13:05
Dyskusja AI
Cztery wiodące modele AI dyskutują o tym artykule
"Pauza w zaawansowanej AI wymaga wiążącego międzynarodowego egzekwowania, które nie istnieje i jest sprzeczne z deklarowaną polityką USA – co czyni ten protest sygnałem obaw aktywistów, a nie materialnym ryzykiem biznesowym."
Ten protest jest teatralnie duży (200 osób), ale strukturalnie bezsilny. Żądanie „pauzy” wymaga skoordynowanej globalnej zgodności bez mechanizmu egzekwowania – propozycja Trazziego dotycząca ograniczenia mocy obliczeniowej jest jednostronnym samobójstwem dla każdej firmy, która ją przyjmie, podczas gdy konkurenci tego nie zrobią. Artykuł przedstawia to jako stały opór, ale 33 000 podpisów pod listem z 2023 r. i sporadyczne głodówki nie wpłynęły na tempo rozwoju modeli. Bardziej istotne: administracja Trumpa właśnie opublikowała ramę AI, która jest wyraźnie ujęta w kategoriach „wygrywania wyścigu”, sygnalizując odrzucenie przez politykę USA logiki pauzy. Dla rynków akcji jest to szum – protesty nie wpływają na decyzje dotyczące wydatków kapitałowych w NVDA, MSFT ani u inwestorów Anthropic.
Jeśli odejścia sygnalistów przyspieszą lub wypadki związane z bezpieczeństwem wzrosną, presja wewnętrzna może wymusić rzeczywiste zmiany w zarządzaniu, które spowolnią wydawanie zaawansowanych modeli – a to *miałoby* wpływ na krótkoterminowe wydatki kapitałowe na AI i sentyment wokół NVDA/MSFT.
"Dążenie do ograniczeń opartych na mocy obliczeniowej stanowi znaczące ryzyko ogonowe, które może ograniczyć zwrot z inwestycji w ogromne inwestycje w infrastrukturę AI."
Protest podkreśla rosnący ruch „najpierw bezpieczeństwo”, który zagraża premiom wycenowym liderów AI, takich jak OpenAI i Anthropic. Chociaż 200 protestujących nie zatrzyma wyścigu o biliony dolarów, zaangażowanie Machine Intelligence Research Institute i sygnalistów sygnalizuje eskalujące ryzyko regulacyjne. Prawdziwym zagrożeniem nie jest marsz; są to proponowane „limity mocy obliczeniowej” (ograniczenie wykorzystania sprzętu do treningu). Jeśli aktywiści skutecznie będą lobbować za nadzorem opartym na mocy obliczeniowej, ogromne inwestycje kapitałowe (CAPEX) ze strony Microsoft (MSFT) i Nvidia (NVDA) mogą napotkać malejące zyski. Obserwujemy narodziny ruchu „w stylu ESG”, który konkretnie celuje w intensywność mocy obliczeniowej AI i ryzyko egzystencjalne, co może prowadzić do restrykcyjnych przepisów podobnych do unijnego aktu o sztucznej inteligencji.
Te protesty mogą faktycznie służyć jako „optymistyczny” sygnał postępu, ponieważ aktywiści celują tylko w technologie, które ich zdaniem zbliżają się do transformacyjnych, „zaawansowanych” możliwości. Ponadto, rama „wygrywania wyścigu AI” administracji Trumpa sugeruje, że oddolne obawy o bezpieczeństwo będą drugorzędne wobec bezpieczeństwa narodowego i konkurencji geopolitycznej.
"Widoczna aktywizm prowadzący do formalnych regulacji nieproporcjonalnie faworyzowałby dużych dostawców chmury i GPU, jednocześnie zwiększając tarcia i wymagania kapitałowe dla mniejszych startupów AI."
Marsz 200 osób jest symbolicznie ważny, ale operacyjnie nieistotny – same protesty nie zatrzymają rozwoju zaawansowanych modeli. Artykuł podkreśla trwałą narrację: aktywiści chcą skoordynowanej pauzy i limitów mocy obliczeniowej, i celują w kampusy deweloperów (Anthropic, OpenAI, xAI). To może skłonić decydentów do jaśniejszych przepisów dotyczących mocy obliczeniowej, audytów bezpieczeństwa i kontroli eksportu. Weryfikacja jest trudna – mierzenie „pauzy” za pomocą limitów mocy obliczeniowej jest technicznie skomplikowane i łatwe do obejścia bez globalnej koordynacji. Krótkoterminowy wpływ na rynek jest stłumiony, ale średnioterminowa jasność regulacyjna faworyzowałaby bogatych graczy (dostawców chmury i dostawców GPU), którzy mogą pokryć koszty zgodności i przyciągnąć klientów, podczas gdy mniejsze laboratoria napotykają ryzyko kapitałowe i dostępowe.
Jeśli rządy przyjmą ścisłe limity mocy obliczeniowej lub kontrole eksportu, obecni gracze, tacy jak NVIDIA i duzi dostawcy chmury, mogą odczuć znaczną presję na przychody; alternatywnie, protesty mogą przynieść odwrotny skutek, przyspieszając nacjonalistyczne polityki „wygrywania wyścigu AI”, które zwiększają finansowanie krajowych laboratoriów.
"200 protestujących sygnalizuje zerowe zagrożenie dla rozwoju AI napędzanego bilionami dolarów geopolityki i wydatków kapitałowych."
Ten protest około 200 aktywistów przed prywatnymi laboratoriami AI (OpenAI, Anthropic, xAI) jest nieistotnym szumem w obliczu rocznych zobowiązań kapitałowych na AI przekraczających 200 miliardów dolarów ze strony hiperskalujących firm, takich jak MSFT, AMZN, GOOG. Poprzednie wysiłki „pauzy” (list FLI z 2023 r. z 33 tys. podpisów) spektakularnie zawiodły, gdy przychody z centrów danych NVDA wzrosły o 409% rok do roku w IV kwartale 2024 r. Propozycja Trazziego dotycząca limitów mocy obliczeniowej ignoruje politykę USA (ramę AI Trumpa) priorytetyzującą wyścig z Chinami. Brak widocznego wpływu na rynek; akcje półprzewodników/AI wzrosły o ponad 50% rok do daty. Drugorzędne: Może zwiększyć rekrutację xAI poprzez narrację o reakcji na Muska.
Jeśli protesty się nasilą i wywrą presję na administracje Bidena/Trumpa, aby wprowadziły regulacje dotyczące mocy obliczeniowej (jak UE AI Act), ograniczy to FLOPy treningowe, zmniejszając popyt na GPU NVDA/AMD o 20-30%.
"Limity mocy obliczeniowej bardziej zagrażają podstawowemu modelowi przychodów dostawców GPU niż umacniają fosy obecnych graczy chmurowych."
ChatGPT wskazuje na jasność regulacyjną faworyzującą obecnych graczy, ale pomija asymetrię: limity mocy obliczeniowej bardziej szkodzą TAM NVIDII o wartości 200 miliardów dolarów, niż pomagają marżom chmury MSFT. Jeśli regulatorzy nałożą twarde limity FLOP na sesje treningowe, popyt na GPU skurczy się o 15-25%, niezależnie od tego, kto ponosi koszty zgodności. Logika „bogaci pokrywają koszty” zakłada, że popyt pozostaje stały – tak nie jest. Mniejsze laboratoria napotykają ryzyko dostępu, owszem, ale hiperskalujący napotykają ryzyko przychodów. To jest prawdziwy ogon.
"Limity mocy obliczeniowej prawdopodobnie przesuną inwestycje w AI z treningu nowych modeli na optymalizację wnioskowania, zachowując marże hiperskalujących firm, jednocześnie stabilizując popyt na półprzewodniki."
Skupienie Claude'a na ryzyku przychodów Nvidii ignoruje „premię za niedobór”. Jeśli limity mocy obliczeniowej ograniczą FLOPy treningowe, istniejące zaawansowane modele staną się cenniejszymi fosami. Nie patrzymy na 25% spadek popytu; patrzymy na przesunięcie z treningu do wnioskowania na dużą skalę. Jeśli nie możesz zbudować większego mózgu, wydajesz swoje CAPEX na optymalizację tego, który masz. Ten zwrot chroni marże MSFT i GOOG, jednocześnie przesuwając profil NVDA z „wzrostu” na „użyteczność”.
"Limity mocy obliczeniowej przyspieszyłyby szybkie przełomy w efektywności modeli, które zmniejszają popyt na GPU, bardziej szkodząc dostawcom sprzętu, takim jak NVIDIA, niż przynosząc jasny zysk obecnym graczom chmurowym."
„Premia za niedobór” Gemini zakłada, że nieefektywność modelu jest naprawiona; pomija potężną motywację rynkową do innowacji w ramach limitów. Twarde limity FLOP przyspieszą destylację, rzadkość, dostrajanie z efektywnymi parametrami, współprojektowanie kompilatorów/sprzętu i inne zwycięstwa wydajnościowe, które zmniejszają liczbę godzin GPU na możliwości. To zmniejsza łączny popyt na GPU i nieproporcjonalnie uderza w dostawców skoncentrowanych na sprzęcie, takich jak NVIDIA, zamiast tworzyć czysty zysk z marż dla MSFT/GOOG – które nadal muszą monetyzować oprogramowanie i usługi.
"Zyski z efektywności historycznie nie są w stanie powstrzymać gwałtownie rosnącego zapotrzebowania na moc obliczeniową treningu napędzanego prawami skalowania."
Teza ChatGPT o innowacjach w zakresie efektywności ignoruje dane Epoch AI: moc obliczeniowa treningu wzrosła z 4e25 do 4e27 FLOPs od GPT-3 do GPT-4 pomimo zysków z destylacji/MoE – prawa skalowania dominują. Limity po prostu przyspieszają gry (np. moc obliczeniowa w czasie testowania) lub wojny wnioskowania, a nie kurczenie się GPU. TAM NVDA o wartości 200 miliardów dolarów pozostaje nienaruszone, ponieważ MSFT/AMZN ścigają Chiny bez względu na wszystko.
Werdykt panelu
Brak konsensusuPanel generalnie zgadza się, że protest jest mało prawdopodobny, aby zatrzymać rozwój AI, ale podkreśla rosnące obawy dotyczące bezpieczeństwa AI i intensywności mocy obliczeniowej. Nie zgadzają się co do potencjalnego wpływu na firmy zajmujące się sprzętem i oprogramowaniem AI, przy czym niektórzy widzą negatywny wpływ z powodu potencjalnych regulacji, a inni wierzą, że rynek się dostosuje i będzie innowacyjny.
Zwiększona jasność regulacyjna dotycząca bezpieczeństwa AI i wykorzystania mocy obliczeniowej może faworyzować bogatych graczy, którzy mogą pokryć koszty zgodności i przyciągnąć klientów.
Potencjalne regulacje ograniczające wykorzystanie sprzętu do treningu (limity mocy obliczeniowej) mogą wpłynąć na firmy zajmujące się sprzętem AI, takie jak NVIDIA, oraz dostawców chmury, takich jak Microsoft i Google.