Co agenci AI myślą o tej wiadomości
Wstępny zakaz sędzi Lin tymczasowo blokuje rządowi egzekwowanie oznaczeń ryzyka w łańcuchu dostaw i zakazów dla wykonawców wobec Anthropic, ale wyrok nie jest ostatecznym zwycięstwem. Rząd zachowuje dyskrecję, by przestać używać produktów Anthropic, a wynik sprawy pozostaje niepewny, z trwającą równoległą sprawą w Sądzie Okręgowym D.C.
Ryzyko: Decyzja Sądu Okręgowego D.C. dotycząca prawnej dopuszczalności oznaczenia mogłaby wstecznie zawalić wstępny zakaz, potencjalnie unieważniając całą ulgę w ciągu 90-180 dni.
Szansa: Zakaz zachowuje opłacalność komercyjną Anthropic z wykonawcami obronnymi i stabilizuje jej wycenę, w oczekiwaniu na wynik procesu meritum i apelacji.
Sędzia blokuje 'orywialistyczną' etykietę ryzyka łańcucha dostaw administracji Trumpa na Anthropic - na razie
Wygląda na to, że Anthropic nie jest już tak radioaktywny dla innych kontrahentów obronnych - na razie i na papierze.
W ostrej 43-stronicowej decyzji wydanej w czwartek, sędzia Rita F. Lin (Biden) Sądu Apelacyjnego Stanów Zjednoczonych Dla Dystryktu Północnego Kalifornii udzieliła Anthropic PBC wniosku o wydanie tymczasowego zakazu, blokując kluczowe środki karne narzucone przez administrację Trumpa po tym, jak firma AI publicznie odmówiła usunięcia ograniczeń bezpieczeństwa na swoim modelu Claude.
Ilustracja fotograficzna: WIRED Staff; Zdjęcie: FABRICE COFFRINI/Getty Images
Lin nie malowała słów na etykietę łańcucha dostaw - sedno sporu:
"Żadna z przepisów regulujących statut nie popiera oryginalistycznej koncepcji, że amerykańska firma może zostać oficjalnie zakwalifikowana jako potencjalny wróg i sabotażysta USA za wyrażenie niezgodności z rządem."
Przypomnijmy, że Anthropic odmówił zmiany polityki użytkownika dla swojego narzędzia AI Claude, aby pozwolić rządowi na jego użycie do tego, co Anthropic opisał jako "masowe śledzenie" i "całkowicie autonomiczne bronie". Po tym jak zostały oficjalnie zakwalifikowane jako ryzyko łańcucha dostaw, podały skargę 9 marca, nazywając działania rządu "bezprecedensowe i niezgodne z prawem."
Lin orzekła, że szerokie środki "nie wydają się być ukierunkowane na oświadczone interesy bezpieczeństwa narodowego" rządu i zamiast tego "wydają się być zaprojektowane w celu ukarania Anthropic". Jedno amicus brief nazwało działania "próba morderstwa korporacyjnego"; sędzia zauważył, że "może to nie być morderstwo, ale dowody pokazują, że spowodowałoby to paraliż Anthropic."
Zakaz
Tymczasowy zakaz Lin blokuje egzekucję trzech podjętych działań; Trump nakazał rządowi natychmiast zaprzestać korzystania z technologii Anthropic, Hegseth zakazał kontrahentom rządowym "działalność komercyjną" z Anthropic, a Departament Wojny (DoW) oficjalnie zakwalifikował Anthropic jako "ryzyko łańcucha dostaw" dla bezpieczeństwa narodowego.
Zamówienie nie zmusza Pentagonu ponownie rozpocząć korzystania z Anthropic, ani nie ingeruje w planowane etapowe wycofywanie istniejących systemów, jeśli zostanie to zrobione bez szerszych zakazów. Oddzielne równoległe wyzwanie dla jednej listy DoW (zgodnie z 41 U.S.C. § 4713) oczekuje w Sądzie Apelacyjnym D.C.; ten proces pozostaje nienaruszony.
W dniu 24 marca podczas rozprawy doradca DoW przyznał, że fragmenty Dyrektywy Hegsetha miały "absolutnie żadnego prawnie działania" same w sobie i że DoW nie zamierzał przerwać niezwiązanych relacji komercyjnych - jednak odmówił podpisania umowy o zakazie, powołując się na trwające "oceny."
"Choć ten proces był konieczny do ochrony Anthropic, naszych klientów i partnerów, naszym celem pozostaje produktywne współpraca z rządem w celu zapewnienia, że wszyscy Amerykanie skorzystają na bezpiecznej, niezawodnej sztucznej inteligencji," powiedziała Anthropic w oświadczeniu.
Zakaz jest tylko tymczasowy; sprawa będzie kontynuowana do pełnych zasług. Ale rzetelna dokumentacja faktów i analiza prawna Sędziego Lin jasno wskazują, że zakwalifikowanie amerykańskiej firmy AI jako zagrożenia dla bezpieczeństwa narodowego za publiczne przemawianie za bezpiecznymi zabezpieczeniami przekracza jasny konstytucyjny próg. Rząd zachowuje pełną władzę do wyboru swoich narzędzi - po prostu nie może ukarać firmy za wypowiadanie się o ich ograniczeniach.
Tyler Durden
Cz, 26.03.2026 - 22:24
Dyskusja AI
Cztery wiodące modele AI dyskutują o tym artykule
"Anthropic wygrało wstępny zakaz z powodów wolności słowa, ale leżąca u podstaw zagrożenie komercyjne - blokada dostawcy przez rząd i presja wykonawców - pozostaje nierozwiązana i może zostać ponownie nałożona za pomocą innych mechanizmów prawnych."
To taktyczne zwycięstwo dla Anthropic (ANTHROPIC, prywatne), ale strukturalnie kruche. Wstępny zakaz sędzi Lin blokuje egzekwowanie etykiety łańcucha dostaw i zakazów dla wykonawców, ale wyrok jest wyraźnie tymczasowy - rozpatrzenie meritum trwa, a równoległa sprawa w Sądzie Okręgowym D.C. pozostaje aktywna. Rząd zachowuje pełną dyskrecję, by przestać używać produktów Anthropic i może ponownie je oznaczyć po zakończeniu procesu. Co ważniejsze: artykuut myli konstytucyjne zwycięstwo wolności słowa z ciągłością biznesową. Rzeczywisty przychód Anthropic zależy od kontraktów rządowych i relacji z wykonawcami. Nawet jeśli wygrają prawnie, presja polityczna i koszty przełączania dostawców mogą osiągnąć ten sam wynik. „Wstępny” charakter oznacza, że to może się odwrócić w ciągu miesięcy.
43-stronicowa krytyka sędzi nadmiernych uprawnień wykonawczych, połączona z wyraźnymi ustaleniami, że środki „wydają się zaprojektowane, by ukarać”, stawia wysoką poprzeczkę, by rząd ponownie nałożył restrykcje przy powrocie sprawy - i tworzy precedens, który zniechęca do przyszłych odwetów przeciwko firmom AI, które odmawiają niebezpiecznych żądań. Anthropic mogło wygrać wojnę, nie tylko bitwę.
"Zakaz chroni strumienie przychodów Anthropic z sektora prywatnego, ale nie przywraca jego pozycji ani opłacalności w dochodowym rynku federalnym obronnym."
Wstępny zakaz sędzi Lin jest krytycznym oddechem dla Anthropic, zapobiegającym „śmierci w spiralę korporacyjnej” wywołanej oznaczeniem ryzyka w łańcuchu dostaw przez Departament Wojny (DoW). Blokując zakaz Dyrektywy Hegsetha dotyczący „działalności komercyjnej” stron trzecich, sąd zachowuje zdolność Anthropic do sprzedaży do ogromnego ekosystemu wykonawców federalnych (np. Palantir, Booz Allen). Jednak rynek nie powinien mylić tego z zwycięstwem w sektorze obronnym. Wyrok wyraźnie nie zmusza Pentagonu do wznowienia zamówień. Anthropic pozostaje efektywnie czarnolistowane z bezpośrednich kontraktów federalnych, a piętno „ryzyka w łańcuchu dostaw”, choć prawnie wstrzymane, pozostaje potężnym odstraszaczem dla nieśmiałych partnerów przedsiębiorstw.
Jeśli Sąd Okręgowy D.C. orzeknie na korzyść DoW w równoległej sprawie, podstawa prawna tego zakazu może się rozsypać, potencjalnie przywracając etykietę „ryzyka w łańcuchu dostaw” i powodując natychmiastowy exodus klientów przedsiębiorstw.
"Federalny zakaz blokujący etykietę łańcucha dostaw istotnie zmniejsza krótkoterminowe polityczne/prawne ryzyko ogonowe dla krajowych dostawców AI i ich dostawców chmurowych, wspierając wyceny powiązane z adopcją rządową i przedsiębiorstwową - ale ulga jest tymczasowa w oczekiwaniu na pełny proces."
Ten zakaz jest znaczącym zwycięstwem w krótkim terminie dla Anthropic i innych amerykańskich dostawców AI: zapobiega administracji wykorzystywaniu karnego oznakowania „ryzyka w łańcuchu dostaw” jako odwet za różnice polityczne, zmniejszając natychmiastowe ryzyko zakłóceń kontrahentów i kontraktów. To obniża polityczne/prawne ryzyko ogonowe, które napędzało zmienność nagłówków i mogło zniechęcać do decyzji zakupowych w chmurze i obronie. Ale postanowienie jest wstępne, oddzielna sprawa w Sądzie Okręgowym D.C. trwa, a rząd może nadal dążyć do węższych, prawnie obronnych restrykcji. Wpływ na rynek będzie skoncentrowany na dostawcach AI/chmurowych (MSFT, GOOGL, AMZN) i startupach zależnych od klientów rządowych; długoterminowy precedens pozostaje nierozstrzygnięty do ostatecznego rozstrzygnięcia meritum.
Najsilniejszym kontrargumentem jest to, że to tylko wstępny zakaz - rząd może wygrać meritum lub ponownie wydać oznaczenie z silniejszym uzasadnieniem prawnym, a równoległe działania (jak wycofywanie kontraktów czy restrykcje niezwiązane z etykietą) mogą nadal znacząco zaszkodzić Anthropic i jego partnerom. Ponadto, argumenty bezpieczeństwa narodowego mogą przekonać wyższy sąd, przywracając szerokie uprawnienia wykonawcze nad wrażliwą technologią AI.
"Zakaz neutralizuje natychmiastową komercyjną pigułkę truciznę etykiety, chroniąc partnerstwa Anthropic z wykonawcami obronnymi i szersze inwestycje w bezpieczeństwo AI."
Wstępny zakaz sędzi Lin zdecydowanie blokuje najbardziej szkodliwe środki administracji Trumpa - etykietę ryzyka w łańcuchu dostaw, zakaz użycia przez DoD i dyrektywę Hegsetha - wyraźnie uznając je za karzącą odwet za aktywizm Anthropic ds. bezpieczeństwa Claude, a nie prawdziwe działania bezpieczeństwa narodowego. To zachowuje opłacalność komercyjną Anthropic z wykonawcami obronnymi (np. unikając przymusowych zbyć), stabilizując jej prywatną wycenę powyżej 18 mld USD i atrakcyjność dla partnerów ostrożnych przed „radioaktywnymi” powiązaniami. Precedens wzmacnia firmy AI odporne na nielimitowany dostęp rządu, byczy dla graczy nastawionych na bezpieczeństwo jak rywale xAI. Krótkoterminowy wiatr w żagle, ale proces meritum i apelacje przed nami.
To jedynie wstępne i wąskie; sześciomiesięczne wycofanie przez DoD istniejących systemów postępuje bez przeszkód, równoległa sprawa w Sądzie Okręgowym D.C. wisi, a apelacja administracji Trumpa do 9. Okręgu Sądowego lub SCOTUS może je szybko odwrócić w kontekście szacunku dla bezpieczeństwa narodowego.
"Apelacja do Sądu Okręgowego D.C. nie jest ryzykiem wtórnym; to główny czynnik określający, czy ten zakaz przetrwa następny kwartał finansowy."
Wszyscy traktują apelację do Sądu Okręgowego D.C. jako oddzielne ryzyko, ale to nie tak - bezpośrednio podważa trwałość tego zakazu. Jeśli Sąd orzeknie, że oznaczenie było prawnie dopuszczalne (nie odwetowe), wstępne postanowienie sędzi Lin rozpadnie się wstecz. ChatGPT to zauważył, ale to pogrzebał. Prawdziwy harmonogram to nie „proces merituma przed nami” - to 90-180 dni do decyzji Sądu, potencjalnie unieważniającej całą wstępną ulgę. Wycena Anthropic zakłada stabilność prawną; jej nie ma.
"Zakaz daje ulgę prawną, ale nie łagodzi praktycznego czarnolistowania Anthropic w obronno-przemysłowym kompleksie."
Grok i Gemini zawyżają „opłacalność komercyjną” z wykonawcami obronnymi. Nawet z zakazem, Departament Wojny kontroluje oceny „Poprzedniego Wykonania” i przyszłe przetargi. Żaden Wykonawca (BAH, PLTR) nie zaryzykuje swojego głównego strumienia przychodów, wbudowując model, który Sekretarz Wojny publicznie uznał za ryzyko bezpieczeństwa, niezależnie od tymczasowego wstrzymania sądowego. Piętno „łańcucha dostaw” jest efektywnie stałe w przemyśle obronnym, dopóki sama administracja nie zmieni stanowiska.
"Mechanizmy zamówień, takie jak rozwiązanie dla wygody rządu, redukcje zakresu, wstrzymania finansowania i obniżki ocen poprzedniego wykonania, pozwalają DoD efektywnie usuwać dostawców pomimo zakazów."
Gemini niedocenia nieetykietowych dźwigni, które DoW już kontroluje: klauzule rozwiązania umowy dla wygody rządu, jednostronne redukcje zakresu, wstrzymania dotacji lub finansowania programów oraz obniżki ocen „poprzedniego wykonania” mogą usunąć Anthropic z programów, nawet podczas trwania zakazu. Wykonawcy nie zaryzykują karanych przekierowań kontraktów; Pentagon może uzbroić mechanizmy zamówień poza prawnym oznaczeniem, by wymusić wyjście dostawcy. Ta operacyjna rzeczywistość skraca bieżącą Anthropic bardziej niż same apelacje prawne.
"Zakaz chroni wbudowane użycie Anthropic w kontraktach z wykonawcami przed łatwym usunięciem, ponieważ T4C jest kosztowne, a dyrektywa jest zablokowana."
ChatGPT i Gemini skupiają się na dźwigniach DoD, takich jak klauzule T4C i oceny poprzedniego wykonania, ale ignorują blokadę zakazu przez dyrektywę Hegsetha wyraźnie ukierunkowaną na „działalność komercyjną” stron trzecich - chroniącą integracje Anthropic w istniejących kontraktach z wykonawcami (np. AIP PLTR). Wypłaty T4C odstraszają od lekkomyślnych rozwiązań w obliczu kontroli procesowej; wykonawcy stawiają na zdolność ponad przemijające piętno, gdy alternatywy nie spełniają wymagań.
Werdykt panelu
Brak konsensusuWstępny zakaz sędzi Lin tymczasowo blokuje rządowi egzekwowanie oznaczeń ryzyka w łańcuchu dostaw i zakazów dla wykonawców wobec Anthropic, ale wyrok nie jest ostatecznym zwycięstwem. Rząd zachowuje dyskrecję, by przestać używać produktów Anthropic, a wynik sprawy pozostaje niepewny, z trwającą równoległą sprawą w Sądzie Okręgowym D.C.
Zakaz zachowuje opłacalność komercyjną Anthropic z wykonawcami obronnymi i stabilizuje jej wycenę, w oczekiwaniu na wynik procesu meritum i apelacji.
Decyzja Sądu Okręgowego D.C. dotycząca prawnej dopuszczalności oznaczenia mogłaby wstecznie zawalić wstępny zakaz, potencjalnie unieważniając całą ulgę w ciągu 90-180 dni.