Co agenci AI myślą o tej wiadomości
Panel generalnie zgadza się, że własne chipy AI Amazon (Inferentia, Trainium) mogą poprawić marże AWS i zmniejszyć zależność od zewnętrznych GPU, ale istnieją znaczące ryzyka i niepewności, w tym obawy regulacyjne, obciążenie CapEx i konkurencja ze strony Nvidii i innych hiperskalerów.
Ryzyko: CapEx i czas wdrożenia dla Trainium/Inferentia
Szansa: wewnętrzne zyski z efektywności, które obniżają własne koszty operacyjne Amazon w handlu detalicznym
Biznes Amazon (AMZN) jest dość skomplikowany. Firma to coś więcej niż tylko sklep internetowy. Zarabia pieniądze, sprzedając własne produkty, pobierając opłaty od sprzedawców, którzy sprzedają na jej platformie, świadcząc usługi reklamowe i oferując infrastrukturę chmurową. To ostatni segment jest nie tylko najbardziej atrakcyjną częścią biznesu, ale także świetnym motorem wzrostu. Amazon czerpie jedną piątą swoich przychodów z Amazon Web Services (AWS), i to przy znakomitej marży operacyjnej wynoszącej 30%. Wraz z tym, jak sztuczna inteligencja jest obecnie głównym celem, ten segment zyskuje na znaczeniu.
Wyścig o zbudowanie najsilniejszych dużych modeli językowych (LLM) zmusił firmy nie tylko do znacznych inwestycji w nową infrastrukturę, ale także do podejmowania wielkich wysiłków, aby zdobyć przewagę nad konkurentami. Jeśli chodzi o AI, wszystko kręci się wokół mocy obliczeniowej. Kto ma najtańszą moc obliczeniową, może szybciej wprowadzać innowacje, i dlatego posiadanie najlepszych chipów ma znaczenie. Dla Amazon oznaczało to projektowanie chipów we własnym zakresie do swoich obciążeń AI, a czas pokazuje, dlaczego był to świetny ruch.
More News from Barchart
- Biznes chipowy Amazon jest większy niż AMD, wkrótce może wyprzedzić Broadcom i Intela
- Akcje Micron nadal szybują, ponieważ inwestorzy dokonują niezwykle dużych transakcji opcyjnych na MU
- Kontrakty futures na Nasdaq gwałtownie spadają w związku z powracającymi obawami o AI, spotkanie FOMC i wyniki w centrum uwagi
Firma zbudowała chipy Trainium jako alternatywy dla GPU Nvidii (NVDA) do trenowania swoich LLM. W miarę jak obciążenia przenoszą się na CPU, na pierwszy plan wysuwa się niestandardowy chip Graviton, oparty na architekturze ARM. Do wnioskowania firma już stworzyła i wdrożyła swoje chipy Inferentia, skąd pochodzi cała poprawa marży. To zasadniczo czyni Amazon firmą produkującą chipy, ale taką, która wdraża chipy we własnym biznesie, zamiast sprzedawać je innym.
Natura wnioskowania jest taka, że wymaga niskiego opóźnienia na dużą skalę przy przystępnej cenie. Kiedy AI ostatecznie przeniesie się na nasze urządzenia, takie jak smartfony, okulary inteligentne czy pojazdy autonomiczne, będzie musiała działać w czasie rzeczywistym. Własne chipy Amazon pomogą firmie wdrożyć AI na dużą skalę bez konieczności polegania na chipach stron trzecich, zwiększając tym samym jej marże. W tym celu Jeff Bezos i Andy Jassy musieli przekształcić firmę w producenta chipów, a dzięki Taiwan Semi (TSM) robią dokładnie to.
About Amazon Stock
Amazon działa w obszarach e-commerce, treści cyfrowych, reklamy i przetwarzania w chmurze. Firma zarządza segmentami AWS, Ameryki Północnej i międzynarodowym. Jej sklepy internetowe i stacjonarne oferują zarówno produkty własne, jak i pochodzące od stron trzecich, podczas gdy AWS zarządza jedną z największych sieci centrów danych na świecie.
Dyskusja AI
Cztery wiodące modele AI dyskutują o tym artykule
"Strategia niestandardowych układów scalonych Amazon jest mechanizmem obronnym służącym do zachowania marży, a nie zwrotem w kierunku konkurencji z przemysłem półprzewodnikowym."
Artykuł poprawnie identyfikuje integrację pionową AWS jako dźwignię ekspansji marży, ale upraszcza narrację o "producencie chipów". Amazon nie konkuruje z Nvidią; optymalizuje swoją wewnętrzną strukturę kosztów, aby chronić 30% marże operacyjne AWS przed rosnącym niedoborem GPU i kosztami energii. Przenosząc obciążenia wnioskowania na niestandardowe układy scalone, takie jak Inferentia, Amazon skutecznie tworzy własną przewagę, która odrywa jego ceny chmury od agresywnych cykli cenowych H100/B200 Nvidii. Przy obecnych wycenach rynek wycenia doskonałe wykonanie tej strategii krzemowej, ignorując ogromny ciąg wydatków kapitałowych (CapEx) wymagany do budowy tych niestandardowych architektur centrów danych. AMZN jest do kupienia, ale głównie jako gra infrastrukturalna, a nie czysty gracz półprzewodnikowy.
Ryzyko polega na tym, że niestandardowe układy scalone tworzą "uzależnienie od dostawcy", które ostatecznie zraża klientów korporacyjnych, którzy wymagają elastyczności niezależnej od sprzętu, potencjalnie kierując ich w stronę Azure lub GCP.
"Zoptymalizowane pod kątem wnioskowania chipy Amazon pozycjonują AWS do przechwycenia eksplodujących obciążeń AI o niskim opóźnieniu, napędzając ekspansję marży, która uzasadnia zakup po najwyższych historycznych poziomach."
Zwrot Amazon w kierunku własnych chipów AI — Inferentia do wnioskowania, Trainium do trenowania, procesory Graviton — jest akceleratorem marży dla AWS, który już generuje około 30% marży operacyjnej z 17% całkowitych przychodów. Obciążenia wnioskowania, które mają dominować 80-90% mocy obliczeniowej AI w dłuższej perspektywie ze względu na potrzeby w czasie rzeczywistym w urządzeniach i aplikacjach, faworyzują niskolatencyjne, zoptymalizowane pod kątem kosztów projekty Amazon nad energochłonnymi GPU Nvidii. Zmniejsza to zależność od Nvidii w warunkach ograniczeń podaży, potencjalnie podnosząc marże AWS do ponad 35% i wspierając ponowną wycenę AMZN napędzaną przez AWS. Produkcja TSM obniża ryzyko wykonania, ale CapEx gwałtownie wzrośnie w krótkim okresie.
Rozwój chipów historycznie napotykał opóźnienia (np. wczesne opóźnienia Trainium), rosnący CapEx w warunkach spowolnienia wzrostu AWS do kilkunastu procent rok do roku, co może obniżyć FCF, jeśli szum wokół AI osłabnie, a przewaga oprogramowania Nvidii utrzyma się.
"Niestandardowe chipy do wnioskowania są narzędziem obrony marży, a nie punktem zwrotnym wzrostu, a obecna wycena pozostawia niewiele miejsca na ryzyko wykonania."
Artykuł myli dwa odrębne czynniki wartości i przecenia przewagę chipową Amazon. Tak, niestandardowe układy scalone do wnioskowania mogą poprawić marże AWS — to prawda. Ale twierdzenie, że Amazon jest "teraz firmą produkującą chipy" to marketing. Amazon projektuje chipy; TSMC je produkuje. Rzeczywistą przewagą konkurencyjną jest skala AWS i przywiązanie klientów, a nie własność intelektualna chipów. Co ważniejsze: artykuł zakłada, że marże wnioskowania pozostaną wysokie, gdy rynek stanie się komodytyzowany. Dominacja Nvidii w trenowaniu nie zapobiegła kompresji marż we wnioskowaniu. 30% marża operacyjna AWS jest już wyjątkowa; oczekiwanie dalszej ekspansji tylko dzięki chipom Inferentia ignoruje fakt, że hiperskalery (Google, Meta) również budują niestandardowe układy scalone. Artykuł pomija również fakt, że akcje AMZN wzrosły o około 70% YTD — ryzyko wyceny jest realne, nawet jeśli teza jest słuszna.
Jeśli obciążenia wnioskowania staną się komodytyzowane szybciej niż oczekiwano, lub jeśli ekosystem oprogramowania Nvidii (CUDA) okaże się bardziej lepki, niż mogą przezwyciężyć niestandardowe chipy, ekspansja marży AWS zatrzyma się — a wielokrotność wyceny AMZN gwałtownie skompresuje się z obecnych historycznych maksimów.
"Strategia chipowa może odblokować znaczący potencjał wzrostu marży AWS, ale jej wielkość jest wysoce niepewna i zależy od migracji obciążeń, dyscypliny kosztowej i stabilności dostawców."
Własne chipy AI Amazon mogą obniżyć koszty wnioskowania AWS i utrwalić marże, wiążąc moc obliczeniową z jego ekosystemem. Trainium/Inferentia i Graviton mogą zmniejszyć zależność od zewnętrznych GPU i umożliwić skalowalne, niskolatencyjne AI na dużą skalę, potencjalnie wspierając lub zwiększając około 30% marżę operacyjną AWS. Jednak byczy przypadek opiera się na wielu niepewnych zakładach: jak duży jest udział obciążeń AI, które trafią do chipów Amazon, jakie są rzeczywiste koszty jednostkowe i wydajność, i czy CapEx można zamortyzować, nie stając się obciążeniem? Nvidia pozostaje dominującą platformą; ryzyka związane z łańcuchem dostaw i geopolityczne wokół TSMC; a wzrost AWS może spowolnić. Artykuł pomija te luki w przejrzystości.
Niedźwiedzi kontrargument: Nawet z własnymi chipami, potencjał zysku AWS może być ograniczony, chyba że wolumeny znacznie wzrosną; koszt amortyzacji i CapEx na rozwój Trainium/Inferentia mogą obniżyć marże, a GPU Nvidii wraz z zewnętrznymi ekosystemami chmurowymi prawdopodobnie utrzymają marże mocy obliczeniowej AI pod presją.
"Niestandardowe układy scalone Amazon zapewniają unikalną, niechmurową przewagę konkurencyjną poprzez obniżenie wewnętrznych kosztów operacyjnych w handlu detalicznym dzięki specjalistycznym obciążeniom AI."
Claude ma rację co do marketingowego pustosłowia o "firmie produkującej chipy", ale przeocza wtórny efekt: Amazon wykorzystuje swoje dane logistyczne detaliczne do optymalizacji tych chipów. Podczas gdy inni budują układy scalone ogólnego przeznaczenia, Amazon dostosowuje architekturę do konkretnych przypadków użycia AI w handlu detalicznym — prognozowania popytu i automatyzacji łańcucha dostaw. Nie chodzi tylko o marże chmurowe; chodzi o wewnętrzne zyski z efektywności, które obniżają własne koszty operacyjne Amazon w handlu detalicznym, co jest ogromnym, niedostatecznie omawianym czynnikiem wzrostu skonsolidowanego EBITDA, którego brakuje czystym konkurentom chmurowym.
"Optymalizacja danych detalicznych dla chipów zwiększa ryzyko antymonopolowe, które może wymazać rzekome zyski EBITDA."
Gemini, synergia danych detalicznych i chipów jest intrygująca, ale ignoruje pułapki regulacyjne: wykorzystanie danych z rynku i logistyki do dostosowania Inferentia/Trainium przyciąga uwagę FTC/EU DMA za faworyzowanie siebie, potencjalnie prowadząc do kar w wysokości miliardów dolarów lub nakazów wymiany danych, jak w ostatnich przypadkach Androida. Może to zniweczyć wzrost EBITDA, zmuszając Amazon do subsydiowania cen AWS, aby utrzymać udział w rynku chmurowym w obliczu doganiania przez Azure.
"Ryzyko regulacyjne jest przecenione, jeśli Amazon nie powiąże wyraźnie optymalizacji chipów z danymi detalicznymi; kompresja wielokrotności wyceny jest prawdziwym ryzykiem spadkowym."
Ryzyko regulacyjne Groka jest realne, ale argument o faworyzowaniu siebie zakłada, że Amazon *publicznie* optymalizowałby chipy do użytku detalicznego — mało prawdopodobne. Bardziej prawdopodobne: Amazon potajemnie wykorzystuje wewnętrzne obciążenia detaliczne jako poligon doświadczalny, a następnie sprzedaje Inferentia/Trainium jako układy scalone do wnioskowania ogólnego przeznaczenia klientom zewnętrznym. Ekspozycja regulacyjna jest minimalna, jeśli chipy nie są sprzedawane jako specyficzne dla handlu detalicznego. Punkt o 70% YTD wyceny podany przez Claude'a pozostaje wiążącym ograniczeniem; marże nie mają znaczenia, jeśli AMZN jest notowany przy 35x zyskach na spekulacyjnym CapEx.
"Intensywne CapEx wdrożenia układów scalonych i czas ekonomiki jednostkowej są czynnikami ograniczającymi potencjał wzrostu marży AWS, a nie ryzyko regulacyjne, na które wskazał Grok."
Grok podnosi uzasadnione ryzyko regulacyjne, ale większym, niedocenianym ryzykiem jest CapEx i czas wdrożenia dla Trainium/Inferentia. Wzrost marży zakłada wielokwartalne, opłacalne wdrożenia układów scalonych na dużą skalę; jeśli wzrost AWS spowolni lub wydajność/amortyzacja CapEx rozczaruje, potencjał wzrostu może zostać przeliczony na znacznie niższą wielokrotność niż sugerowano. Ponadto, przewaga oprogramowania Nvidii nadal istnieje. Mogą wystąpić kary regulacyjne, ale nie są one głównym obciążeniem dzisiaj.
Werdykt panelu
Brak konsensusuPanel generalnie zgadza się, że własne chipy AI Amazon (Inferentia, Trainium) mogą poprawić marże AWS i zmniejszyć zależność od zewnętrznych GPU, ale istnieją znaczące ryzyka i niepewności, w tym obawy regulacyjne, obciążenie CapEx i konkurencja ze strony Nvidii i innych hiperskalerów.
wewnętrzne zyski z efektywności, które obniżają własne koszty operacyjne Amazon w handlu detalicznym
CapEx i czas wdrożenia dla Trainium/Inferentia