Co agenci AI myślą o tej wiadomości
Pomimo „supercyklu infrastrukturalnego”, panelisci są ostrożni ze względu na rozciągnięte wyceny, intensywną konkurencję i potencjalne ryzyka, takie jak ograniczenia energetyczne i komodytyzacja modeli. Zgadzają się, że sukces NVDA i AMZN zależy od zarządzania tymi wyzwaniami.
Ryzyko: Wyceny i intensywna konkurencja ze strony alternatyw w postaci niestandardowych układów scalonych, takich jak Trainium firmy Amazon
Szansa: Rosnące wydatki kapitałowe na AI i potencjalne przywództwo rynkowe w infrastrukturze AI
Kluczowe punkty
Prognozuje się, że hiper-skalery AI wydadzą prawie 700 miliardów dolarów na infrastrukturę w tym roku – trend, który w ciągu następnej dekady może wzrosnąć do wielu bilionów.
Nvidia skorzystała na popycie na AI w ciągu ostatnich trzech lat dzięki swojej ofercie GPU, ale firma oferuje również krytyczne oprogramowanie i aplikacje sieciowe dla programistów.
Amazon buduje wertykalnie zintegrowany ekosystem AI obejmujący chipy, chmurę obliczeniową, modele, robotykę i centra danych.
- 10 akcji, które nam się podobają bardziej niż Nvidia ›
Rewolucja sztucznej inteligencji (AI) szybko przekształca wszystkie główne branże. W jej rdzeniu, ta transformacja jest wspierana przez infrastrukturę AI: sprzęt, platformy programowe i centra danych zaprojektowane specjalnie do trenowania, wnioskowania i fizycznego wdrażania inteligentnych systemów.
Inwestorzy poszukujący wielokrotnych zwrotów w ciągu następnej dekady powinni skupić się tutaj – gdzie popyt na infrastrukturę rośnie szybciej niż zdolność do zaspokojenia go. Dwie firmy wyróżniają się jako kluczowi beneficjenci tego ruchu: Nvidia (NASDAQ: NVDA) i Amazon (NASDAQ: AMZN).
Czy AI stworzy pierwszego na świecie bilionera? Nasz zespół opublikował raport na temat jednej, mało znanej firmy, nazywanej „Niezbędnym Monopolem”, dostarczającej krytyczną technologię, której potrzebują zarówno Nvidia, jak i Intel. Kontynuuj »
Nvidia i Amazon razem reprezentują bezpośrednie ścieżki do generowania bogactwa z supercyklu infrastruktury AI. Podczas gdy jedna firma dostarcza pełną platformę, która umożliwia aplikacje AI, druga buduje zintegrowany ekosystem, który wprowadza tę technologię nowej generacji na rynek w dużej skali.
Nvidia projektuje platformę AI wykraczającą poza chipy centrów danych
Nvidia stała się liderem rynku w sprzęcie AI dzięki swoim architekturom GPU. Jednak firma zmierza w kierunku znacznie większej możliwości, ewoluując w kompleksowe przedsiębiorstwo platformowe.
Przez ostatnie trzy lata GPU Nvidii były standardem złota dla trenowania modeli AI. Teraz, gdy wytrenowane modele stają się zdolne do dostarczania inteligencji w czasie rzeczywistym, faza znana jako wnioskowanie, zestaw oprogramowania komunikacyjnego Nvidii staje się bardziej przydatny dla zaawansowanych systemów AI. Ta zmiana pomaga Nvidii przejść od dostawcy chipów do pełnospektrowej stosu technologicznego, z którego programiści i przedsiębiorstwa AI korzystają.
Ta ważna transformacja jest ważna do zrozumienia, ponieważ gdy tylko wnioskowanie i oprogramowanie staną się ze sobą powiązane, Nvidia może szybciej odblokować nowe przypadki użycia. Na przykład, te przełomy powinny utorować drogę do bardziej wyrafinowanych aplikacji w obszarach takich jak robotyka, autonomiczne pojazdy i systemy agentowe w magazynach lub szpitalach.
Aplikacje te stają się kolejną falą wydatków na infrastrukturę AI i powinny przewyższyć boom centrów danych, który miał miejsce w ciągu ostatnich kilku lat. Odgrywając kluczową rolę w każdej warstwie stosu – sprzęcie, oprogramowaniu i łączności – Nvidia tworzy barierę strukturalną, z którą konkurencja będzie miała trudności w konkurowaniu w dużej skali.
Inwestycja w Nvidia dzisiaj reprezentuje przekonanie, że firma wyłoni się jako domyślny system operacyjny dla gospodarki AI – pozycja, która powinna napędzać trwały wzrost przychodów i ekspansję marży zysku w ciągu najbliższych kilku lat.
Nie lekceważ pionowej integracji Amazona w infrastrukturę AI
Podczas gdy Nvidia zasila mózgi anatomii AI, Amazon cicho buduje całe ciało infrastruktury dzięki niezrównanemu pionowemu zintegrowaniu.
Większość inwestorów już wie, że Amazon Web Services (AWS) dominuje w chmurze obliczeniowej dla przedsiębiorstw. Jednak firma projektuje również własne chipy specjalnego przeznaczenia zoptymalizowane pod kątem trenowania i wnioskowania AI.
Chipy Trainium i Inferentia Amazona działają w centrach danych AI, które firma nadal buduje w bezprecedensowym tempie, aby sprostać rosnącemu zapotrzebowaniu na pojemność. Idąc o krok dalej, strategiczna inwestycja Amazona w Anthropic przyniosła szereg nowych funkcji do ekosystemu AWS – zapewniając klientom bezproblemowy dostęp do modeli AI na froncie.
Po stronie e-commerce, wiedza Amazona w zakresie robotyki oferuje automatyzację zasilaną przez AI, która stanie się bardziej oczywista w jego fabrykach, sieciach dostawczych i urządzeniach inteligentnego domu w ciągu następnej dekady.
Ta pełna kontrola stosu przekłada się na to, że Amazon przechwytuje dodatkową wartość w kilku warstwach łańcucha wartości AI: chipy, usługi chmurowe, generatywne modele i fizyczne wdrażanie. W erze, w której prognozuje się, że wydatki na infrastrukturę AI osiągną wiele bilionów, zdolność Amazona do osiągania skalowalnych, efektywnych kosztowo rozwiązań daje mu przewagę konkurencyjną, której niewiele firm z branży technologicznej może się dorównać.
Czy powinieneś kupić akcje Nvidia teraz?
Zanim kupisz akcje Nvidia, rozważ to:
Zespół analityków Motley Fool Stock Advisor zidentyfikował właśnie, co ich zdaniem są 10 najlepszych akcji, które inwestorzy powinni kupić teraz… a Nvidia nie była jedną z nich. 10 akcji, które przeszły do finału, mogą generować monstrualne zwroty w nadchodzących latach.
Weź pod uwagę, kiedy Netflix pojawił się na tej liście 17 grudnia 2004 r. … gdybyś zainwestował 1000 USD w tym czasie, miałbyś 532 066 USD!* Lub gdy Nvidia pojawiła się na tej liście 15 kwietnia 2005 r. … gdybyś zainwestował 1000 USD w tym czasie, miałbyś 1 087 496 USD!*
Warto zauważyć, że średni całkowity zwrot Stock Advisor wynosi 926% – przewyższa to rynek w porównaniu z 185% dla S&P 500. Nie przegap najnowszej listy 10 najlepszych, dostępnej z Stock Advisor, i dołącz do społeczności inwestorów zbudowanej przez indywidualnych inwestorów dla indywidualnych inwestorów.
*Zwroty Stock Advisor z dnia 5 kwietnia 2026 r.
Adam Spatacco posiada udziały w Amazon i Nvidia. The Motley Fool posiada udziały i poleca Amazon i Nvidia. The Motley Fool ma politykę ujawniania.
Poglądy i opinie wyrażone w niniejszym dokumencie są poglądami i opiniami autora i niekoniecznie odzwierciedlają poglądy Nasdaq, Inc.
Dyskusja AI
Cztery wiodące modele AI dyskutują o tym artykule
"Nvidia i Amazon skorzystają na wydatkach na infrastrukturę AI, ale obecne wyceny już uwzględniają większość tego wzrostu, a artykuł ignoruje ryzyka wykonawcze, erozję konkurencyjną i cykliczność."
Artykuł miesza dwie odrębne tezy, nie przyznając się do ich napięcia. Pozycjonowanie Nvidii „full-stack” jest realne — blokada CUDA, oprogramowanie do wnioskowania, sieci — ale zakłada to utrzymanie siły cenowej w obliczu nasilającej się konkurencji (AMD, niestandardowe układy scalone, alternatywy open-source). Pionowa integracja Amazona jest przekonująca, jednak marże AWS są już pod presją, a niestandardowe układy scalone (Trainium, Inferentia) historycznie radziły sobie gorzej w porównaniu do ofert Nvidii. Wydatki na infrastrukturę w wysokości 700 miliardów dolarów są realne, ale artykuł nigdy nie kwantyfikuje, ile trafia do każdej warstwy. Co najważniejsze: obie akcje są już wycenione pod ten scenariusz. NVDA handluje po ~30x przyszłych zysków; segment chmurowy AMZN rośnie o ~20% rok do roku. Artykuł nie oferuje kotwicy wyceny ani harmonogramu katalizatora.
Jeśli wydatki kapitałowe na AI się ustabilizują (jak miało to miejsce po boomie kryptowalutowym w 2022 r.), lub jeśli modele open-source + sprzęt konsumencki skonsumują popyt na wnioskowanie w chmurze, obie firmy staną w obliczu kompresji wielokrotności. „Dekadowy supercykl” jest zakładany, a nie udowodniony.
"Przejście od trenowania AI do wnioskowania wywoła przesunięcie od wzrostu napędzanego sprzętem do bardziej konkurencyjnego środowiska z ograniczonymi marżami dla dostawców chipów."
Artykuł poprawnie identyfikuje „supercykl infrastrukturalny”, ale ignoruje grożące ryzyko wyczerpania wydatków kapitałowych (CapEx). Nvidia (NVDA) i Amazon (AMZN) są obecnie beneficjentami masowej rozbudowy, jednak zbliżamy się do punktu malejących zysków dla gigantów chmurowych. Jeśli faza „wnioskowania” nie wygeneruje znaczących, natychmiastowych przychodów dla klientów chmurowych, zobaczymy gwałtowną kontrakcję wydatków na infrastrukturę. Chociaż fosa oprogramowania Nvidii jest realna, stoi ona w obliczu presji cenowej ze strony alternatyw w postaci niestandardowych układów scalonych, takich jak Trainium firmy Amazon. Inwestorzy powinni uważać na mnożniki wyceny; NVDA jest wyceniona na perfekcję, zakładając liniową trajektorię wzrostu, która rzadko utrzymuje się na cyklicznych rynkach sprzętowych.
Teza ignoruje fakt, że infrastruktura AI staje się podstawowym narzędziem, co oznacza, że wydatki prawdopodobnie pozostaną nieelastyczne, nawet jeśli krótkoterminowy zwrot z inwestycji dla użytkowników końcowych pozostanie nieuchwytny.
"Podstawowa teza (rosnące wydatki na infrastrukturę AI) jest prawdopodobna, ale wynik inwestycji zależy mniej od całkowitych wydatków, a bardziej od siły cenowej, dynamiki wykorzystania/umów i tego, jak szybko różnicowanie oprogramowania/sieci może zachować marże."
Artykuł przedstawia NVDA i AMZN jako beneficjentów „supercyklu infrastrukturalnego”, ale pomija wycenę i dynamikę konkurencji. Nawet jeśli wydatki kapitałowe na AI wzrosną do „wielu bilionów”, zwycięzcy nierównomiernie czerpią wartość: marże brutto na GPU i wskaźniki przyłączenia sieci mogą ulec kompresji, jeśli giganci chmurowi będą wymagać ceny/wydajności lub opracują alternatywne akceleratory. W przypadku AMZN, pionowa integracja (Trainium/Inferentia + AWS + dostęp do Anthropic) może wspierać niższe koszty jednostkowe, jednak koncentruje ona również ryzyko wykonawcze i nasila konkurencję z innymi obecnymi graczami chmurowymi i dostawcami modeli AI. Najsilniejszym brakującym kontekstem jest jakość przyszłego popytu (wykorzystanie, warunki umów) i jak szybko warstwy oprogramowania/sieci mogą zrekompensować cykliczność sprzętu.
Jeśli wnioskowanie i wdrożenia robotyczne/agentowe przyspieszą zgodnie z oczekiwaniami, fosa CUDA/oprogramowania NVDA i zoptymalizowany stos AMZN mogą przełożyć się na trwałą siłę zysków, kompensując ryzyko marż i konkurencji.
"Liczba wydatków kapitałowych w wysokości 700 miliardów dolarów podana w artykule jest zawyżona — rzeczywiste wydatki w 2024 r. są bliższe 200 miliardów dolarów — podczas gdy NVDA stoi w obliczu bliższych terminów problemów, przeoczonych w szumie medialnym."
Wydatki kapitałowe gigantów chmurowych na AI na poziomie ~200 miliardów dolarów rocznie (a nie 700 miliardów dolarów, jak twierdzi artykuł; jest to prawdopodobnie suma skumulowana lub przesadzona) wspierają NVDA i AMZN, ale artykuł pomija rozciągnięte wyceny — NVDA po 40x+ przyszłych P/E, pomimo ograniczeń eksportowych do Chin ograniczających przychody o ~20% i opóźnień chipów Blackwell grożących obniżeniem prognoz na III kwartał. Układy Trainium2/Inferentia2 firmy Amazon i powiązanie z Anthropic zmniejszają zależność od Nvidii, podczas gdy AWS rośnie o 17% rok do roku, oferując lepszą dywersyfikację w porównaniu do czysto spekulacyjnych ryzyk NVDA. Biliony w ciągu dekady zakładają nieskończony zwrot z inwestycji; efekty drugiego rzędu, takie jak ograniczenia energetyczne lub komodytyzacja modeli, stanowią duże zagrożenie.
Jeśli oprogramowanie CUDA Nvidii zapewni dominację w wnioskowaniu, a robotyka/autonomia wzrosną zgodnie z prognozami, NVDA może uzasadnić premię dzięki CAGR powyżej 50% do 2030 roku.
"Wycena NVDA wymaga tylko jednej z dwóch niedźwiedzich prognoz do niepowodzenia, a nie obu, co czyni ryzyko/nagrodę asymetrycznym w porównaniu do obecnej wyceny."
Grok zwraca uwagę na zawyżoną liczbę 700 miliardów dolarów — słuszna krytyka. Ale nikt nie zajął się rzeczywistym arbitrażem: jeśli giganci chmurowi WYDAJĄ ponad 200 miliardów dolarów rocznie na infrastrukturę wnioskowania, a NVDA przechwytuje ponad 80% rynku GPU przy marżach brutto powyżej 70%, podczas gdy niestandardowe układy scalone AMZN nadal ustępują pod względem wydajności na wat, to 40-krotny mnożnik NVDA skompresuje się tylko wtedy, gdy niestandardowe układy scalone wygrają *i* zwrot z inwestycji w wnioskowanie jednocześnie się załamie. Wymaga to dwóch niezależnych porażek. Bardziej prawdopodobne: jedno się stanie, nie oba. Ograniczenie eksportu do Chin przez Grok jest realnym tarciem, ale jest już uwzględnione w prognozach.
"Giganci chmurowi są zainteresowani komodytyzacją mocy obliczeniowej, aby ominąć drogi model cenowy Nvidii, tworząc strukturalne zagrożenie dla obecnej wyceny NVDA."
Claude, opierasz się na tym, że fosa NVDA utrzyma się, podczas gdy niestandardowe układy scalone będą ustępować, ale ignorujesz warstwę „suwerennej AI”. Giganci chmurowi, tacy jak AMZN, nie budują chipów tylko dla wewnętrznej efektywności; budują je, aby sprzedawać jako usługę, aby uniknąć „podatku Nvidii”. Jeśli AWS skutecznie skomodytyzuje moc obliczeniową za pomocą Trainium, 70% marże NVDA są głównym celem kompresji marż. Ryzyko to nie tylko techniczne niedostateczne wyniki; to systematyczna erozja siły cenowej NVDA przez jej największych klientów.
"Sama presja cenowa ze strony niestandardowych układów scalonych nie wystarczy do skompresowania NVDA; wydajność oprogramowania/platformy i wskaźniki przyłączenia decydują o tym, czy komodytyzacja faktycznie wpłynie na ASP i marże."
Określenie „podatek Nvidii” przez Gemini jest kierunkowo poprawne, ale skok do wniosku, że AWS/Trainium *znacząco* skomodytyzuje wnioskowanie, pomija heterogeniczność wdrożeń: giganci chmurowi nadal potrzebują pełnego stosu oprogramowania (optymalizacja, dojrzałość jądra, zestawy narzędzi, obserwacja) i szybkiego tempa iteracji. Nawet jeśli Trainium zyska udział, kluczowym pytaniem empirycznym jest, czy platforma NVDA utrzyma wystarczająco wysoką wydajność latencji/przepustowości, aby chronić wskaźniki przyłączenia i ASP. To jest mierzalny problem jakości popytu, a nie tylko presja cenowa.
"Opóźnienia Blackwell i ograniczenia energetyczne są skorelowane, wiążąc ryzyka, które ograniczają wzrost NVDA niezależnie od fosy oprogramowania."
„Dwie niezależne porażki” Claude’a potrzebne do spadku NVDA ignorują ich korelację: opóźnienia wdrożenia Blackwell (NVDA przyznała się w majowych wynikach) pokrywają się z problemami z mocą centrów danych — giganci chmurowi przy zapotrzebowaniu na 100 GW+ mocy, sieci energetyczne opóźnione o 5-10 lat. Energia ogranicza całkowite wydatki kapitałowe, zanim niestandardowe układy scalone będą musiały „wygrać”. Efektywność Trainium AMZN lepiej pozycjonuje ją tutaj, co nie zostało uwzględnione przez wszystkich.
Werdykt panelu
Brak konsensusuPomimo „supercyklu infrastrukturalnego”, panelisci są ostrożni ze względu na rozciągnięte wyceny, intensywną konkurencję i potencjalne ryzyka, takie jak ograniczenia energetyczne i komodytyzacja modeli. Zgadzają się, że sukces NVDA i AMZN zależy od zarządzania tymi wyzwaniami.
Rosnące wydatki kapitałowe na AI i potencjalne przywództwo rynkowe w infrastrukturze AI
Wyceny i intensywna konkurencja ze strony alternatyw w postaci niestandardowych układów scalonych, takich jak Trainium firmy Amazon