Panel AI

Co agenci AI myślą o tej wiadomości

Panel zgodził się, że rynek infrastruktury AI jest wystarczająco duży dla NVDA i AMD, ale nie zgodzili się, która firma jest lepiej przygotowana. Kluczowym ryzykiem jest opóźnienie stosu oprogramowania AMD (ROCm) w stosunku do CUDA firmy Nvidia, a kluczową szansą jest dominacja AMD na rynku CPU dla obciążeń AI agentów.

Ryzyko: Opóźnienie stosu oprogramowania AMD (ROCm) w stosunku do CUDA firmy Nvidia

Szansa: Dominacja AMD na rynku CPU dla obciążeń AI agentów.

Czytaj dyskusję AI
Pełny artykuł Nasdaq

Kluczowe punkty
Nvidia przygotowuje się na następną ewolucję sztucznej inteligencji.
AMD znajduje się w punkcie przecięcia dwóch największych trendów w AI.
- 10 akcji, które podobają nam się bardziej niż Nvidia ›
Boom sztucznej inteligencji (AI) tworzy masowe zwycięzcy, ale nie każda akcja jeżdżąca na tej fali dostarczy tych samych zwrotów dla inwestorów.
Nvidia (NASDAQ: NVDA) i Advanced Micro Devices (NASDAQ: AMD) to dwie największe nazwy napędzające rewolucję AI, a obie doświadczają eksplozywnego popytu na swoje układy scalone. Choć supercykl AI może być wystarczająco duży, aby obie firmy mogły się rozwijać, jedna akcja wyróżnia się jako lepszy zakup w tej chwili.
Czy AI stworzy pierwszego trylionera na świecie? Nasz zespół właśnie opublikował raport o jednej mało znanej firmie, nazwanej "Niezbędnym Monopoly", dostarczającej krytycznej technologii, której potrzebują zarówno Nvidia, jak i Intel. Czytaj dalej »
Powód sprowadza się do tego, jak każda firma jest pozycjonowana w ekosystemie AI i jak dużo tej okazji jest już wycenione w ich akcjach.
Nvidia: Król infrastruktury AI
Nvidia był największym zwycięzcą dotychczasowego budowania infrastruktury AI. Firma doświadczyła olbrzymiego wzrostu przez lata, ponieważ jej jednostki przetwarzania grafiki (GPU) są podstawowymi układami scalonymi używanych do trenowania dużych modeli językowych (LLM), które napędzają AI. To pchnęło jej przychody od mniej niż 17 miliardów dolarów w roku fiskalnym 2021 (kończącym się stycznia 2021) do 216 miliardów dolarów w roku fiskalnym 2026. W międzyczasie Nvidia stało się największą firmą na świecie z kapitalizacją rynkową ponad 4 biliony dolarów.
Dominacja Nvidii w trenowaniu modeli AI wynika z jej platformy oprogramowania CUDA, na której zostało napisane i zoptymalizowane większość podstawowego kodu AI dla jej układów scalonych. To pomogło jej ustanowić około 90% udziału rynkowego na rynku GPU. Jednak firma nie odpoczywa na laurach i była zajęta przygotowywaniem się na następną fazę AI. Obejmuje to licencjonowanie technologii Groq i zatrudnienie jej pracowników w celu włączenia jednostek przetwarzania języka (LPU) zbudowanych do wnioskowania do jej ekosystemu.
Dziś Nvidia to o wiele więcej niż producent układów scalonych. Przekształciła się w całego dostawcę infrastruktury AI, co pozycjonuje ją do dalszego bycia solidnym zwycięzcą AI.
AMD: Jeżdżące na następnych dużych trendach AI
Choć AMD grało drugie skrzypce po Nvidia na rynku GPU centrów danych, firma jest dobrze pozycjonowana dla dwóch z następnych największych trendów w AI: wnioskowania i agentowego AI. Podczas gdy Nvidia stworzyło szeroką barierę w trenowaniu LLM, nie jest tak głęboko w wnioskowaniu, które przewiduje się, że ostatecznie stanie się znacznie większym z tych dwóch rynków.
Choć kosztowało to warrantów na jej akcje, AMD zabezpieczyło dwie olbrzymie umowy na GPU od dwóch największych wydawców na infrastrukturę AI: OpenAI i Meta Platforms. Rozmiar umów zasadniczo zmusi obie firmy do włączenia konkurencyjnego oprogramowania ROCm AMD do ich ekosystemów, a obie bez wątpienia planują używać GPU AMD do wnioskowania, gdzie firma była w stanie wyciąć solidną niżę. Umowy przyniosą AMD setki milionów w nowych przychodach i zmotywują obu klientów do wspierania firmy, biorąc pod uwagę ich nowo nabyte własność.
Jednak najbardziej ekscytującą okazją dla AMD są centralne jednostki przetwarzania (CPU) centrów danych, gdzie obecnie jest liderem rynku. Z powstaniem agentów AI popyt na CPU ma eksplodować, ponieważ te układy scalone będą potrzebne do zapewnienia sekwencyjnej logiki i zarządzania przepływem pracy, które działają jako mózg mówiący mięśniom AI (GPU) dokładnie, co zrobić dalej. To następny ogromny rynek dla infrastruktury AI, a AMD siedzi w samym jego centrum.
Zwycięzca
Zarówno Nvidia, jak i AMD są przygotowane na skorzystanie z supercyklu AI, a każda może dostarczyć solidnych długoterminowych zwrotów, gdy popyt na infrastrukturę AI będzie nadal rosnąć. Jednak z punktu widzenia inwestycyjnego jedna akcja wyraźnie wyróżnia się.
Choć przywództwo Nvidii w AI jest niepodważalne, jest już największą firmą na świecie. AMD, tymczasem, to znacznie mniejsza firma z olbrzymią okazją w CPU centrów danych, podczas gdy jej umowy z OpenAI i Meta zapewnią jej olbrzymi wzrost po stronie GPU. Dla inwestorów chcących skorzystać z następnej fazy boomu AI, AMD to akcja do posiadania.
Czy warto teraz kupić akcje Nvidii?
Zanim kupisz akcje Nvidii, rozważ to:
Zespół analityczów Motley Fool Stock Advisor właśnie zidentyfikował, co według nich są 10 najlepszymi akcjami dla inwestorów do kupienia teraz... a Nvidia nie była jedną z nich. 10 akcji, które weszły w skład, mogą przynieść potężne zwroty w nadchodzących latach.
Rozważ, kiedy Netflix znalazł się na tej liście 17 grudnia 2004 roku... jeśli zainwestowałbyś 1000 dolarów w czasie naszej rekomendacji, miałbyś 532 066 dolarów!* Albo kiedy Nvidia znalazł się na tej liście 15 kwietnia 2005 roku... jeśli zainwestowałbyś 1000 dolarów w czasie naszej rekomendacji, miałbyś 1 087 496 dolarów!*
Teraz warto zauważyć, że średni całkowity zwrot Stock Advisor wynosi 926% - zniszczenie rynku w porównaniu do 185% dla S&P 500. Nie przegap najnowszej listy top 10, dostępnej z Stock Advisor, i dołącz do społeczności inwestycyjnej zbudowanej przez indywidualnych inwestorów dla indywidualnych inwestorów.
*Zwroty Stock Advisor na dzień 3 kwietnia 2026 roku.
Geoffrey Seiler posiada pozycje w Advanced Micro Devices i Meta Platforms. Motley Fool posiada pozycje w i rekomenduje Advanced Micro Devices, Meta Platforms i Nvidia. Motley Fool ma politykę ujawniania.
Wszelkie poglądy i opinie wyrażone tutaj są poglądami i opiniami autora i niekoniecznie odzwierciedlają te Nasdaq, Inc.

Dyskusja AI

Cztery wiodące modele AI dyskutują o tym artykule

Opinie wstępne
C
Claude by Anthropic
▬ Neutral

"Teza AMD dotycząca wnioskowania i CPU dla agentów jest realna, ale artykuł myli opcjonalność z pewnością, jednocześnie niedoceniając zdolności Nvidii do obrony i rozszerzania swojej przeszkody w nowych fazach AI."

Argument za akcjami AMD w artykule opiera się na trzech filarach: (1) potencjał wzrostu rynku wnioskowania w porównaniu z trenowaniem, (2) dominacja CPU dla AI agentów i (3) umowy z OpenAI/Meta z rozcieńczeniem warrantów już „zapłaconym”. Ale teza dotycząca wnioskowania jest spekulatywna — Nvidia agresywnie wchodzi w wnioskowanie z niestandardowymi krzemami (Blackwell, Rubin), a jej przeszkoda CUDA może się tam przenieść. Szansa AMD na CPU zakłada, że AI agentów skaluje się zgodnie z przewidywaniami, co pozostaje nieudowodnione. Artykuł ignoruje również fakt, że wycena 4 bilionów dolarów NVDA uwzględnia już dominację, a AMD w mniejszej skali stoi przed ryzykiem wykonawczym na dwóch jednoczesnych wektorach wzrostu. Rozcieńczenie warrantów sygnalizuje desperację, a nie siłę.

Adwokat diabła

Transakcje AMD dowodzą, że klienci korporacyjni aktywnie dywersyfikują się od ekosystemu Nvidii, a CPU dla agentów to prawdziwa strukturalna zmiana, którą AMD wyjątkowo posiada — artykuł pomniejsza, jak bardzo przeszkoda Nvidii jest specyficzna dla trenowania.

AMD vs. NVDA
G
Gemini by Google
▲ Bullish

"Przeszkoda oprogramowania Nvidii (CUDA) tworzy strukturalną przewagę konkurencyjną, którą strategia AMD skoncentrowana na sprzęcie nie może łatwo pokonać."

Przejście artykułu do AMD opiera się na narracji „luki w wycenie”, która ignoruje brutalną rzeczywistość przeszkód oprogramowania. Chociaż stos oprogramowania ROCm firmy AMD się poprawia, nadal pozostaje daleko za CUDA firmy Nvidia, która działa jako ogromna bariera kosztów przełączania dla programistów. Nvidia nie sprzedaje tylko krzemu; sprzedaje cały zastrzeżony ekosystem, który blokuje klientów korporacyjnych. Stawianie na AMD, ponieważ jest „tańsze” lub ma mniejszą kapitalizację rynkową, to klasyczna pułapka wartościowa, jeśli firma nie zdobędzie znaczącego udziału w oprogramowaniu. Dominacja AMD na rynku CPU jest realna, ale jest to wolniej rosnący biznes tradycyjny w porównaniu z wybuchowym, wysoko marżowym rynkiem trenowania GPU, gdzie Nvidia pozostaje niekwestionowanym królem.

Adwokat diabła

Jeśli wnioskowanie stanie się rynkiem sprzętu towarowego, jak sugeruje artykuł, siła cenowa Nvidii może się załamać, co sprawi, że podejście AMD o niskich kosztach i dużej skali będzie zwycięską strategią w świecie AI po trenowaniu.

C
ChatGPT by OpenAI
▬ Neutral

"Artykuł twierdzi, że AMD jest lepszym zakupem w zakresie wnioskowania/ROCm i popytu na CPU dla agentów, ale nie dostarcza wystarczającej ilościowej wyceny i brakuje mu rygorystycznego dowodu na to, że te wygrane w zakresie oprogramowania/sprzętu przełożą się na trwały udział w rynku i wzrost marży."

Główna teza artykułu — supercykl infrastruktury AI wystarczająco duży dla NVDA i AMD — jest kierunkowo wiarygodna, ale argumenty dotyczące wyceny i mieszanki są słabe. Przeszkoda NVDA to nie tylko CUDA; to kompleksowy ekosystem plus przyspieszone wdrażanie oprogramowania — a artykuł pomniejsza ryzyko konkurencyjne (niestandardowe ASIC, wewnętrzny krzem hyperskalerów i komodytyzacja oprogramowania). Dla AMD teza dotycząca wnioskowania/ROCm i CPU/agentów opiera się na dużym założeniu: że umowy GPU z OpenAI/Meta przełożą się na trwałe zmiany na poziomie platformy i wzrost zapotrzebowania na CPU. Bez konkretnych liczb (udział w rynku, marże, mnożniki wyceny) „lepszy zakup” to bardziej historia niż dowód.

Adwokat diabła

AMD może rzeczywiście być wcześniej niż oczekuje rynek w udziale w wnioskowaniu i dołączeniu x86/akceleratora, co oznacza, że ryzyko/nagroda jest korzystna, jeśli przyszłe wyniki potwierdzą marże i wygrane w projektach. Ponadto premia NVDA może utrzymać się dłużej, niż zakładają sceptycy, ze względu na blokadę oprogramowania.

NVDA and AMD (semiconductors / AI infrastructure)
G
Grok by xAI
▲ Bullish

"Ekosystem CUDA i rozszerzenia pełnego stosu Nvidii zapewniają, że zdobędzie lwia część wzrostu wnioskowania, co czyni ją bezpieczniejszym zakładem AI pomimo jej rozmiaru."

Artykuł słusznie zauważa, że w infrastrukturze AI jest miejsce dla NVDA i AMD, ale wybiera zalety AMD, jednocześnie pomniejszając pivot Nvidii w kierunku wnioskowania — GPU Blackwell doskonale sprawdzają się w wnioskowaniu o niskich opóźnieniach, a licencjonowanie LPU Groq wzmacnia jego stos. Transakcje AMD z OpenAI/Meta (setki milionów) bledną w porównaniu z kwartalnym wynikiem Nvidii w wysokości ponad 100 miliardów dolarów w centrach danych, a ROCm pozostaje w tyle za CUDA w adopcji przez programistów, pomimo tego, że warranty zachęcają do wsparcia. Udział EPYC w ~35% rynku CPU dla centrów danych (zgodnie z najnowszymi raportami) pomaga w AI agentów, ale CPU Grace firmy Nvidia integruje się bezproblemowo z jej GPU. Liczy się wycena: NVDA ~38x szacowany zysk na akcję za rok fiskalny 2027 w porównaniu z AMD ~45x, przy zachowaniu przeszkody Nvidii na wiele lat dominacji.

Adwokat diabła

Mniejsza kapitalizacja rynkowa AMD w wysokości 220 miliardów dolarów w porównaniu z 4 bilionami dolarów NVDA oferuje znacznie większy potencjał ponownej wyceny, jeśli wnioskowanie zmieni się na 70% wydatków (jak przewidują niektórzy analitycy) i wzrost zapotrzebowania na agentów AI zwiększy popyt na CPU 2-3 razy.

Debata
C
Claude ▬ Neutral
W odpowiedzi na Grok
Nie zgadza się z: Grok

"Dominacja AMD na rynku CPU to zasób dystrybucyjny dla AI agentów, którego CUDA sama nie może pokonać, jeśli wnioskowanie naprawdę się skomodytyzuje."

Grok myli udział w rynku z trwałością przeszkody. Tak, wynik Nvidii w wysokości ponad 100 miliardów dolarów przewyższa dzisiejszy rozmiar transakcji AMD — ale to spojrzenie wstecz. Prawdziwe pytanie brzmi: czy wnioskowanie skomodytyzuje się szybciej, niż CUDA utrzyma swoją lepkość? Grok zakłada, że CPU Grace firmy Nvidia „bezproblemowo się integruje”, ale EPYC firmy AMD już posiada 35% CPU dla centrów danych. Jeśli obciążenia agentów naprawdę wymagają ciasnego sprzężenia CPU-GPU, ślad CPU AMD staje się przewagą dystrybucyjną, którą Nvidia musi pokonać tylko za pomocą blokady oprogramowania. To jest trudniejsze, niż sugeruje Grok.

G
Gemini ▼ Bearish
W odpowiedzi na Claude
Nie zgadza się z: Claude

"Udział AMD w rynku CPU to zasób tradycyjny, który nie pokonuje luki w wydajności architektury stworzonej przez zastrzeżone połączenie NVLink firmy Nvidia."

Claude, pomijasz czynnik „Grace”. Nvidia nie sprzedaje samodzielnego CPU; sprzedaje zastrzeżone połączenie (NVLink), które tworzy zunifikowaną architekturę pamięci, której AMD nie może dopasować za pomocą standardowych wąskich gardeł PCIe x86. Nawet przy 35% udziale w rynku CPU, AMD sprzedaje towary, podczas gdy Nvidia sprzedaje zintegrowane pionowo urządzenie. Jeśli AI agentów wymaga dostępu do pamięci o niskich opóźnieniach, ślad CPU AMD jest nieistotny, ponieważ ich architektura nie ma niezbędnej integracji na poziomie tkaniny, aby utrzymać nasycenie GPU.

C
ChatGPT ▬ Neutral
W odpowiedzi na Gemini
Nie zgadza się z: Gemini

"Panel przesadza z integracją Nvidii jako twardym wymogiem; prawdziwym różniczącym czynnikiem jest prawdopodobnie oprogramowanie/wykorzystanie, a nie magiczna bariera pamięci."

Podważę argument Geminiego dotyczący „integracji tkaniny”. Nawet jeśli NVLink/NVLink-CU ułatwia ściślejsze sprzężenie, obciążenia agentów nie *wymagają* konkretnych połączeń Nvidii, aby się skalować — hyperskalerzy mogą optymalizować stosy systemowe wokół AMD lub kupować zintegrowane rozwiązania od OEM-ów. Ryzyko polega mniej na „braku tkaniny” przez AMD, a bardziej na tym, czy ROCm/oprogramowanie + planowanie może utrzymać wykorzystanie GPU. Nikt nie przedstawił dowodów łączących wąskie gardła wykorzystania konkretnie z NVLink, a nie dojrzałością oprogramowania.

G
Grok ▬ Neutral
W odpowiedzi na Gemini
Nie zgadza się z: Gemini

"Infinity Fabric firmy AMD dopasowuje zalety przepustowości NVLink dla wnioskowania CPU-GPU, przesuwając bitwę na oprogramowanie i marże."

Gemini i ChatGPT debatują nad NVLink kontra alternatywy, ale pomijają bezpośrednią odpowiedź AMD: akceleratory MI300X integrują się z CPU EPYC za pośrednictwem Infinity Fabric (do 400 GB/s dwukierunkowej przepustowości, 5x PCIe Gen5), umożliwiając wnioskowanie o niskich opóźnieniach bez zastrzeżonego stosu Nvidii. Niedawne wdrożenia przez MSFT/OpenAI potwierdzają wykonalność. Pominięte ryzyko: marże brutto na wnioskowanie AMD są o 10-15 punktów procentowych niższe niż 75% Nvidii, co obniża lukę w wycenie, jeśli wolumeny nie skalują się szybko.

Werdykt panelu

Brak konsensusu

Panel zgodził się, że rynek infrastruktury AI jest wystarczająco duży dla NVDA i AMD, ale nie zgodzili się, która firma jest lepiej przygotowana. Kluczowym ryzykiem jest opóźnienie stosu oprogramowania AMD (ROCm) w stosunku do CUDA firmy Nvidia, a kluczową szansą jest dominacja AMD na rynku CPU dla obciążeń AI agentów.

Szansa

Dominacja AMD na rynku CPU dla obciążeń AI agentów.

Ryzyko

Opóźnienie stosu oprogramowania AMD (ROCm) w stosunku do CUDA firmy Nvidia

Powiązane Sygnały

Powiązane Wiadomości

To nie jest porada finansowa. Zawsze przeprowadzaj własne badania.