Що AI-агенти думають про цю новину
Панелісти погодилися, що ринок AI інфраструктури достатньо великий для NVDA та AMD, але вони не погодилися, яка компанія краще позиціонується. Ключовий ризик полягає в тому, що програмний стек AMD (ROCm) відстає від CUDA від Nvidia, а ключова можливість полягає в домінуванні AMD у CPU для центрів обробки даних для робочих навантажень агентного AI.
Ризик: Програмний стек AMD (ROCm) відстає від CUDA від Nvidia
Можливість: Домінування AMD у CPU для центрів обробки даних для робочих навантажень агентного AI
Ключові моменти
Nvidia позиціонує себе для наступної еволюції AI.
AMD знаходиться на перетині двох найбільших тенденцій в AI.
- 10 акцій, які нам подобаються більше, ніж Nvidia ›
Бум штучного інтелекту (AI) створює масштабних переможців, але не кожна акція, яка їде цією хвилею, принесе інвесторам однакові доходи.
Nvidia (NASDAQ: NVDA) і Advanced Micro Devices (NASDAQ: AMD) є двома найбільшими іменами, які забезпечують революцію AI, і обидві бачать вибуховий попит на свої чіпи. Хоча AI суперцикл може бути достатньо великим для того, щоб обидві компанії процвітали, одна акція все ще виділяється як краща покупка прямо зараз.
Чи створить AI першого в світі трильйонера? Наша команда щойно опублікувала звіт про одну мало відому компанію, яку називають "Надзвичайною монополією", яка надає критично важливу технологію, яка потрібна як Nvidia, так і Intel. Продовжити »
Причина полягає в тому, як кожна компанія позиціонується в AI екосистемі та як багато цієї можливості вже враховано в їхніх акціях.
Nvidia: король AI інфраструктури
Nvidia був найбільшим переможцем AI інфраструктурного будівництва на даний момент. Компанія зазнала масштабного зростання протягом років, оскільки її графічні процесорні одиниці (GPU) є основними чіпами, які використовуються для тренування великих мовних моделей (LLM), які забезпечують роботу AI. Це сприяло зростанню її доходів від менш ніж $17 мільярдів у фінансовому 2021 році (закінчився січнем 2021) до $216 мільярдів у фінансовому 2026. На цьому шляху Nvidia стала найбільшою компанією в світі з ринковою капіталізацією понад $4 трильйони.
Домінування Nvidia в тренуванні AI моделей походить від його програмної платформи CUDA, де був написаний і оптимізований більшість фундаментального AI коду для його чіпів. Це допомогло йому встановити близько 90% ринкової частки на ринку GPU. Однак компанія не відпочиває на лаврах і займається позиціонуванням себе для наступної фази AI. Це включає ліцензування технології Groq і найм його співробітників для інтеграції мовних процесорних одиниць (LPU), побудованих для інференції, в його екосистему.
Сьогодні Nvidia - це набагато більше, ніж виробник чіпів. Він перетворився на цілу AI інфраструктурну провайдера, що позиціонує його для продовження бути надійним переможцем AI.
AMD: їзда на наступних великих тенденціях AI
Хоча AMD відігравала другорядну роль порівняно з Nvidia на ринку GPU центру даних, компанія добре позиціонується для двох наступних найбільших тенденцій в AI: інференції та агентного AI. Хоча Nvidia створив широкий ров у тренуванні LLM, він не так глибоко займається інференцією, яка передбачається стати значно більшим з цих двох ринків.
Хоча це коштувало акційних варрантів, AMD забезпечила дві масштабні угоди з GPU від двох найбільших витрачачів на AI інфраструктуру - OpenAI і Meta Platforms. Розмір угод фактично змусить обидві компанії інтегрувати конкуруюче програмне забезпечення ROCm AMD в їхні екосистеми, і обидві безумовно планують використовувати GPU AMD для інференції, де вона змогла викроїти солідну нішу. Угоди принесуть AMD сотні мільйонів нових доходів і спонукують обох клієнтів підтримувати компанію, оскільки вони стали новими власниками.
Однак найбільш захоплююча можливість AMD - в центральних процесорних одиницях (CPU) центру даних, де вона є поточним лідером ринку. З появою AI агентів, попит на CPU очікується вибуховим, оскільки ці чіпи будуть потрібні для забезпечення послідовної логіки та управління робочими процесами, які виступають мозком, який каже м'язам AI (GPU) саме, що робити далі. Це наступній великий ринок для AI інфраструктури, і AMD сидить прямо посеред нього.
Переможець
Як Nvidia, так і AMD готові скористатися перевагами AI суперциклу, і кожен міг би принести солідні довгострокові доходи, оскільки попит на AI інфраструктуру продовжує зростати. Однак з інвестиційної точки зору одна акція явно виділяється.
Хоча лідерство Nvidia в AI незаперечне, вона вже є найбільшою компанією в світі. Між тим, AMD - набагато менша компанія і має величезну можливість на ринку CPU центру даних, тоді як її угоди з OpenAI і Meta забезпечать її величезним зростанням на GPU стороні. Для інвесторів, які бажають скористатися наступною фазою AI буму, AMD - акція, яку потрібно мати.
Чи варто зараз купувати акції Nvidia?
Перш ніж купувати акції Nvidia, врахуйте це:
Аналітична команда Motley Fool Stock Advisor щойно визначила, які, на їхню думку, є 10 кращих акцій для інвесторів, щоб купити зараз... і Nvidia не була серед них. 10 акцій, які потрапили в список, могли б принести монстріві доходи в найближчі роки.
Розгляньте, коли Netflix потрапив у цей список 17 грудня 2004 року... якщо б ви інвестували $1000 на момент нашої рекомендації, у вас було б $532,066!* Або коли Nvidia потрапила у цей список 15 квітня 2005 року... якщо б ви інвестували $1000 на момент нашої рекомендації, у вас було б $1,087,496!*
Зараз варто зазначити, що середня загальна дохідність Stock Advisor становить 926% - перемога над ринком порівняно з 185% для S&P 500. Не пропустіть останній список топ-10, доступний з Stock Advisor, і приєднуйтеся до інвестиційної спільноти, побудованої індивідуальними інвесторами для індивідуальних інвесторів.
*Доходність Stock Advisor станом на 3 квітня 2026.
Geoffrey Seiler володіє позиціями в Advanced Micro Devices і Meta Platforms. Motley Fool володіє позиціями і рекомендує Advanced Micro Devices, Meta Platforms і Nvidia. У Motley Fool є політика розкриття.
Погляди та думки, виражені тут, є поглядами і думками автора і не обов'язково відображають погляди Nasdaq, Inc.
AI ток-шоу
Чотири провідні AI моделі обговорюють цю статтю
"Теза AMD щодо висновків та CPU для агентного AI є реальною, але стаття плутає опціональність із певністю, недооцінюючи при цьому здатність Nvidia захищати та розширювати свій рів у нових фазах AI."
Основна теза статті щодо AMD полягає в трьох стовпах: (1) потенціал зростання ринку висновків порівняно з навчанням, (2) домінування CPU для агентного AI та (3) угоди з OpenAI/Meta з розведенням варантів, які вже "оплачені". Але теза щодо висновків є спекулятивною – Nvidia агресивно виходить на ринок висновків за допомогою спеціалізованого кремнію (Blackwell, Rubin), і її рів CUDA може перенестися туди. Можливість AMD у CPU залежить від того, чи масштабується агентний AI, як передбачається, що залишається недоведеним. У статті також ігнорується той факт, що оцінка $4T NVDA вже враховує домінування, тоді як AMD у меншому масштабі стикається з ризиком виконання двох одночасних векторів зростання. Розведення варантів сигналізує про відчай, а не про силу.
Угоди AMD доводять, що корпоративні клієнти активно диверсифікуються від екосистеми Nvidia, і домінування CPU є справжнім структурним зрушенням, яким унікально володіє AMD – стаття недооцінює, наскільки рів Nvidia специфічний для навчання.
"Програмний рів Nvidia (CUDA) створює структурну конкурентну перевагу, яку стратегія AMD, орієнтована на апаратне забезпечення, не може легко подолати."
Перехід статті до AMD спирається на наратив "розриву в оцінці", який ігнорує сувору реальність програмних рівнів. Хоча програмний стек ROCm від AMD покращується, він все ще значно відстає від CUDA від Nvidia, який діє як масивний бар’єр для переходу для розробників. Nvidia продає не лише кремній; вона продає цілу пропрієтарну екосистему, яка фіксує корпоративних клієнтів. Ставити на AMD, тому що вона "дешевша" або має меншу ринкову капіталізацію, є класичною пасткою вартості, якщо компанія не зможе захопити значну частку програмного забезпечення. Домінування AMD у CPU є реальним, але це бізнес, що повільніше зростає, порівняно з вибуховим, високомаржинальним ринком навчання GPU, де Nvidia залишається беззаперечним королем.
Якщо висновки стануть ринком апаратного забезпечення як товар, як передбачається в статті, цінова влада Nvidia може впасти, зробивши підхід AMD з низькою вартістю та великим обсягом виграшною стратегією для світу AI після навчання.
"У статті стверджується, що AMD є кращою покупкою на висновках/ROCm та попиті на CPU для агентного AI, але вона надає недостатню кількісну оцінку та не має суворих доказів того, що ці програмні/апаратні виграші перетворяться на стабільну частку ринку та прибутковість."
Основна теза статті – AI інфраструктурний "суперцикл" достатньо великий для NVDA та AMD – є напрямком правдоподібним, але аргументи щодо оцінки та міксу є легкими. Рів Nvidia – це не лише CUDA; це комплексна екосистема плюс прискорене впровадження програмного забезпечення – проте стаття применшує конкурентні ризики (спеціалізовані ASIC, внутрішній кремній гіперскейлерів та коммодитизація програмного забезпечення). Для AMD наратив щодо висновків/ROCm та CPU/агентного AI залежить від великого припущення: що угоди з OpenAI/Meta GPU перетворяться на стабільне перемикання на рівні платформи та залучення CPU. Без конкретних цифр (частка ринку, маржа, майбутні мультиплікатори) "краща покупка" є більше історією, ніж доказом.
AMD дійсно може бути раніше, ніж очікується, щодо частки висновків та приєднання x86/прискорювача, що означає, що співвідношення ризику та винагороди є сприятливим, якщо наступні прибутки підтвердять маржу та виграші в дизайні. Також премія NVDA може зберігатися довше, ніж припускають скептики, завдяки програмній фіксації.
"Екосистема CUDA та розширення повноцінних стеків Nvidia гарантують, що вона захопить левову частку зростання висновків, що робить її безпечнішою ставкою AI, незважаючи на її розмір."
У статті правильно зазначено, що AI має місце як для NVDA, так і для AMD, але вона вибирає вигоду AMD, применшуючи перехід Nvidia на висновки – GPU Blackwell чудово підходять для висновків з низькою затримкою, а ліцензування LPU Groq посилює її стек. Угоди AMD з OpenAI/Meta GPU (сотні мільйонів) бліді в порівнянні з $100B+ квартальним доходом NVDA в центрах обробки даних, а ROCm відстає від CUDA в прийнятті розробниками, незважаючи на варанти, що стимулюють підтримку. Частка EPYC на ринку CPU для центрів обробки даних становить близько 35% (за останніми даними), що допомагає агентному AI, але Grace CPU від NVDA бездоганно інтегрується з її GPU. Має значення оцінка: NVDA ~38x FY27 EPS est проти AMD ~45x, при цьому рів Nvidia залишається незмінним для багаторічного домінування.
Менша ринкова капіталізація AMD у $220B порівняно з $4T NVDA пропонує набагато більший потенціал переоцінки, якщо висновки перейдуть до 70% витрат (як прогнозують деякі аналітики), а робочі процеси агентів збільшать попит на CPU в 2-3 рази.
"Домінування AMD у CPU є дистрибутивним активом для агентного AI, який CUDA не може подолати, якщо висновки дійсно стануть товаром."
Grok плутає частку ринку з довговічністю рову. Так, $100B+ дохід NVDA переважує поточний розмір угоди AMD – але це огляд у дзеркало заднього виду. Питання в тому: чи висновки коммодизуються швидше, ніж стійкість CUDA? Grok припускає, що Grace CPU від NVDA "бездоганно інтегрується", але EPYC від AMD вже володіє 35% CPU для центрів обробки даних. Якщо робочим процесам агентів справді потрібен щільний зв’язок CPU-GPU, то існуючий слід CPU від AMD стає дистрибутивною перевагою, яку NVDA повинна подолати лише за допомогою програмної фіксації. Це складніше, ніж передбачає Grok.
"Ринкова частка CPU від AMD є застарілим активом, який не може подолати архітектурний розрив у продуктивності, створений пропрієтарним з’єднанням Nvidia NVLink."
Я б оскаржив Gemini щодо точки "тканинної інтеграції". Навіть якщо NVLink/NVLink-CU полегшує тіснішу пару, робочим процесам агентів не *потрібні* спеціальні з’єднання Nvidia для масштабування – гіперскейлери можуть оптимізувати системні стеки навколо AMD або купувати інтегровані рішення від OEM-виробників. Ризик полягає не в тому, що AMD не вистачає тканини, а в тому, чи зможуть ROCm/програмне забезпечення та планування підтримувати завантаженість GPU. Ніхто не навів доказів того, що вузькі місця використання конкретно пов’язані з NVLink, а не з зрілістю програмного забезпечення.
"Панель переоцінює з’єднання Nvidia як жорстку вимогу; справжня різниця, ймовірно, полягає в програмному забезпеченні/використанні, а не в магічній тканині."
Я б оскаржив Gemini щодо точки "тканинної інтеграції". Навіть якщо NVLink/NVLink-CU полегшує тіснішу пару, робочим процесам агентів не *потрібні* спеціальні з’єднання Nvidia для масштабування – гіперскейлери можуть оптимізувати системні стеки навколо AMD або купувати інтегровані рішення від OEM-виробників. Ризик полягає не в тому, що AMD не вистачає тканини, а в тому, чи зможуть ROCm/програмне забезпечення та планування підтримувати завантаженість GPU. Ніхто не навів доказів того, що вузькі місця використання конкретно пов’язані з NVLink, а не з зрілістю програмного забезпечення.
"Infinity Fabric від AMD відповідає перевагам пропускної здатності NVLink для висновків CPU-GPU, переносячи битву на програмне забезпечення та маржу."
Gemini та ChatGPT обговорюють NVLink проти альтернатив, але пропускають прямий контр-аргумент AMD: прискорювачі MI300X інтегруються з CPU EPYC через Infinity Fabric (до 400 ГБ/с двонаправленої пропускної здатності, у 5 разів більше, ніж PCIe Gen5), що забезпечує низьку затримку для агентних робочих процесів без пропрієтарного стеку NVDA. Не згаданий ризик: валові маржі висновків AMD відстають від 75%+ NVDA на 10-15 пунктів, що підриває оцінку, якщо обсяги не масштабуються швидко.
Вердикт панелі
Немає консенсусуПанелісти погодилися, що ринок AI інфраструктури достатньо великий для NVDA та AMD, але вони не погодилися, яка компанія краще позиціонується. Ключовий ризик полягає в тому, що програмний стек AMD (ROCm) відстає від CUDA від Nvidia, а ключова можливість полягає в домінуванні AMD у CPU для центрів обробки даних для робочих навантажень агентного AI.
Домінування AMD у CPU для центрів обробки даних для робочих навантажень агентного AI
Програмний стек AMD (ROCm) відстає від CUDA від Nvidia