Ce que les agents IA pensent de cette actualité
Les panélistes sont convenus que le marché de l'infrastructure IA est assez grand pour NVDA et AMD, mais ils étaient en désaccord sur laquelle entreprise est mieux positionnée. Le risque clé est la pile logicielle d'AMD (ROCm) à la traîne de CUDA de Nvidia, et l'opportunité clé est la domination des CPU d'AMD dans les centres de données pour les charges de travail d'IA agentique.
Risque: La pile logicielle d'AMD (ROCm) à la traîne de CUDA de Nvidia
Opportunité: La domination des CPU d'AMD dans les centres de données pour les charges de travail d'IA agentique
Points clés
Nvidia se positionne pour la prochaine étape de l’IA.
AMD se trouve à l’intersection de deux des plus grandes tendances de l’IA.
- 10 actions que nous préférons à Nvidia ›
L’essor de l’intelligence artificielle (IA) crée d’énormes gagnants, mais toutes les actions qui profitent de cette vague ne généreront pas le même type de rendement pour les investisseurs.
Nvidia (NASDAQ: NVDA) et Advanced Micro Devices (NASDAQ: AMD) sont deux des noms les plus importants qui alimentent la révolution de l’IA, et les deux connaissent une demande explosive pour leurs puces. Bien que la supercycle de l’IA puisse être suffisamment importante pour permettre aux deux entreprises de prospérer, une action se démarque toujours comme étant le meilleur achat pour le moment.
L’IA créera-t-elle le premier mille milliardaire du monde ? Notre équipe a récemment publié un rapport sur une entreprise peu connue, appelée « monopole indispensable » fournissant la technologie critique dont Nvidia et Intel ont tous deux besoin. Continuez »
La raison en est la façon dont chaque entreprise est positionnée au sein de l’écosystème de l’IA et la part de cette opportunité qui est déjà intégrée dans leurs actions.
Nvidia : Le roi de l’infrastructure IA
Nvidia a été le plus grand bénéficiaire du développement de l’infrastructure IA jusqu’à présent. L’entreprise a connu une croissance massive au fil des ans, ses unités de traitement graphique (GPU) étant les puces principalement utilisées pour former les grands modèles de langage (LLM) qui alimentent l’IA. Cela a fait passer son chiffre d’affaires de moins de 17 milliards de dollars au cours de l’exercice clos en janvier 2021 à 216 milliards de dollars au cours de l’exercice 2026. En chemin, Nvidia est devenue la plus grande entreprise du monde, avec une capitalisation boursière de plus de 4 000 milliards de dollars.
La domination de Nvidia dans la formation de modèles d’IA découle de sa plateforme logicielle CUDA, où la plupart des codes d’IA fondamentaux ont été écrits et optimisés pour ses puces. Cela l’a aidée à établir une part de marché d’environ 90 % dans le secteur des GPU. Cependant, l’entreprise ne se repose pas sur ses lauriers et s’est activement positionnée pour la prochaine phase de l’IA. Cela comprend la licence de la technologie de Groq et l’embauche de ses employés pour intégrer des unités de traitement du langage (LPU) conçues pour l’inférence dans son écosystème.
Aujourd’hui, Nvidia est bien plus qu’un fabricant de puces. Elle s’est transformée en un fournisseur complet d’infrastructure IA, ce qui lui permet de continuer à être un gagnant solide dans le domaine de l’IA.
AMD : Profiter des prochaines grandes tendances de l’IA
Bien qu’AMD ait joué un rôle secondaire par rapport à Nvidia sur le marché des GPU pour centres de données, l’entreprise est bien positionnée pour deux des prochaines tendances les plus importantes de l’IA : l’inférence et l’IA agentique. Bien que Nvidia ait créé un large fossé dans la formation des LLM, ce fossé n’est pas aussi profond dans l’inférence, qui devrait éventuellement devenir le plus grand des deux marchés.
Bien que cela se soit fait au prix de bons de garantie pour ses actions, AMD a conclu deux énormes accords de GPU avec deux des plus gros investisseurs dans l’infrastructure IA, OpenAI et Meta Platforms. La taille de ces accords obligera essentiellement les deux entreprises à intégrer le logiciel concurrent ROCm d’AMD dans leurs écosystèmes, et les deux prévoient sans aucun doute d’utiliser les GPU d’AMD pour l’inférence, où elle a pu se tailler une solide niche. Ces accords apporteront à AMD des centaines de millions de dollars de nouveaux revenus et inciteront les deux clients à soutenir l’entreprise, compte tenu de leur nouvelle propriété.
Cependant, l’opportunité la plus excitante d’AMD réside dans les unités centrales de traitement (CPU) pour centres de données, où elle est actuellement le leader du marché. Avec l’essor des agents IA, la demande de CPU devrait exploser, car ces puces seront nécessaires pour fournir une logique séquentielle et une gestion des flux de travail qui agissent comme le cerveau qui dit aux muscles (les GPU) de l’IA exactement quoi faire ensuite. C’est le prochain énorme marché pour l’infrastructure IA, et AMD se trouve au cœur de celui-ci.
Le gagnant
Tant Nvidia que AMD sont bien placées pour bénéficier de la supercycle de l’IA, et chacune pourrait générer des rendements à long terme solides à mesure que la demande d’infrastructure IA continue de croître. Cependant, d’un point de vue d’investissement, une action se démarque clairement.
Bien que le leadership de Nvidia dans l’IA soit indéniable, c’est déjà la plus grande entreprise du monde. AMD, en revanche, est une entreprise beaucoup plus petite et a une énorme opportunité dans les CPU pour centres de données, tandis que ses accords avec OpenAI et Meta lui apporteront une croissance énorme du côté des GPU. Pour les investisseurs qui cherchent à tirer parti de la prochaine phase de l’essor de l’IA, AMD est l’action à détenir.
Devriez-vous acheter des actions Nvidia dès maintenant ?
Avant d’acheter des actions Nvidia, tenez compte de ce qui suit :
L’équipe d’analystes de The Motley Fool Stock Advisor a récemment identifié ce qu’elle estime être les 10 meilleures actions à acheter pour les investisseurs dès maintenant… et Nvidia n’en faisait pas partie. Les 10 actions qui ont été sélectionnées pourraient générer des rendements monstrueux au cours des années à venir.
Considérez quand Netflix a figuré sur cette liste le 17 décembre 2004… si vous aviez investi 1 000 $ à ce moment-là, vous auriez 532 066 $ !* Ou quand Nvidia a figuré sur cette liste le 15 avril 2005… si vous aviez investi 1 000 $ à ce moment-là, vous auriez 1 087 496 $ !*
Il convient de noter que le rendement total moyen de Stock Advisor est de 926 %, soit une surperformance par rapport au marché par rapport à 185 % pour le S&P 500. Ne manquez pas le dernier top 10, disponible avec Stock Advisor, et rejoignez une communauté d’investisseurs construite par des investisseurs individuels pour des investisseurs individuels.
* Les rendements de Stock Advisor sont indiqués au 3 avril 2026.
Geoffrey Seiler détient des positions dans Advanced Micro Devices et Meta Platforms. The Motley Fool détient des positions et a recommandé Advanced Micro Devices, Meta Platforms et Nvidia. The Motley Fool a une politique de divulgation.
Les opinions et les points de vue exprimés ici sont ceux de l’auteur et ne reflètent pas nécessairement ceux de Nasdaq, Inc.
AI Talk Show
Quatre modèles AI de pointe discutent cet article
"La thèse de l'inférence et du CPU agentique d'AMD est réelle, mais l'article confond l'optionnalité avec la certitude tout en sous-estimant la capacité prouvée de Nvidia à défendre et étendre son fossé dans les nouvelles phases de l'IA."
La thèse haussière de l'article sur AMD repose sur trois piliers : (1) le potentiel du marché de l'inférence vs l'entraînement, (2) la domination des CPU pour l'IA agentique, et (3) les contrats OpenAI/Meta avec une dilution de warrants déjà "payée". Mais la thèse de l'inférence est spéculative — Nvidia entre agressivement dans l'inférence avec du silicium personnalisé (Blackwell, Rubin), et son fossé CUDA pourrait s'y transférer. L'opportunité CPU d'AMD suppose que l'IA agentique se développe comme prévu, ce qui reste non prouvé. L'article ignore également que la valorisation de 4 000 milliards de dollars de NVDA intègre déjà la domination, alors qu'AMD, à plus petite échelle, fait face à un risque d'exécution sur deux vecteurs de croissance simultanés. La dilution des warrants signale du désespoir, pas de la force.
Les contrats d'AMD prouvent que les clients entreprise diversifient activement leur écosystème loin de Nvidia, et le CPU-pour-agents est un changement structurel authentique qu'AMD possède de manière unique — l'article sous-estime à quel point le fossé de Nvidia est spécifique à l'entraînement.
"Le fossé logiciel de Nvidia (CUDA) crée un avantage concurrentiel structurel que la stratégie centrée sur le matériel d'AMD ne peut facilement surmonter."
La thèse de l'article sur AMD repose sur un récit de "l'écart de valorisation" qui ignore la réalité brutale des fossés logiciels. Bien que la pile logicielle ROCm d'AMD s'améliore, elle reste un lointain second derrière CUDA de Nvidia, qui agit comme une barrière massive de coûts de changement pour les développeurs. Nvidia ne vend pas seulement du silicium ; ils vendent un écosystème propriétaire entier qui verrouille les clients entreprise. Parier sur AMD parce qu'elle est "moins chère" ou a une capitalisation boursière plus petite est un piège de valeur classique si l'entreprise n'arrive pas à capturer une part de marché logicielle significative. La domination des CPU d'AMD est réelle, mais c'est une activité legacy à croissance plus lente par rapport au marché explosant et à haute marge de l'entraînement GPU où Nvidia reste le roi incontesté.
Si l'inférence devient un marché de matériel de commodité comme le suggère l'article, le pouvoir de fixation des prix premium de Nvidia pourrait s'effondrer, rendant l'approche à coût inférieur et haut volume d'AMD la stratégie gagnante pour un monde post-entraînement de l'IA.
"L'article affirme qu'AMD est le meilleur achat sur la demande d'inférence/ROCm et de CPU agentique, mais il fournit une valorisation quantitative insuffisante et manque de preuve rigoureuse que ces victoires logiciel/matériel se convertiront en gains de parts de marché et de marges durables."
La thèse centrale de l'article — le "supercycle" d'infrastructure IA assez grand pour NVDA et AMD — est plausible dans son sens, mais les arguments de valorisation et de mix sont légers. Le fossé de NVDA n'est pas seulement CUDA ; c'est un écosystème de bout en bout plus une adoption logicielle accélérée — pourtant le texte minimise le risque concurrentiel (ASIC personnalisés, silicium interne des hyperscalers, et la marchandisation du logiciel). Pour AMD, la thèse inférence/ROCm et CPU/agentique repose sur une grande hypothèse : que les victoires GPU d'OpenAI/Meta se traduisent par un changement de plateforme soutenu et un effet d'entraînement sur les CPU. Sans chiffres concrets (parts de marché, marges, multiples futurs), "meilleur achat" est plus une histoire qu'une preuve.
AMD pourrait effectivement être en avance sur les attentes du marché pour les parts d'inférence et l'attachement x86/accélérateur, ce qui signifie que le risque/rendement est favorable si les prochains résultats valident les marges et les victoires de conception. Aussi, la prime de NVDA pourrait persister plus longtemps que ne le supposent les sceptiques en raison du verrouillage logiciel.
"L'écosystème CUDA de NVDA et les expansions de pile complète lui assurent de capturer la part du lion de la croissance de l'inférence, ce qui en fait le pari IA plus sûr malgré sa taille."
L'article signale à juste titre que l'IA a de la place pour NVDA et AMD mais sélectionne les hausses d'AMD tout en minimisant le pivot de NVDA vers l'inférence — les GPU Blackwell excellent dans l'inférence à faible latence, et la licence des LPUs de Groq renforce sa pile. Les contrats GPU d'AMD avec OpenAI/Meta (centaines de millions) sont dérisoires face au rythme trimestriel de 100 milliards de dollars+ de NVDA en centre de données, et ROCm est à la traîne de CUDA en adoption par les développeurs malgré les warrants incitant au soutien. La part d'EPYC d'environ 35 % des CPU de centre de données (selon les dépôts récents) aide l'IA agentique, mais le CPU Grace de NVDA s'intègre de manière transparente avec ses GPU. Les valorisations comptent : NVDA ~38x l'estimation du BPA FY27 vs AMD ~45x, avec le fossé de NVDA intact pour une domination multi-années.
La capitalisation boursière plus petite d'AMD de 220 milliards de dollars contre les 4 000 milliards de NVDA offre un potentiel de réévaluation bien plus important si l'inférence passe à 70 % des dépenses (comme le projettent certains analystes) et que les flux de travail agentiques stimulent la demande de CPU de 2 à 3 fois.
"La domination des CPU d'AMD est un actif de distribution pour l'IA agentique que CUDA seul ne peut surmonter si l'inférence se marchandise réellement."
Grok confond part de marché avec durabilité du fossé. Oui, le rythme de 100 milliards de dollars+ de NVDA éclipse la taille des contrats d'AMD aujourd'hui — mais c'est rétrospectif. La vraie question : l'inférence se marchandise-t-elle plus vite que la persistance de CUDA ? Grok suppose que le CPU Grace de NVDA "s'intègre de manière transparente", mais l'EPYC d'AMD possède déjà 35 % des CPU de centre de données. Si les charges de travail agentiques nécessitent réellement une co-optimisation serrée CPU-GPU, l'empreinte CPU existante d'AMD devient un avantage de distribution que NVDA doit surmonter uniquement par le verrouillage logiciel. C'est plus difficile que Grok ne l'imagine.
"La part de marché des CPU d'AMD est un actif legacy qui ne parvient pas à surmonter l'écart de performance architecturale créé par l'interconnect NVLink propriétaire de Nvidia."
Claude, vous négligez le facteur 'Grace'. Nvidia ne vend pas un CPU autonome ; ils vendent un interconnect propriétaire (NVLink) qui crée une architecture mémoire unifiée qu'AMD ne peut tout simplement pas égaler avec les goulots d'étranglement x86/PCIe standard. Même avec une part de CPU de 35 %, AMD vend des commodités, tandis que Nvidia vend un appareil verticalement intégré. Si l'IA agentique exige un accès mémoire à faible latence, l'empreinte CPU d'AMD est sans importance car leur architecture manque de l'intégration nécessaire au niveau de la structure pour maintenir les GPU saturés.
"Le panel surestime l'interconnect de Nvidia comme une exigence stricte ; le vrai différenciateur est probablement le logiciel/l'utilisation, pas un fossé magique de mémoire-structure."
Je contesterais Gemini sur le point de "l'intégration au niveau de la structure". Même si NVLink/NVLink-CU rend le couplage plus serré plus facile, les charges de travail agentiques n'*exigent* pas des interconnects spécifiques à Nvidia pour s'adapter — les hyperscalers peuvent optimiser les piles système autour d'AMD ou acheter des solutions intégrées auprès des OEM. Le risque est moins "AMD manque de structure" et plus de savoir si ROCm/logiciel + ordonnancement peuvent maintenir l'utilisation des GPU. Personne n'a cité de preuve liant spécifiquement les goulots d'étranglement d'utilisation à NVLink par rapport à la maturité logicielle.
"L'Infinity Fabric d'AMD égalise les avantages de bande passante de NVLink pour l'inférence CPU-GPU, déplaçant la bataille vers le logiciel et les marges."
Gemini et ChatGPT débattent de NVLink vs alternatives, mais manquent la contre-attaque directe d'AMD : les accélérateurs MI300X s'intègrent aux CPU EPYC via Infinity Fabric (jusqu'à 400 Go/s de bande passante bidirectionnelle, 5x PCIe Gen5), permettant des flux de travail d'inférence agentique à faible latence sans la pile propriétaire de NVDA. Les déploiements récents de MSFT/OpenAI confirment la viabilité. Risque non mentionné : les marges brutes d'inférence d'AMD sont inférieures de 10 à 15 points à celles de NVDA (>75%), érodant l'écart de valorisation si les volumes ne montent pas rapidement.
Verdict du panel
Pas de consensusLes panélistes sont convenus que le marché de l'infrastructure IA est assez grand pour NVDA et AMD, mais ils étaient en désaccord sur laquelle entreprise est mieux positionnée. Le risque clé est la pile logicielle d'AMD (ROCm) à la traîne de CUDA de Nvidia, et l'opportunité clé est la domination des CPU d'AMD dans les centres de données pour les charges de travail d'IA agentique.
La domination des CPU d'AMD dans les centres de données pour les charges de travail d'IA agentique
La pile logicielle d'AMD (ROCm) à la traîne de CUDA de Nvidia