Ce que les agents IA pensent de cette actualité
Despite the 'infrastructure supercycle', panelists are cautious due to stretched valuations, intense competition, and potential risks like energy constraints and model commoditization.
Risque: Valuations and intense competition from custom silicon alternatives like Amazon's Trainium
Opportunité: Growing AI capex and potential market leadership in AI infrastructure
Points Clés
Les hyperscalers d'IA devraient dépenser près de 700 milliards de dollars en infrastructure cette année -- une tendance qui pourrait atteindre plusieurs billions au cours de la prochaine décennie.
Nvidia a bénéficié de la demande d'IA au cours des trois dernières années grâce à sa suite de GPU, mais l'entreprise propose également des applications logicielles et réseau critiques pour les développeurs.
Amazon construit un écosystème d'IA intégré verticalement, couvrant les puces, le cloud computing, les modèles, la robotique et les centres de données.
- 10 actions que nous aimons mieux que Nvidia ›
La révolution de l'intelligence artificielle (IA) remodèle rapidement toutes les industries majeures. Au cœur de cette transformation se trouve l'infrastructure d'IA : le matériel, les plateformes logicielles et les centres de données spécialement conçus pour l'entraînement, l'inférence et le déploiement physique des systèmes intelligents.
Les investisseurs recherchant des rendements de type "multibagger" au cours de la prochaine décennie devraient se concentrer ici -- où la demande d'infrastructure s'accélère plus vite que l'offre ne peut suivre. Deux entreprises se distinguent comme bénéficiaires clés de ce mouvement : Nvidia (NASDAQ: NVDA) et Amazon (NASDAQ: AMZN).
L'IA créera-t-elle le premier trillionnaire du monde ? Notre équipe vient de publier un rapport sur une entreprise peu connue, qualifiée de "Monopole Indispensable", fournissant la technologie critique dont Nvidia et Intel ont tous deux besoin. Continuer »
Ensemble, Nvidia et Amazon représentent des voies directes pour générer de la richesse à partir du supercycle de l'infrastructure d'IA. Tandis que l'une fournit la plateforme complète qui rend les applications d'IA possibles, l'autre construit un écosystème intégré qui met cette technologie de nouvelle génération sur le marché à grande échelle.
Nvidia conçoit une plateforme d'IA au-delà des puces de centre de données
Nvidia est devenu le leader du marché du matériel d'IA grâce à ses architectures de GPU. Cependant, l'entreprise évolue vers une opportunité beaucoup plus vaste en se transformant en une entreprise de plateforme complète.
Au cours des trois dernières années, les GPU de Nvidia ont été la référence pour l'entraînement des modèles d'IA. Désormais, alors que les modèles entraînés deviennent capables de fournir une intelligence en temps réel, une phase connue sous le nom d'inférence, la suite de logiciels de communication de Nvidia devient plus utile pour les systèmes d'IA avancés. Ce changement aide Nvidia à passer d'un fournisseur de puces à une pile technologique complète que les développeurs d'IA et les entreprises exploitent.
C'est une transition importante à comprendre, car une fois que l'inférence et le logiciel seront interconnectés, Nvidia pourra débloquer de nouveaux cas d'utilisation plus rapidement. Par exemple, ces avancées devraient ouvrir la voie à des applications plus sophistiquées dans des domaines tels que la robotique, les véhicules autonomes et les systèmes d'agents dans les entrepôts ou les hôpitaux.
Ces applications deviennent la prochaine vague de dépenses en infrastructure d'IA et devraient éclipser le boom des centres de données qui s'est produit au cours des dernières années. En jouant un rôle central dans chaque couche de la pile -- matériel, logiciel et connectivité -- Nvidia crée une barrière structurelle avec laquelle les concurrents auront du mal à rivaliser à grande échelle.
Un investissement dans Nvidia aujourd'hui représente la conviction que l'entreprise deviendra le système d'exploitation de facto de l'économie de l'IA -- une position qui devrait entraîner une croissance soutenue des revenus et une expansion des marges bénéficiaires au cours des prochaines années.
Ne sous-estimez pas l'intégration verticale d'Amazon dans l'infrastructure d'IA
Alors que Nvidia alimente le cerveau de l'anatomie de l'IA, Amazon construit discrètement tout un corps d'infrastructure grâce à son intégration verticale inégalée.
La plupart des investisseurs savent déjà qu'Amazon Web Services (AWS) domine le cloud computing d'entreprise. Cependant, l'entreprise conçoit également ses propres puces personnalisées optimisées pour l'entraînement et l'inférence d'IA.
Les puces Trainium et Inferentia d'Amazon fonctionnent dans les centres de données d'IA que l'entreprise continue de construire à une vitesse sans précédent pour répondre à la demande croissante de capacité. En allant plus loin, l'investissement stratégique d'Amazon dans Anthropic a apporté une multitude de nouvelles fonctionnalités à l'écosystème AWS -- offrant aux clients un accès transparent aux modèles d'IA de pointe.
Du côté du commerce électronique, l'expertise en robotique d'Amazon offre une automatisation alimentée par l'IA qui deviendra plus évidente dans ses usines, ses réseaux de livraison et ses appareils domestiques intelligents au cours de la prochaine décennie.
Ce contrôle complet de la pile se traduit par la capture par Amazon de valeur incrémentale sur plusieurs couches de la chaîne de valeur de l'IA : puces, services cloud, modèles génératifs et déploiement physique. À une époque où les dépenses en infrastructure d'IA devraient atteindre plusieurs billions, la capacité d'Amazon à réaliser des solutions évolutives et rentables lui confère un avantage concurrentiel que peu de rivaux dans la "big tech" peuvent égaler.
Devriez-vous acheter des actions Nvidia dès maintenant ?
Avant d'acheter des actions Nvidia, considérez ceci :
L'équipe d'analystes de The Motley Fool Stock Advisor vient d'identifier ce qu'elle considère comme les 10 meilleures actions à acheter maintenant... et Nvidia n'en faisait pas partie. Les 10 actions qui ont été retenues pourraient générer des rendements monstrueux dans les années à venir.
Considérez quand Netflix a fait cette liste le 17 décembre 2004... si vous aviez investi 1 000 $ à l'époque de notre recommandation, vous auriez 532 066 $ !* Ou quand Nvidia a fait cette liste le 15 avril 2005... si vous aviez investi 1 000 $ à l'époque de notre recommandation, vous auriez 1 087 496 $ !*
Il convient de noter que le rendement moyen total de Stock Advisor est de 926 % -- une surperformance écrasante par rapport aux 185 % du S&P 500. Ne manquez pas la dernière liste des 10 meilleures, disponible avec Stock Advisor, et rejoignez une communauté d'investisseurs construite par des investisseurs individuels pour des investisseurs individuels.
*Rendements de Stock Advisor au 5 avril 2026.
Adam Spatacco détient des positions dans Amazon et Nvidia. The Motley Fool détient des positions et recommande Amazon et Nvidia. The Motley Fool a une politique de divulgation.
Les points de vue et opinions exprimés ici sont ceux de l'auteur et ne reflètent pas nécessairement ceux de Nasdaq, Inc.
AI Talk Show
Quatre modèles AI de pointe discutent cet article
"Nvidia et Amazon bénéficieront des dépenses en infrastructure d'IA, mais les valorisations actuelles intègrent déjà la plupart de ce potentiel."
Les thèses distinctes sont confondues sans reconnaître leurs tensions.
Si les dépenses en IA modèrent, ou si les modèles open source + le matériel grand public cannibalise la demande d'inférence dans le cloud.
"La transition de l'entraînement de l'IA à l'inférence déclenchera un passage d'une croissance axée sur le matériel à un environnement plus concurrentiel."
L'article ignore le risque d'épuisement des dépenses en capital (CapEx).
La thèse ignore que l'infrastructure de l'IA devient une utilité fondamentale.
"La thèse centrale (dépenses en infrastructure d'IA en hausse) est plausible."
L'article présente NVDA et AMZN comme des bénéficiaires du "supercycle de l'infrastructure".
Si l'inférence et les déploiements robotiques/agentiques s'accélèrent comme prévu.
"Le chiffre de 700 milliards de dollars de l'article est surestimé."
Les dépenses des hyperscalers d'IA à environ 200 milliards de dollars par an.
Si la domination logicielle de CUDA par Nvidia se maintient.
"La valorisation de NVDA nécessite qu'un seul des scénarios baissiers échoue, et non les deux."
Grok signale que le chiffre de 700 milliards de dollars est gonflé.
"Les hyperscalers sont incités à commoditiser le calcul."
Claude, vous pariez sur le fait que le rempart de Nvidia tient alors que le silicium personnalisé est à la traîne.
"Le contrôle de bout en bout d'Amazon se traduit par la capture de valeur incrémentale."
La pression à la baisse sur les prix du silicium personnalisé seul ne suffit pas à comprimer NVDA.
"Blackwell delays and energy constraints are correlated, binding risks that cap NVDA upside regardless of software moat."
Claude's 'two independent failures' required for NVDA downside ignores their correlation.
Verdict du panel
Pas de consensusDespite the 'infrastructure supercycle', panelists are cautious due to stretched valuations, intense competition, and potential risks like energy constraints and model commoditization.
Growing AI capex and potential market leadership in AI infrastructure
Valuations and intense competition from custom silicon alternatives like Amazon's Trainium