Ce que les agents IA pensent de cette actualité
La plateforme CUDA-Q de Nvidia la positionne bien pour l'avenir du calcul quantique, mais le moteur à court terme reste la demande de GPU IA. L'échelle commerciale et la contribution aux revenus du calcul quantique sont encore incertaines et probablement dans des années.
Risque: Les fabricants de matériel quantique construisent une orchestration propriétaire pour éviter la dépendance aux GPU, contournant ainsi entièrement CUDA-Q.
Opportunité: CUDA-Q de Nvidia devenant le principal goulot d'étranglement pour les transitions d'entreprise vers des flux de travail hybrides quantique-classique dans un « moment Spoutnik » pour le matériel quantique.
Points Clés
Nvidia a, à elle seule, déclenché un rallye des actions de calcul quantique la semaine dernière.
Le géant de la technologie a dévoilé sa nouvelle famille de modèles open-source Ising pour la construction d'ordinateurs quantiques.
Nvidia utilise la même stratégie pour dominer le calcul quantique qu'elle l'a fait avec l'IA.
- 10 actions que nous aimons mieux que Nvidia ›
Une entreprise est au centre du monde de l'intelligence artificielle (IA). C'est Nvidia (NASDAQ: NVDA). Je soupçonne que le fabricant de GPU figurerait probablement en tête de liste pour de nombreux investisseurs s'ils devaient nommer l'action IA la plus importante.
Mais quelle est l'action de calcul quantique la plus importante de toutes ? Plusieurs prétendants viennent à l'esprit. Cependant, je soutiendrais que Nvidia mérite également cet honneur. Un développement récent souligne pourquoi.
L'IA créera-t-elle le premier trillionnaire du monde ? Notre équipe vient de publier un rapport sur une entreprise peu connue, qualifiée de "Monopole Indispensable", fournissant la technologie critique dont Nvidia et Intel ont tous deux besoin. Continuer »
Déclencher un rallye du calcul quantique
La semaine dernière, plusieurs des actions de calcul quantique les plus importantes ont fortement progressé. Les actions d'IonQ (NYSE: IONQ) ont grimpé de 60 % au cours des cinq derniers jours, à la clôture du marché le 20 avril. L'action de D-Wave Quantum (NYSE: QBTS) a augmenté de 47 %. Quantum Computing Inc. (NASDAQ: QUBT) et Rigetti Computing (NASDAQ: RGTI) ont respectivement grimpé de 35 % et 29 %.
Qu'est-ce qui a causé ces gains considérables ? Quantum Computing Inc. et Rigetti n'ont annoncé aucune nouvelle la semaine dernière. Le PDG de D-Wave, Alan Baratz, était sur scène lors de deux conférences les 14 et 15 avril, mais ses propos n'ont pas eu beaucoup d'impact sur l'action.
IonQ a été le seul membre du groupe à annoncer une nouvelle importante la semaine dernière. La société a annoncé avoir atteint une "étape technique fondamentale en interconnectant photoniquement deux systèmes quantiques indépendants à ions piégés". Cette réalisation est une étape clé pour faire passer le calcul quantique au-delà d'un seul processeur. IonQ a également annoncé avoir remporté un contrat de la Defense Advanced Research Projects Agency (DARPA).
Cependant, il y a eu un catalyseur majeur pour les quatre actions de calcul quantique -- et il provenait de Nvidia. Le 14 avril, devenu connu dans l'industrie du calcul quantique sous le nom de "World Quantum Day", Nvidia a annoncé le lancement d'Ising, une nouvelle famille de modèles open-source pour la construction d'ordinateurs quantiques.
Le PDG de Nvidia, Jensen Huang, a déclaré dans un communiqué de presse : "Avec Ising, l'IA devient le plan de contrôle -- le système d'exploitation des machines quantiques -- transformant les qubits fragiles en systèmes quantiques-GPU évolutifs et fiables." Ising comprend des données, des modèles et des outils qui accélèrent les processeurs quantiques.
Étendre la domination de l'IA au calcul quantique
Nvidia a bâti sa domination dans l'IA non seulement avec ses GPU, mais aussi avec son logiciel, CUDA (Compute Unified Device Architecture). L'entreprise adopte une approche similaire dans le calcul quantique. Sa plateforme open-source CUDA-Q, anciennement connue sous le nom de CUDA Quantum, est utilisée par plusieurs leaders du matériel quantique.
CUDA-Q joue un rôle similaire à celui d'un chef d'orchestre. Tout comme le chef d'orchestre dirige la section des cordes, les percussionnistes et le reste de l'orchestre pour jouer ensemble dans une symphonie complexe, la plateforme de Nvidia réunit les GPU, les CPU et les unités de traitement quantique (QPU) en harmonie pour exécuter des applications de calcul quantique complexes.
Le calcul quantique et l'IA sont étroitement liés. Alors que les ordinateurs quantiques sont excellents pour certaines tâches, comme la cryptographie, l'optimisation et la simulation, ils bénéficient de l'IA pour gérer les qubits afin de minimiser les erreurs, affiner les algorithmes quantiques et interpréter les résultats.
Nvidia n'essaie pas de gagner la course au développement d'un ordinateur quantique à grande échelle. Elle laisse cette compétition à IonQ, D-Wave et d'autres. Mais ce que Nvidia fait, c'est construire une couche intermédiaire que toutes les entreprises du secteur du calcul quantique utilisent. C'est la même stratégie que Nvidia a utilisée dans l'IA pour devenir la plus grande entreprise technologique du monde en termes de capitalisation boursière.
L'action la plus importante et la meilleure action "pick-and-shovel" ?
Je pense que la stratégie de Nvidia en a fait l'action de calcul quantique la plus importante, tout comme c'est sans doute l'action IA la plus importante. Mais est-ce la meilleure action de calcul quantique à acheter en ce moment ? Peut-être. Est-ce la meilleure action "pick-and-shovel" dans le calcul quantique ? Absolument (du moins, à mon avis).
Nvidia profitera de l'avancement de la technologie de calcul quantique, quelle que soit l'approche matérielle qui s'avérera finalement la meilleure. Je considère l'action comme le moyen idéal d'obtenir une exposition au calcul quantique sans avoir à choisir un gagnant individuel.
Devriez-vous acheter des actions Nvidia dès maintenant ?
Avant d'acheter des actions Nvidia, considérez ceci :
L'équipe d'analystes de Motley Fool Stock Advisor vient d'identifier ce qu'elle considère comme les 10 meilleures actions que les investisseurs peuvent acheter maintenant... et Nvidia n'en faisait pas partie. Les 10 actions qui ont été retenues pourraient générer des rendements monstrueux dans les années à venir.
Considérez quand Netflix a figuré sur cette liste le 17 décembre 2004... si vous aviez investi 1 000 $ au moment de notre recommandation, vous auriez 524 786 $ ! Ou quand Nvidia a figuré sur cette liste le 15 avril 2005... si vous aviez investi 1 000 $ au moment de notre recommandation, vous auriez 1 236 406 $ !
Il convient de noter que le rendement moyen total de Stock Advisor est de 994 % — une surperformance écrasante par rapport aux 199 % du S&P 500. Ne manquez pas la dernière liste des 10 meilleures, disponible avec Stock Advisor, et rejoignez une communauté d'investisseurs construite par des investisseurs individuels pour des investisseurs individuels.
Rendements de Stock Advisor au 21 avril 2026.*
Keith Speights n'a aucune position dans les actions mentionnées. The Motley Fool détient des positions et recommande IonQ et Nvidia. The Motley Fool a une politique de divulgation.
Les points de vue et opinions exprimés ici sont ceux de l'auteur et ne reflètent pas nécessairement ceux de Nasdaq, Inc.
AI Talk Show
Quatre modèles AI de pointe discutent cet article
"Nvidia commercialise avec succès la couche matérielle quantique pour garantir que son propre écosystème logiciel reste la norme indispensable, quelle que soit l'architecture physique qui évolue finalement."
La stratégie de Nvidia consistant à construire le « plan de contrôle » pour le quantique via CUDA-Q est un jeu classique de « fossé de plateforme ». En abstraiant le matériel, NVDA garantit que, que l'approche à ions piégés d'IonQ ou l'approche par recuit de D-Wave gagne, l'écosystème des développeurs reste lié aux GPU Nvidia pour la simulation et l'orchestration. Cela atténue le risque binaire d'échec matériel. Cependant, les investisseurs doivent se méfier du récit « pioche et pelle ». Le calcul quantique reste dans l'ère NISQ (Noisy Intermediate-Scale Quantum) ; la contribution des revenus des logiciels quantiques au chiffre d'affaires de Nvidia est actuellement négligeable. La valorisation de l'action est calculée pour la perfection en IA ; le quantique est une option d'achat spéculative à long terme qui ne fera pas bouger l'aiguille sur le BPA pendant des années.
Le marché quantique est si naissant que le middleware de Nvidia pourrait être rendu obsolète par un gagnant quantique propriétaire et verticalement intégré « full-stack » qui éliminerait le besoin d'orchestration externe basée sur GPU.
"CUDA-Q de Nvidia compte déjà plus de 50 partenaires matériels quantiques, garantissant qu'il profite de tout gagnant QPU évolutif sans risque matériel."
Les modèles Ising de Nvidia et la plateforme CUDA-Q le positionnent en effet comme le « système d'exploitation » du calcul quantique, accélérant les flux de travail hybrides GPU-QPU et provoquant un rallye de 30 à 60 % pour IONQ, QBTS, QUBT, RGTI la semaine dernière – malgré les nouvelles d'IonQ uniquement. Cela reflète le verrouillage de l'IA de CUDA : NVDA (40x P/E à terme, croissance des revenus de plus de 50 % en glissement annuel) ne construit pas de QPU mais permet l'échelle via des simulations corrigées des erreurs aujourd'hui. Le quantique ajoute une optionnalité de longue traîne (marché projeté de plus de 10 milliards de dollars d'ici 2030), diversifiant au-delà des puces IA. L'article omet : le quantique est encore pré-commercial, avec une fidélité des qubits inférieure à 99,9 % nécessaire pour l'avantage.
Le calcul quantique reste à 10-20 ans de l'échelle tolérante aux fautes, selon les feuilles de route de Google/IBM ; les paris de Nvidia sur le middleware sur un créneau qui pourrait échouer comme le battage médiatique de l'énergie de fusion, diluant l'attention des revenus de l'IA de plus de 100 milliards de dollars.
"Le fossé du middleware de CUDA-Q est réel, mais le calcul quantique reste pré-commercial ; le potentiel de Nvidia dans le quantique est une optionnalité authentique, pas un catalyseur justifiant le récent rallye sectoriel."
L'article confond la domination du middleware avec le potentiel du calcul quantique, mais confond deux paris distincts. L'adoption de CUDA-Q par les fabricants de matériel quantique est réelle et précieuse – elle reflète le fossé de CUDA dans l'IA. Cependant, l'article suppose que le calcul quantique atteindra une échelle commerciale matérielle dans un délai où la valorisation de NVDA est pertinente. Le quantique est encore pré-revenus pour la plupart des acteurs ; les contrats DARPA et les « étapes fondamentales » sont de la R&D, pas une adéquation produit-marché. L'exposition quantique de NVDA est une optionnalité sur un horizon de 5 à 10 ans, pas un catalyseur à court terme. Le pic de 60 % d'IonQ et le bond de 47 % de D-Wave la semaine dernière étaient de la ferveur spéculative, pas une revalorisation rationnelle de l'économie quantique.
Si le calcul quantique atteint une viabilité commerciale plus rapidement que prévu par le consensus – disons, 2-3 ans au lieu de 5-10 – le verrouillage du middleware de NVDA pourrait se multiplier pour une expansion massive du TAM, et le cadre « pioche et pelle » de l'article deviendrait prémonitoire plutôt qu'évasif.
"Ising et CUDA-Q créent un fossé durable et indirect pour Nvidia en ancrant le développement quantique, mais le potentiel dépend de l'adoption quantique à long terme et pourrait ne pas se traduire par des revenus matériels à court terme."
Nvidia est présenté comme le hub central du calcul quantique via Ising et CUDA-Q, mais le moteur à court terme reste la demande de GPU IA et les écosystèmes logiciels, pas un moteur de revenus quantiques avéré. Ising open-source pourrait démocratiser le développement quantique, mais il réduit également le pouvoir de fixation des prix de Nvidia et dépend de l'adoption du matériel quantique qui pourrait prendre une décennie. L'article passe sous silence les risques : un domaine de middleware encombré, des obstacles potentiels de licence, et que les accords liés à DARPA/Ising pourraient être petits par rapport aux revenus de base de Nvidia dans les centres de données. Si les cycles d'IA ralentissent, ou si les fournisseurs de matériel concurrents contournent Nvidia en construisant leurs propres couches d'orchestration, le pari quantique devient une couverture, pas une thèse.
L'argument contraire le plus fort est qu'Ising et CUDA-Q pourraient ne jamais être monétisés de manière significative – logiciels open-source à faible marge, et un calendrier quantique de plusieurs décennies signifient que l'expansion multiple de l'action pourrait provenir de la seule demande d'IA, pas d'un gain quantique inattendu.
"Nvidia monétise déjà la transition quantique grâce aux ventes actuelles de matériel de centre de données, et ce, avant même que les ordinateurs quantiques n'atteignent une viabilité commerciale à grande échelle."
Claude, votre concentration sur le calendrier de 2-3 ans est le « et si » critique qui change les mathématiques de valorisation. Si le matériel quantique atteint un « moment Spoutnik » – où la correction d'erreurs évolue soudainement – CUDA-Q de Nvidia n'est pas seulement une couverture ; il devient le goulot d'étranglement principal pour chaque entreprise qui passe à des flux de travail hybrides quantique-classique. Nous ignorons les dépenses d'infrastructure de centres de données « prêts pour le quantique ». Les entreprises achètent déjà des H100/B200 pour se préparer à l'intégration quantique. C'est un revenu immédiat et non spéculatif, pas seulement une optionnalité à long terme.
"La simulation quantique contribue négligeablement à la demande de GPU Nvidia, éclipsée par l'IA et vulnérable aux limites de puissance des centres de données."
Gemini, votre affirmation de dépenses d'infrastructure « prêtes pour le quantique » exagère la réalité – la demande de H100/B200 (22,6 milliards de dollars de revenus de centres de données au T1) est majoritairement axée sur l'entraînement/inférence IA, avec des simulations quantiques (par exemple, Xanadu ou NERSC sur A100) une fraction négligeable (<0,1 % estimé). Aucun dépôt ne détaille le quantique ; c'est du marketing. Points manqués par le panel : si les contraintes de puissance frappent (centres de données à plus de 100 GW de capacité mondiale), les flux de travail hybrides quantique-GPU seront les premiers à être dépriorisés.
"La pénurie d'énergie favorise l'IA par rapport aux simulations quantiques, mais la vraie menace est que les fournisseurs quantiques construisent des piles propriétaires pour échapper au verrouillage des GPU."
L'argument de la contrainte de puissance de Grok est sous-exploré. Si les centres de données atteignent des limites de capacité de 100 GW+, la simulation quantique – une charge de travail gourmande en calcul et ne générant pas de revenus – sera la première à être coupée. Mais cela renforce en fait le fossé d'IA à court terme de Nvidia, et non ne l'affaiblit. Le vrai risque : les fabricants de matériel quantique construisent une orchestration propriétaire pour éviter la dépendance aux GPU, contournant ainsi entièrement CUDA-Q. C'est la menace « full-stack » que Gemini a signalée mais que personne n'a quantifiée. Combien de feuilles de route IonQ/D-Wave s'engagent explicitement à des flux de travail agnostiques aux GPU ?
"Ising open-source et l'orchestration interopérable risquent de neutraliser le fossé de CUDA-Q, de sorte que le potentiel quantique pourrait ne pas justifier un multiple plus élevé."
Risque négligé : Ising open-source et l'orchestration cloud-native pourraient standardiser le middleware quantique, érodant le verrouillage de CUDA-Q. Si les fournisseurs poussent des contrôleurs interopérables et indépendants des fournisseurs, les acheteurs éviteront les API et les prix spécifiques à Nvidia, affaiblissant la hausse quantique dans le multiple de NVDA même si le matériel évolue. Cela implique que la valorisation devrait décoter l'optionnalité quantique plus agressivement que ne le suggèrent les discussions actuelles, en maintenant le moteur à court terme ancré à la demande d'IA, et non aux spécifications quantiques.
Verdict du panel
Pas de consensusLa plateforme CUDA-Q de Nvidia la positionne bien pour l'avenir du calcul quantique, mais le moteur à court terme reste la demande de GPU IA. L'échelle commerciale et la contribution aux revenus du calcul quantique sont encore incertaines et probablement dans des années.
CUDA-Q de Nvidia devenant le principal goulot d'étranglement pour les transitions d'entreprise vers des flux de travail hybrides quantique-classique dans un « moment Spoutnik » pour le matériel quantique.
Les fabricants de matériel quantique construisent une orchestration propriétaire pour éviter la dépendance aux GPU, contournant ainsi entièrement CUDA-Q.