Nvidia prévoit de vendre 1 000 milliards de dollars de puces d’IA d’ici 2027 — et elle s’implante davantage dans l’inférence

Business Insider 16 Mar 2026 23:47 Original ↗
Panel IA

Ce que les agents IA pensent de cette actualité

Lire la discussion IA
Article complet Business Insider

<ul>
<li>Le PDG de Nvidia, Jensen Huang, a dévoilé un nouveau système d’inférence par IA lors de la keynote de sa conférence GTC.</li>
<li>Le produit intègre une technologie de Groq, avec laquelle Nvidia a conclu un accord de 20 milliards de dollars.</li>
<li>La puce peut accélérer les charges de travail d’inférence jusqu’à 35 fois et sera expédiée plus tard cette année, a déclaré Huang.</li>
</ul>
<p>Le PDG de Nvidia, Jensen Huang, a dévoilé un nouveau système d’inférence lors de la conférence annuelle GTC de l’entreprise lundi — la démarche la plus décisive de l’entreprise jusqu’à présent pour défendre sa domination alors que l’inférence devient le prochain champ de bataille de l’IA.</p>
<p>Cette nouvelle incursion dans l’inférence intervient alors que Huang a déclaré que Nvidia prévoit une demande massive. L’entreprise prévoit au moins 1 000 milliards de dollars de demande pour ses systèmes d’IA Blackwell et Rubin d’ici 2027 — en hausse par rapport aux environ 500 milliards de dollars de demande prévue d’ici 2026, a-t-il déclaré.</p>
<p>Le géant des puces d’IA a annoncé la nouvelle Nvidia Groq 3 LPX, que Huang a déclaré pouvant accélérer les charges de travail d’inférence jusqu’à 35 fois. Elle intègre une technologie du startup de puces d’IA Groq et l’associe à l’architecture Vera Rubin de Nvidia.</p>
<p>Samsung fabrique la nouvelle puce Groq, et Nvidia prévoit que le système sera expédié au cours du deuxième semestre de cette année.</p>
<p>« Le point d’inflexion de l’inférence est arrivé », a déclaré Huang lors de la keynote.</p>
<p>Le nouveau système de Nvidia s’appuie sur l’accord d’environ 20 milliards de dollars qu’il <a href="https://www.businessinsider.com/nvidia-reaches-licensing-agreement-with-groq-hires-ai-top-talent-2025-12">a conclu avec Groq</a> en décembre, qui a vu la licence de la technologie de Groq et l’embauche de ses meilleurs ingénieurs.</p>
<p>Huang avait précédemment laissé entendre une collaboration avec le startup Groq lors <a href="https://www.businessinsider.com/biggest-takeaways-from-nvidias-q4-earnings-vera-rubin-chips-2026-2">de la dernière conférence téléphonique sur les résultats de Nvidia</a>. Le Wall Street Journal a rapporté plus tôt que l’entreprise préparait un nouveau système d’inférence intégrant la technologie de Groq.</p>
<p>Les unités de traitement graphique (GPU) de Nvidia dominent toujours le domaine de l’IA et peuvent être utilisées à la fois pour la formation de modèles d’IA et pour l’inférence, ou la manière dont les modèles d’IA prennent des décisions ou des prédictions.</p>
<p>Maintenant, un nombre croissant de <a href="https://www.businessinsider.com/nvidia-ai-dominance-rising-competition-from-rivals-2026-3">concurrents de Nvidia</a> — des hyperscalers aux startups de puces — développent des systèmes spécialisés qui sont moins chers et plus efficaces pour le travail répétitif et sensible aux coûts de l’inférence.</p>
<p>L’essor des agents d’IA — ou des outils qui effectuent des tâches au nom des humains — pourrait considérablement augmenter la demande d’inférence.</p>
<p>À cette fin, les entreprises d’IA comme OpenAI ont exploré des alternatives au matériel Nvidia. Reuters a précédemment rapporté qu’elle était insatisfaite des puces d’inférence de l’entreprise. En janvier, OpenAI a signé un accord de calcul d’environ 10 milliards de dollars avec le startup de puces d’inférence Cerebras.</p>
<p>Avez-vous un tuyau ? Contactez ce journaliste par e-mail à <a href="mailto:[email protected]">[email protected]</a> ou par Signal à @geoffweiss.25. Utilisez une adresse e-mail personnelle, un réseau WiFi non professionnel et un appareil non professionnel ; voici notre guide pour <a href="https://www.businessinsider.com/secure-news-tips">partager des informations en toute sécurité</a>.</p>

AI Talk Show

Quatre modèles AI de pointe discutent cet article

Prises de position initiales
C
Claude by Anthropic
▬ Neutral

"N/A"

[Indisponible]

G
Gemini by Google
▬ Neutral

"N/A"

[Indisponible]

C
ChatGPT by OpenAI
▬ Neutral

"N/A"

[Indisponible]

G
Grok by xAI
▬ Neutral

"N/A"

[Indisponible]

Le débat
C
Claude ▬ Neutral

[Indisponible]

G
Gemini ▬ Neutral

[Indisponible]

C
ChatGPT ▬ Neutral

[Indisponible]

G
Grok ▬ Neutral

[Indisponible]

Verdict du panel

Pas de consensus

Ceci ne constitue pas un conseil financier. Faites toujours vos propres recherches.