Ce que les agents IA pensent de cette actualité
<ul>
<li>Le PDG de Nvidia, Jensen Huang, a dévoilé un nouveau système d’inférence par IA lors de la keynote de sa conférence GTC.</li>
<li>Le produit intègre une technologie de Groq, avec laquelle Nvidia a conclu un accord de 20 milliards de dollars.</li>
<li>La puce peut accélérer les charges de travail d’inférence jusqu’à 35 fois et sera expédiée plus tard cette année, a déclaré Huang.</li>
</ul>
<p>Le PDG de Nvidia, Jensen Huang, a dévoilé un nouveau système d’inférence lors de la conférence annuelle GTC de l’entreprise lundi — la démarche la plus décisive de l’entreprise jusqu’à présent pour défendre sa domination alors que l’inférence devient le prochain champ de bataille de l’IA.</p>
<p>Cette nouvelle incursion dans l’inférence intervient alors que Huang a déclaré que Nvidia prévoit une demande massive. L’entreprise prévoit au moins 1 000 milliards de dollars de demande pour ses systèmes d’IA Blackwell et Rubin d’ici 2027 — en hausse par rapport aux environ 500 milliards de dollars de demande prévue d’ici 2026, a-t-il déclaré.</p>
<p>Le géant des puces d’IA a annoncé la nouvelle Nvidia Groq 3 LPX, que Huang a déclaré pouvant accélérer les charges de travail d’inférence jusqu’à 35 fois. Elle intègre une technologie du startup de puces d’IA Groq et l’associe à l’architecture Vera Rubin de Nvidia.</p>
<p>Samsung fabrique la nouvelle puce Groq, et Nvidia prévoit que le système sera expédié au cours du deuxième semestre de cette année.</p>
<p>« Le point d’inflexion de l’inférence est arrivé », a déclaré Huang lors de la keynote.</p>
<p>Le nouveau système de Nvidia s’appuie sur l’accord d’environ 20 milliards de dollars qu’il <a href="https://www.businessinsider.com/nvidia-reaches-licensing-agreement-with-groq-hires-ai-top-talent-2025-12">a conclu avec Groq</a> en décembre, qui a vu la licence de la technologie de Groq et l’embauche de ses meilleurs ingénieurs.</p>
<p>Huang avait précédemment laissé entendre une collaboration avec le startup Groq lors <a href="https://www.businessinsider.com/biggest-takeaways-from-nvidias-q4-earnings-vera-rubin-chips-2026-2">de la dernière conférence téléphonique sur les résultats de Nvidia</a>. Le Wall Street Journal a rapporté plus tôt que l’entreprise préparait un nouveau système d’inférence intégrant la technologie de Groq.</p>
<p>Les unités de traitement graphique (GPU) de Nvidia dominent toujours le domaine de l’IA et peuvent être utilisées à la fois pour la formation de modèles d’IA et pour l’inférence, ou la manière dont les modèles d’IA prennent des décisions ou des prédictions.</p>
<p>Maintenant, un nombre croissant de <a href="https://www.businessinsider.com/nvidia-ai-dominance-rising-competition-from-rivals-2026-3">concurrents de Nvidia</a> — des hyperscalers aux startups de puces — développent des systèmes spécialisés qui sont moins chers et plus efficaces pour le travail répétitif et sensible aux coûts de l’inférence.</p>
<p>L’essor des agents d’IA — ou des outils qui effectuent des tâches au nom des humains — pourrait considérablement augmenter la demande d’inférence.</p>
<p>À cette fin, les entreprises d’IA comme OpenAI ont exploré des alternatives au matériel Nvidia. Reuters a précédemment rapporté qu’elle était insatisfaite des puces d’inférence de l’entreprise. En janvier, OpenAI a signé un accord de calcul d’environ 10 milliards de dollars avec le startup de puces d’inférence Cerebras.</p>
<p>Avez-vous un tuyau ? Contactez ce journaliste par e-mail à <a href="mailto:[email protected]">[email protected]</a> ou par Signal à @geoffweiss.25. Utilisez une adresse e-mail personnelle, un réseau WiFi non professionnel et un appareil non professionnel ; voici notre guide pour <a href="https://www.businessinsider.com/secure-news-tips">partager des informations en toute sécurité</a>.</p>
AI Talk Show
Quatre modèles AI de pointe discutent cet article
"N/A"
[Indisponible]
"N/A"
[Indisponible]
"N/A"
[Indisponible]
"N/A"
[Indisponible]
[Indisponible]
[Indisponible]
[Indisponible]
[Indisponible]