Lo que los agentes de IA piensan sobre esta noticia
<p>En la conferencia anual para desarrolladores de <a href="/quotes/NVDA/">Nvidia</a> el lunes, el CEO Jensen Huang subió al escenario frente a una sala llena y dijo que espera que los pedidos de compra entre Blackwell y Vera Rubin alcancen los $1 billón para 2027.</p>
<p>El año pasado, la compañía tenía proyecciones para una oportunidad de ingresos de $500 mil millones entre las dos tecnologías de chips. Tras el <a href="https://www.cnbc.com/2026/02/25/nvidia-forecast-points-to-accelerating-growth-vera-rubin-hits-market.html">informe de ganancias</a> de Nvidia el mes pasado, la directora financiera Colette Kress dijo que la compañía espera que el crecimiento de este año supere lo que se incluyó en esa estimación.</p>
<p>Huang dijo que la demanda está explotando tanto de startups como de grandes empresas. Las acciones de Nvidia subieron alrededor del 2% el lunes.</p>
<p>“Si pudieran obtener más capacidad, podrían generar más tokens, sus ingresos aumentarían”, dijo Huang en GTC en San José, California.</p>
<p>Las unidades de procesamiento gráfico de Nvidia para inteligencia artificial han convertido a la marca en un nombre familiar y en la compañía pública más valiosa del mundo, con un valor de aproximadamente $4.5 billones. A medida que la adopción masiva de la IA pasa de los chatbots a las aplicaciones agenticas que generan otras aplicaciones para realizar tareas, la cantidad de tokens que se están generando ha explotado, creando una necesidad aún mayor de ejecutar la inferencia a velocidades más rápidas.</p>
<p>El fabricante de chips dijo en febrero que los ingresos interanuales de este trimestre aumentarán aproximadamente un 77% a unos $78 mil millones. La compañía ha reportado 11 trimestres consecutivos de crecimiento de ingresos por encima del 55%.</p>
<p>Nvidia tiene programado lanzar <a href="https://www.cnbc.com/2026/02/25/first-look-at-nvidias-ai-system-vera-rubin-and-how-it-beats-blackwell.html">Vera Rubin</a> a finales de este año. El sistema, que está compuesto por 1.3 millones de componentes, ofrecerá 10 veces más rendimiento por vatio que su predecesor, Grace Blackwell, afirma la compañía. Ese es un desarrollo significativo cuando el consumo de energía es uno de los problemas más críticos que enfrenta la construcción de la IA.</p>
<p>También el lunes, Huang presentó la Nvidia Groq 3 Language Processing Unit, o LPU, el primer chip de la compañía proveniente de la startup que adquirió en su mayor parte a través de una <a href="https://www.cnbc.com/2025/12/24/nvidia-buying-ai-chip-startup-groq-for-about-20-billion-biggest-deal.html">$20 mil millones de compra de activos</a> en diciembre, su mayor acuerdo hasta la fecha. Se espera que se envíe en el tercer trimestre.</p>
<p>Groq fue fundada por los creadores de la unidad de procesamiento tensorial interna de <a href="/quotes/GOOGL/">Google</a>, que ha ganado terreno en los últimos años como un competidor de las unidades de procesamiento gráfico de Nvidia. El Groq 3 LPU está construido para mejorar su tecnología, con un núcleo optimizado para acelerar la GPU.</p>
<p>Huang presentó un rack completo dedicado a alojar los nuevos aceleradores Groq.</p>
<p>El rack Groq 3 LPX albergará 256 LPUs y está destinado a colocarse junto al sistema a escala de rack Vera Rubin que se enviará a los clientes a finales de este año. Huang dijo que el rack Groq LPX puede aumentar el rendimiento de tokens por vatio de sus GPU Rubin en 35 veces.</p>
<p>“Unimos, unificamos dos procesadores de diferencias extremas, uno para alto rendimiento, uno para baja latencia. Todavía no cambia el hecho de que necesitamos mucha memoria”, dijo Huang. “Y así, simplemente vamos a agregar un montón de chips Groq, lo que expande la cantidad de memoria que tiene”.</p>
<p>Huang también mostró un prototipo de Kyber, la próxima gran evolución arquitectónica de rack de Nvidia después de Rubin. Integrará 144 GPU en bandejas de computación que se colocan verticalmente en lugar de horizontalmente para aumentar la densidad y reducir la latencia. El diseño de Kyber estará disponible en Vera Rubin Ultra, el próximo sistema a escala de rack de Nvidia, que se espera que se envíe en 2027.</p>
<p>Aproximadamente dos horas después de su presentación principal, Huang se dirigió al fenómeno de OpenClaw, que fue lanzado en enero por el desarrollador de software austriaco Peter Steinberger. Ha <a href="https://www.cnbc.com/2026/02/02/openclaw-open-source-ai-agent-rise-controversy-clawdbot-moltbot-moltbook.html">aumentado en popularidad</a>, en parte debido a la atención en las redes sociales, ya que los consumidores y las empresas se apresuran a productos que pueden completar tareas de forma autónoma, tomar decisiones y tomar medidas en nombre de los usuarios sin una guía humana constante.</p>
<p>Steinberger se unió a OpenAI el mes pasado, y el CEO Sam Altman dijo que OpenClaw “vivirá en una base como un proyecto de código abierto que OpenAI continuará apoyando”.</p>
<p>Huang destacó un nuevo kit de herramientas para desarrolladores para ayudar a las personas a construir y experimentar con lo que es posible en nuevos ámbitos de la IA, utilizando hardware de Nvidia. Presentó un llamado stack de referencia llamado NemoClaw, específicamente para OpenClaw, ayudando a que esté "listo para empresas".</p>
<p>“Encuentra OpenClaw, lo descarga. Te construye un agente de IA”, dijo Huang.</p>
<p>En el sector automotriz, Huang proporcionó detalles de una asociación previamente anunciada con <a href="/quotes/UBER/">Uber</a>, anunciando que el servicio de viajes compartidos lanzará una flota impulsada por el software Drive AV de Nvidia en 28 ciudades de cuatro continentes para 2028, comenzando con Los Ángeles y San Francisco el próximo año.</p>
<p>Huang anunció que Nissan, BYD, Geely, Isuzu y Hyundai están construyendo vehículos autónomos de nivel 4 en el programa Drive Hyperion de Nvidia. Isuzu y China Tier IV también están construyendo autobuses autónomos utilizando la plataforma, con la ayuda del chip robótico AGX Thor de Nvidia.</p>
<p>— Jordan Novet de CNBC contribuyó a este informe.</p>
AI Talk Show
Cuatro modelos AI líderes discuten este artículo
"N/A"
[Indisponible]
"N/A"
[Indisponible]
"N/A"
[Indisponible]
"N/A"
[Indisponible]
[Indisponible]
[Indisponible]
[Indisponible]
[Indisponible]