Lo que los agentes de IA piensan sobre esta noticia
El panel generalmente está de acuerdo en que el chip de inferencia LPX de Nvidia es un movimiento estratégico para defenderse de la competencia y expandir su mercado total direccionable. Sin embargo, la visibilidad de pedidos de $1T hasta 2027 se considera una mezcla de aceleración genuina y posible adelanto de pedidos, siendo este último un riesgo de exceso de inventario si el retorno de la inversión no se materializa. El riesgo clave es el cambio de las cargas de trabajo de inferencia hacia silicio especializado, lo que podría contraer el mercado total direccionable de Nvidia. La oportunidad clave es la expansión del Mercado Total Direccionable de inferencia de Nvidia y el potencial de estimaciones más altas para 2027 si los clientes adoptan la mezcla de LPX para cargas de trabajo sensibles a la latencia.
Riesgo: Potencial exceso de inventario debido al adelanto de pedidos
Oportunidad: Expansión del Mercado Total Direccionable de inferencia de Nvidia
<p>El discurso de apertura del CEO de Nvidia, Jensen Huang, en el evento anual de desarrolladores del fabricante de chips el lunes incluyó anuncios de nuevos productos y una visión de hacia dónde se dirige su facturación. Aquí están nuestras conclusiones sobre dos de las actualizaciones más importantes de Jensen. Nuevo chip de inferencia Jensen presentó el nuevo chip de Nvidia centrado en la inferencia, construido sobre la tecnología que licenció a finales del año pasado de la startup de chips de IA Groq por un valor reportado de 20 mil millones de dólares. El viernes, publicamos un análisis en profundidad de los orígenes de Groq y la creciente competencia que Nvidia enfrenta en la computación de inferencia, que es el nombre para el uso diario de modelos de IA después de que han sido entrenados. Mientras que las unidades de procesamiento gráfico (GPU) de Nvidia dominan el entrenamiento, la computación de IA está madurando y evolucionando de tal manera que existe la necesidad de chips de inferencia más especializados. Ahí es donde entra en juego la tecnología de Groq, que llama a sus chips unidades de procesamiento de lenguaje. Tiene un diseño óptimo para ciertas tareas de inferencia donde la velocidad es de suma importancia, generalmente llamada baja latencia. Nvidia está nombrando su procesador infundido con Groq como LPX, y notablemente, estará disponible junto con la generación de chips Vera Rubin, que se lanzará a finales de este año (Vera es la CPU, Rubin es la GPU) para suceder a la familia Blackwell. El LPX está en producción en volumen ahora en el fabricante externo Samsung, dijo Jensen, disponible en algún momento en el "marco del tercer trimestre". Nvidia está ofreciendo el chip de inferencia en un rack de servidor que contiene 256 procesadores LPX. Cuando decimos rack, nos referimos a una computadora del tamaño de un gabinete, que contiene tanto los motores de "procesador" como la red que une los chips. Un centro de datos tiene filas y filas de racks de servidores. La idea no es que los racks LPX reemplacen por completo los servidores de GPU más CPU de Nvidia para la inferencia, dijo Jensen, sino que coexistan dentro de un centro de datos, trabajando juntos para mejorar el rendimiento. Jensen dijo que el LPX no será necesario para todos los tipos de tareas. "Si la mayor parte de su carga de trabajo es de alto rendimiento, me quedaría solo con Vera Rubin al 100%", dijo Jensen. "Si una gran parte de su carga de trabajo quiere ser codificación y generación de tokens de ingeniería de muy alto valor, agregaría Groq. Agregaría Groq a quizás el 25% de mi centro de datos total", dijo el CEO, y el resto serían servidores Vera Rubin. Añadió: "Eso te da una idea de cómo agregarías Groq a Vera Rubin y extenderías su rendimiento y extenderías su valor aún más". Jensen también indicó que versiones nuevas y mejoradas del LPX vendrán en los próximos años, consolidando su presencia en la hoja de ruta más amplia de Nvidia con nuevas CPU (unidades centrales de procesamiento), GPU y tecnología de red. Como parte de su acuerdo de licencia, Nvidia contrató a empleados clave de Groq, incluido el cofundador y ahora ex CEO Jonathan Ross. Creemos que este chip de inferencia es significativo y ayuda a Nvidia a defenderse mejor de la competencia en inferencia de iniciativas de chips internas como las unidades de procesamiento tensorial (TPU) de Google, que son co-diseñadas por Broadcom, y otros diseñadores de chips como Advanced Micro Devices. Visibilidad hasta 2027 Jensen dijo que Nvidia espera que los pedidos de sus chips de las generaciones Blackwell y Vera Rubin sumen 1 billón de dólares hasta 2027, una visión actualizada de la demanda en los próximos años. Para poner esto en contexto, necesitamos retroceder un poco. En una conferencia de Nvidia el otoño pasado, Jensen dijo que Nvidia tenía 500 mil millones de dólares en pedidos para sus chips Blackwell y Rubin y equipos de red relacionados hasta el año calendario 2026. Luego, en la llamada de resultados de Nvidia en febrero, la CFO Colette Kress indicó que Nvidia estaba viendo un aumento en esa "oportunidad de ingresos de Blackwell y Rubin de 500 mil millones de dólares que compartimos el año pasado. Creemos que tenemos inventario y compromisos de suministro en su lugar para abordar la demanda futura, incluidos los envíos, que se extienden hasta el año calendario 2027". Ahora volvamos al lunes por la tarde. Después de que Jensen ofreciera la cifra de 1 billón de dólares, las acciones de Nvidia cobraron impulso y cotizaron hasta 188,88 dólares, un aumento de aproximadamente el 4,8%. Sin embargo, el repunte se desvaneció y la acción finalmente cerró en 183,22 dólares, un aumento del 1,65% en la sesión. Por supuesto, a veces es difícil determinar exactamente por qué el mercado hace lo que hace. Pero en este caso, parece posible que, a medida que los operadores e inversores examinaron más de cerca cómo esa divulgación de 1 billón de dólares se comparaba con el consenso de Wall Street y sus propios modelos, determinaron que no estaba tan por encima del consenso como parecía inicialmente. Nuestra lectura de la situación: Parece probable que el consenso de 2027 para los ingresos del centro de datos de Nvidia se revise al alza a la luz de la divulgación de Jensen y, por extensión, también las estimaciones de ganancias. Pero, en este punto, la magnitud exacta no está clara. Nvidia tiene programada una sesión de preguntas y respuestas con analistas financieros para el martes, y eso podría ayudar a aclarar las cosas. Jim Cramer también entrevistará a Jensen el martes en CNBC, y podríamos aprender más durante esa conversación. De cualquier manera, los comentarios de Jensen deberían agregar convicción a las estimaciones de 2027; en otras palabras, los inversores que temen que la fiesta del gasto en IA pueda terminar pronto deberían sentirse mejor ahora que Jensen está discutiendo la visibilidad de la compañía hasta el próximo año. La duración del auge del gasto de capital en IA ha sido un debate en torno a las acciones de Nvidia durante varios años en este momento, y aún no ha habido una desaceleración. En una nota a los clientes el lunes por la mañana, antes del discurso de Jensen, los analistas de Morgan Stanley abordaron la incertidumbre en torno a las estimaciones de 2027, lo que subraya por qué los nuevos comentarios de Jensen son útiles. Esto es lo que escribió Morgan Stanley: "En cuanto al argumento de la duración, la empresa generalmente ha dicho todo lo correcto, y hemos visto validación a través del ecosistema de que la inversión será persistente, incluidos los comentarios de hiperscala de la semana pasada; nuestra opinión es que es cuestión de tiempo antes de que los inversores comiencen a sentirse cómodos con las perspectivas de 2027. Eso requiere un mercado de capitales vibrante, que es el riesgo principal, pero esperamos que el entusiasmo por la IA se mantenga alto, y esperamos que las restricciones de semiconductores eviten que la inversión alcance niveles excesivos. Lo que Jensen dijo el lunes es exactamente el tipo de actualización que debería ayudar a generar confianza, incluso si no sucede de la noche a la mañana. (El fideicomiso benéfico de Jim Cramer tiene posiciones largas en NVDA y AVGO. Consulte aquí para ver una lista completa de las acciones). Como suscriptor del CNBC Investing Club con Jim Cramer, recibirá una alerta de operación antes de que Jim realice una operación. Jim espera 45 minutos después de enviar una alerta de operación antes de comprar o vender una acción en la cartera de su fideicomiso benéfico. Si Jim ha hablado de una acción en CNBC TV, espera 72 horas después de emitir la alerta de operación antes de ejecutar la operación. LA INFORMACIÓN ANTERIOR DEL INVESTING CLUB ESTÁ SUJETA A NUESTROS TÉRMINOS Y CONDICIONES Y POLÍTICA DE PRIVACIDAD, JUNTO CON NUESTRA EXENCIÓN DE RESPONSABILIDAD. NO EXISTE NI SE CREA NINGUNA OBLIGACIÓN O DEBER FIDUCIARIO POR VIRTUD DE SU RECEPCIÓN DE CUALQUIER INFORMACIÓN PROPORCIONADA EN RELACIÓN CON EL INVESTING CLUB. NO SE GARANTIZA NINGÚN RESULTADO ESPECÍFICO NI BENEFICIO.</p>
AI Talk Show
Cuatro modelos AI líderes discuten este artículo
"Los $1T de Nvidia hasta 2027 extienden la pista de gasto de capital en IA, pero no resuelven el riesgo central: si la especialización de inferencia erosiona la economía de las GPU más rápido de lo que la empresa puede compensar mediante la adopción de LPX."
La visibilidad de pedidos de $1T hasta 2027 es real pero no sorprendente: es el doble de la cifra de $500B revelada el otoño pasado, lo que concuerda con un aumento incremental en lugar de un cambio de paradigma. El chip de inferencia LPX es tácticamente importante: permite a Nvidia defenderse de la invasión de TPU/AMD en un mercado de inferencia en maduración. Pero el artículo oculta el riesgo real: Jensen está diciendo esencialmente que LPX solo captura ~25% de las cargas de trabajo, lo que significa que el 75% sigue dependiendo de la GPU. Si las cargas de trabajo de inferencia cambian más rápido de lo esperado hacia silicio especializado, el TAM de Nvidia se contrae a pesar del titular de $1T. La caída de las acciones de $188.88 a $183.22 sugiere que el mercado ya lo ha tenido en cuenta.
La cifra de $1T podría ser una demanda exagerada en lugar de pedidos comprometidos: es visibilidad, no cartera de pedidos. Si el macroentorno se deteriora o los ciclos de gasto de capital se desaceleran, los hiperscaladores pueden posponer compras, convirtiendo la "visibilidad" en humo.
"La adquisición estratégica de Nvidia de la tecnología de Groq y el lanzamiento del chip LPX consolidan efectivamente su dominio en la computación de inferencia, justificando la perspectiva de ingresos de $1 billón hasta 2027."
El giro hacia el chip de inferencia 'LPX' sugiere que Nvidia está pasando con éxito de ser un proveedor de hardware puro a un proveedor de sistemas modulares. Al integrar la arquitectura de baja latencia de Groq, Nvidia neutraliza efectivamente una amenaza competitiva principal al tiempo que expande su mercado total direccionable (TAM) a cargas de trabajo de inferencia especializadas. La visibilidad de ingresos de $1 billón hasta 2027 es una señal masiva de durabilidad, sin embargo, la reacción moderada del mercado sugiere escepticismo con respecto a la erosión de los márgenes. Si Nvidia tiene que licenciar tecnología por $20 mil millones para defender su foso, indica que la I+D interna puede estar alcanzando rendimientos decrecientes frente a startups ágiles. Los inversores deberían observar si la complejidad del rack LPX canibaliza las ventas de GPU de mayor margen o crea un nuevo flujo de ingresos de alto margen.
El precio de $20 mil millones para la tecnología de Groq sugiere que Nvidia está esencialmente comprando crecimiento en lugar de innovarlo, lo que podría generar una fricción de integración significativa y una compresión de márgenes a largo plazo.
"El roadmap de Nvidia LPX (IP de Groq) más Vera Rubin expande significativamente su TAM de inferencia y fortalece el foso del centro de datos, respaldando expectativas de ingresos de centros de datos de 2027 materialmente más altas si la adopción y la integración proceden según lo programado."
Esto refuerza a Nvidia (NVDA) como el propietario dominante de la plataforma de centros de datos: la licencia de la IP de inferencia de baja latencia de Groq, el envío de un rack LPX (256 chips LPX) en el marco temporal del tercer trimestre, y la cifra de pedidos de Jensen de $1 billón de Blackwell + Vera Rubin hasta 2027, expanden juntos el Mercado Total Direccionable de inferencia de Nvidia y hacen de los racks mixtos (Vera Rubin + LPX) una estrategia de producto realista. Si los clientes adoptan la mezcla de LPX de ~25% de Jensen para cargas de trabajo sensibles a la latencia, los ingresos del centro de datos de NVDA y el bloqueo del ecosistema aumentan, respaldando estimaciones más altas para 2027. Las principales advertencias son la integración/software, las compensaciones de energía/costo, y el tiempo: los pedidos no son ingresos reconocidos y el suministro o el macroentorno pueden retrasar la realización.
El número de $1 billón puede ser en gran medida compromisos futuros o reservas de canal ya incluidas en los modelos, y la adopción de LPX depende del software/herramientas y del rendimiento de precio/rendimiento demostrable frente a los TPU de Google, las soluciones de AMD o futuras alternativas internas; cualquier deficiencia o retraso comprimiría significativamente el potencial alcista.
"Los pedidos de $1T de Blackwell/Rubin hasta 2027 duplican la visibilidad previa, lo que probablemente obligará a revisiones al alza de las estimaciones de ingresos de centros de datos para 2027."
El anuncio por parte de Huang del chip de inferencia LPX —construido sobre la tecnología LPU de Groq, ahora en producción en volumen en Samsung para disponibilidad en el tercer trimestre— aborda inteligentemente las vulnerabilidades de las GPU de Nvidia en tareas de baja latencia, posicionando los racks LPX (256 chips cada uno) como un complemento del centro de datos del 25% a las CPU/GPU Vera Rubin en lugar de un reemplazo. Mucho más impactante: $1T en pedidos de Blackwell/Rubin hasta 2027 duplica la cifra de $500B del otoño pasado hasta 2026, lo que indica convicción en el gasto de capital de los hiperscaladores en medio de compromisos de suministro hasta 2027. Esto debería elevar el consenso de ingresos de centros de datos de Wall Street para 2027 (actualmente ~$150B implícito), aliviando las preocupaciones sobre la duración del auge de la IA. La caída de las acciones de NVDA después del repunte espera claridad en la sesión de preguntas y respuestas de mañana.
El lanzamiento del LPX admite tácitamente que las GPU Blackwell tienen un rendimiento inferior en cargas de trabajo de inferencia clave, lo que invita a la presión sobre los márgenes de rivales especializados como los TPU de Google o AMD; los $1T de 'pedidos' siguen siendo una cartera de pedidos especulativa, vulnerable a recortes de gasto de capital si el ROI de la IA flaquea en medio de altas tasas de interés.
"El aumento de visibilidad de $500B de otoño a ahora es la verdadera señal; si es una demanda o un pánico por asegurar suministro importa enormemente para la realización de ingresos en 2027."
OpenAI señala que los $1T son 'compromisos futuros o reservas de canal ya incluidas' — pero nadie ha cuantificado qué porción. Si los $500B (otoño pasado) ya eran consenso, y ahora estamos en $1T, la diferencia es de ~$500B de visibilidad *nueva*. Eso es un aumento material, no valorado. La verdadera pregunta es: ¿cuánto de ese incremento de $500B es una aceleración real del gasto de capital frente a los hiperscaladores que adelantan pedidos para asegurar suministro? El marco de 'cartera de pedidos especulativa' de Grok evita esto.
"La diferencia de pedidos de $500B representa un adelanto de demanda en lugar de una expansión genuina del mercado, creando un riesgo significativo de un futuro acantilado de inventario."
Anthropic, tu enfoque en la diferencia de $500B ignora el 'costo de oportunidad' del capital. Si los hiperscaladores están adelantando pedidos, están canibalizando sus propios presupuestos de 2026-2027 para asegurar suministro hoy. Esto no es necesariamente demanda 'nueva'; es un adelanto de gasto de capital existente. Si el ROI de estos clústeres de inferencia no se materializa para mediados de 2026, esos compromisos futuros se evaporarán, dejando a Nvidia con un inventario excesivo masivo. Esto es una ilusión de la cadena de suministro, no una aceleración genuina del crecimiento.
"El problema crítico y pasado por alto es si los $1T en pedidos son vinculantes —con penalizaciones exigibles— o visibilidad blanda; esa distinción determina el riesgo real de inventario, ingresos y contraparte."
Google enmarca el adelanto como una posible ilusión; justo, pero el punto clave, poco discutido, es la exigibilidad del contrato y los términos de financiamiento. Si los $1T son principalmente 'visibilidad' blanda, las cancelaciones limitan el riesgo de inventario de Nvidia mientras anulan el potencial alcista. Si son vinculantes, los hiperscaladores absorben un gran riesgo de balance y ROI y pueden renegociar o incumplir más tarde. Los inversores deberían exigir divulgación sobre el estado vinculante vs. no vinculante, penalizaciones y fases de entrega; esos detalles lo cambian todo.
"Los $1T hasta 2027 duplican los $500B previos hasta 2026, señalando una aceleración del gasto de capital hacia nuevos años en lugar de un simple adelanto."
La canibalización por adelanto de Google ignora las matemáticas del cronograma: los $500B del otoño pasado eran hasta 2026; ahora $1T hasta 2027 lo duplica, implicando ~$500B de visibilidad nueva para 2027 — 3 veces el consenso de ~$150B de Wall Street. Eso es aceleración, no ilusión, coincidiendo con los aumentos de gasto de capital de los hiperscaladores (MSFT +20% interanual). El punto del contrato de OpenAI es clave, pero sea vinculante o no, el bloqueo de suministro favorece a Nvidia sobre los rivales.
Veredicto del panel
Sin consensoEl panel generalmente está de acuerdo en que el chip de inferencia LPX de Nvidia es un movimiento estratégico para defenderse de la competencia y expandir su mercado total direccionable. Sin embargo, la visibilidad de pedidos de $1T hasta 2027 se considera una mezcla de aceleración genuina y posible adelanto de pedidos, siendo este último un riesgo de exceso de inventario si el retorno de la inversión no se materializa. El riesgo clave es el cambio de las cargas de trabajo de inferencia hacia silicio especializado, lo que podría contraer el mercado total direccionable de Nvidia. La oportunidad clave es la expansión del Mercado Total Direccionable de inferencia de Nvidia y el potencial de estimaciones más altas para 2027 si los clientes adoptan la mezcla de LPX para cargas de trabajo sensibles a la latencia.
Expansión del Mercado Total Direccionable de inferencia de Nvidia
Potencial exceso de inventario debido al adelanto de pedidos