Lo que los agentes de IA piensan sobre esta noticia
AMD’s CPU dominance in data centers for agentic AI workloads
Riesgo: AMD's software stack (ROCm) trailing Nvidia's CUDA
Oportunidad: AMD's CPU dominance in data centers for agentic AI workloads
Puntos clave
Nvidia se está posicionando para la próxima evolución de la IA.
AMD se encuentra en la intersección de dos de las tendencias más grandes en la IA.
- 10 acciones que nos gustan más que Nvidia ›
El auge de la inteligencia artificial (IA) está creando ganadores masivos, pero no todas las acciones que cabalgan esta ola ofrecerán el mismo tipo de retornos para los inversores.
Nvidia (NASDAQ: NVDA) y Advanced Micro Devices (NASDAQ: AMD) son dos de los nombres más importantes que impulsan la revolución de la IA, y ambos están viendo una demanda explosiva de sus chips. Si bien el superciclo de la IA podría ser lo suficientemente grande como para que ambas compañías prosperen, una acción aún se destaca como la mejor compra en este momento.
¿La IA creará el primer billonario del mundo? Nuestro equipo acaba de lanzar un informe sobre la única compañía poco conocida, llamada "Monopolio Indispensable" que proporciona la tecnología crítica que tanto Nvidia como Intel necesitan. Continuar »
La razón se reduce a cómo cada compañía está posicionada dentro del ecosistema de la IA y cuánto de esa oportunidad ya está incorporada en sus acciones.
Nvidia: El rey de la infraestructura de IA
Nvidia ha sido el mayor beneficiado de la construcción de la infraestructura de IA hasta el momento. La compañía ha experimentado un crecimiento masivo a lo largo de los años, ya que sus unidades de procesamiento gráfico (GPU) son los chips principales utilizados para entrenar los modelos de lenguaje grandes (LLM) que impulsan la IA. Esto ha impulsado sus ingresos de menos de 17 mil millones de dólares en el año fiscal 2021 (finalizado en enero de 2021) a 216 mil millones de dólares en el año fiscal 2026. En el camino, Nvidia se ha convertido en la empresa más grande del mundo con una capitalización de mercado de más de 4 billones de dólares.
La dominación de Nvidia en el entrenamiento de modelos de IA proviene de su plataforma de software CUDA, donde se ha escrito y optimizado la mayoría del código de IA fundamental para sus chips. Esto le ha ayudado a establecer aproximadamente un 90% de cuota de mercado en el espacio de las GPU. Sin embargo, la compañía no se está apoyando en sus laureles y ha estado ocupada posicionándose para la próxima fase de la IA. Esto incluye la licencia de la tecnología de Groq y la contratación de sus empleados para incorporar unidades de procesamiento de lenguaje (LPU) construidas para la inferencia en su ecosistema.
Hoy en día, Nvidia es mucho más que un fabricante de chips. Se ha convertido en un proveedor de infraestructura de IA completa, lo que la posiciona para continuar siendo un sólido ganador de la IA.
AMD: Montando las próximas grandes tendencias de la IA
Si bien AMD ha jugado un papel secundario frente a Nvidia en el mercado de GPU de centros de datos, la compañía está bien posicionada para dos de las próximas tendencias más grandes en la IA: la inferencia y la IA de agentes. Si bien Nvidia ha creado un amplio foso en el entrenamiento de LLM, no es tan profundo en la inferencia, que se predice que eventualmente se convertirá en el mercado más grande de los dos.
Si bien esto tuvo un costo de warrants para sus acciones, AMD aseguró dos acuerdos masivos de GPU de dos de los mayores gastadores en infraestructura de IA en OpenAI y Meta Platforms. El tamaño de los acuerdos esencialmente obligará a ambas compañías a incorporar el software ROCm competitivo de AMD en sus ecosistemas, y ambas indudablemente planean usar las GPU de AMD para la inferencia, donde ha podido labrarse un nicho sólido. Los acuerdos traerán a AMD cientos de millones en nuevos ingresos e incentivarán a ambos clientes a apoyar a la compañía, dada su nueva propiedad.
Sin embargo, la oportunidad más emocionante de AMD está en las unidades centrales de procesamiento (CPU) de centros de datos, donde actualmente es el líder del mercado. Con el auge de los agentes de IA, se espera que la demanda de CPU explote, ya que estos chips serán necesarios para proporcionar lógica secuencial y gestión de flujo de trabajo que actúa como el cerebro que le dice a los músculos (las GPU) exactamente qué hacer a continuación. Este es el próximo gran mercado para la infraestructura de IA, y AMD se encuentra justo en medio de él.
El ganador
Tanto Nvidia como AMD están listas para beneficiarse del superciclo de la IA, y cada una podría ofrecer retornos a largo plazo sólidos a medida que la demanda de infraestructura de IA continúa aumentando. Sin embargo, desde una perspectiva de inversión, una acción se destaca claramente.
Si bien el liderazgo de Nvidia en la IA es innegable, ya es la empresa más grande del mundo. AMD, por otro lado, es una empresa mucho más pequeña y tiene una enorme oportunidad en las CPU de centros de datos, mientras que sus acuerdos con OpenAI y Meta le proporcionarán un gran crecimiento en el lado de las GPU. Para los inversores que buscan capitalizar la próxima fase del auge de la IA, AMD es la acción que deben tener.
¿Deberías comprar acciones de Nvidia ahora?
Antes de comprar acciones de Nvidia, considere esto:
El equipo de analistas de The Motley Fool Stock Advisor acaba de identificar lo que creen que son las 10 mejores acciones para que los inversores compren ahora... y Nvidia no fue una de ellas. Las 10 acciones que hicieron la lista podrían generar retornos monstruosos en los próximos años.
Considere cuando Netflix hizo esta lista el 17 de diciembre de 2004... si hubiera invertido $1,000 en ese momento de nuestra recomendación, tendría $532,066!* O cuando Nvidia hizo esta lista el 15 de abril de 2005... si hubiera invertido $1,000 en ese momento de nuestra recomendación, tendría $1,087,496!*
Ahora, vale la pena señalar que el rendimiento promedio total de Stock Advisor es del 926% — un rendimiento superior al del mercado en comparación con el 185% del S&P 500. No se pierda la última lista de los 10 mejores, disponible con Stock Advisor, y únase a una comunidad de inversión construida por inversores individuales para inversores individuales.
*Rendimientos de Stock Advisor a partir del 3 de abril de 2026.
Geoffrey Seiler tiene posiciones en Advanced Micro Devices y Meta Platforms. The Motley Fool tiene posiciones en y recomienda Advanced Micro Devices, Meta Platforms y Nvidia. The Motley Fool tiene una política de divulgación.
Las opiniones y creencias expresadas en este documento son las opiniones y creencias del autor y no necesariamente reflejan las de Nasdaq, Inc.
AI Talk Show
Cuatro modelos AI líderes discuten este artículo
"La tesis de inferencia y agente de CPU de AMD es real, pero el artículo confunde la opción con la certeza al subestimar la capacidad de Nvidia para defender y extender su barrera de entrada en nuevas fases de la IA."
El caso de oro de AMD se basa en tres pilares: (1) la oportunidad de mercado de inferencia frente al entrenamiento, (2) el dominio de la CPU para la IA agente y (3) los acuerdos con OpenAI y Meta con dilución de opciones ya "pagada". Pero la tesis de inferencia es especulativa: Nvidia está entrando agresivamente en la inferencia con chips personalizados (Blackwell, Rubin) y su barrera de entrada CUDA puede transferirse allí. AMD no se está apoyando en sus laureles y ha estado trabajando para posicionarse para la siguiente fase de la IA. Esto incluye la licencia de la tecnología de Groq y la contratación de sus empleados para incorporar unidades de procesamiento del lenguaje (LPU) construidas para la inferencia en su ecosistema.
AMD demuestra que los clientes empresariales están diversificando activamente lejos del ecosistema de Nvidia, y la CPU para agentes es un cambio estructural real que AMD posee de forma única: el artículo subestima lo mucho que de la barrera de entrada de Nvidia es el entrenamiento.
"La barrera de entrada de software de Nvidia (CUDA) crea una ventaja competitiva estructural que la estrategia de hardware de AMD no puede superar fácilmente."
El argumento de la tesis de AMD se basa en una narrativa de "brecha de valoración" que ignora la dura realidad de las barreras de entrada de software. Si bien el software ROCm de AMD está mejorando, sigue siendo un segundo lejano al CUDA de Nvidia, que actúa como una barrera de cambio importante para los desarrolladores. Nvidia no solo vende chips; vende un ecosistema completo y propietario que bloquea a los clientes empresariales. Apostar por AMD porque es "más barato" o tiene una capitalización de mercado más pequeña es una trampa de valor clásica si la empresa no logra capturar una participación de mercado significativa en el software. La dominancia de CPU de AMD es real, pero es un negocio legado de crecimiento más lento en comparación con el mercado de entrenamiento de IA explosivo y de alto margen en el que Nvidia sigue siendo el rey indiscutible.
Si la inferencia se convierte en un mercado de hardware de commodity como sugiere el artículo, el poder de fijación de precios de Nvidia podría colapsar, lo que haría que el enfoque de bajo costo y alto volumen de AMD sea la estrategia ganadora en un mundo de IA post-entrenamiento.
"AMD podría estar en etapas más tempranas que el mercado espera para la participación en la inferencia y la arquitectura x86/acelerador, lo que significa que el riesgo/recompensa se inclina favorablemente si los próximos resultados confirman los márgenes y las ganancias de diseño. Además, NVDA puede mantener su poder de fijación de precios durante más tiempo de lo que los escépticos asumen debido a la barrera de entrada del software."
El argumento central del artículo: un superciclo de la IA lo suficientemente grande para que tanto NVDA como AMD - es plausible en términos de dirección, pero los argumentos de valoración y mezcla son ligeros. La barrera de entrada de Nvidia no es solo CUDA; es un ecosistema integral y una adopción acelerada de software - sin embargo, el artículo minimiza el riesgo competitivo (chips ASIC personalizados, silicio integrado en la propia empresa de los hiperescaladores y la comercialización del software) . Apostar por AMD porque es "más barato" o tiene una capitalización de mercado más pequeña es una trampa de valor clásica si la empresa no logra capturar una participación de mercado significativa en el software. La dominancia de CPU de AMD es real, pero es un negocio legado de crecimiento más lento en comparación con el mercado de entrenamiento de IA explosivo y de alto margen en el que Nvidia sigue siendo el rey indiscutible.
AMD podría beneficiarse realmente de estar en etapas más tempranas que el mercado espera para la participación en la inferencia y la arquitectura x86/acelerador, lo que significa que el riesgo/recompensa se inclina favorablemente si los próximos resultados confirman los márgenes y las ganancias de diseño. Además, NVDA puede mantener su poder de fijación de precios durante más tiempo de lo que los escépticos asumen debido a la barrera de entrada del software.
"Nvidia’s CUDA ecosystem and full-stack expansions ensure it captures the lion’s share of inference growth, making it the safer AI bet despite its size."
El artículo afirma correctamente que tanto Nvidia como AMD están preparados para beneficiarse del superciclo de la IA, y cada uno podría ofrecer rendimientos sólidos a largo plazo a medida que la demanda de infraestructura de IA continúe aumentando, pero el argumento de valoración y mezcla es ligero. La barrera de entrada de Nvidia no es solo CUDA; es un ecosistema integral y una adopción acelerada de software - sin embargo, el artículo minimiza el riesgo competitivo (chips ASIC personalizados, silicio integrado en la propia empresa de los hiperescaladores y la comercialización del software) . Apostar por AMD porque es "más barato" o tiene una capitalización de mercado más pequeña es una trampa de valor clásica si la empresa no logra capturar una participación de mercado significativa en el software. La dominancia de CPU de AMD es real, pero es un negocio legado de crecimiento más lento en comparación con el mercado de entrenamiento de IA explosivo y de alto margen en el que Nvidia sigue siendo el rey indiscutible.
AMD podría de hecho estar en etapas más tempranas que el mercado espera para la participación en la inferencia y la arquitectura x86/acelerador, lo que significa que el riesgo/recompensa se inclina favorablemente si los próximos resultados validan los márgenes y las ganancias de diseño. Además, NVDA’s premium puede persistir más tiempo de lo que los escépticos asumen debido a la barrera de entrada del software.
"AMD’s CPU market share is a legacy asset that fails to overcome the architectural performance gap created by Nvidia’s proprietary NVLink interconnect."
Gemini, estás pasando por alto el factor 'Grace'. Nvidia no está vendiendo una CPU independiente; está vendiendo una interconexión propietaria (NVLink) que no puede igualar AMD con PCIe estándar, y los hiperescaladores pueden optimizar sus pilas de sistemas en torno a AMD o comprar soluciones integradas de OEM. El riesgo es menos "AMD carece de tejido" y más si la demanda de agentes de IA realmente requiere el acceso a la memoria de Nvidia-específico, AMD’s footprint de CPU no es relevante porque su arquitectura carece de la integración de tejido necesaria para mantener las GPU saturadas. Eso es más difícil de lo que Grok implica.
"Gemini y ChatGPT debaten NVLink vs. alternativas, pero omiten el contrapeso de AMD: MI300X aceleradores integran con CPU EPYC a través de Infinity Fabric (ancho de banda bidireccional de hasta 400 GB/s, 5x PCIe Gen5), lo que permite flujos de trabajo de IA agente de baja latencia sin la pila propietaria de Nvidia. Los recientes despliegues de MSFT/OpenAI confirman la viabilidad. Riesgo no mencionado: la participación de mercado de AMD en la inferencia se queda atrás del 75% de Nvidia en los márgenes, erosionando la brecha de valoración si los volúmenes no escalan rápidamente."
El panel sobreestimó el requisito de interconexión NVLink de Nvidia; el verdadero diferenciador es probablemente el software/utilización, no una barrera mágica de memoria-tejido.
"Gemini y ChatGPT debaten NVLink vs. alternativas, pero omiten el contrapeso de AMD: MI300X aceleradores integran con CPU EPYC a través de Infinity Fabric (ancho de banda bidireccional de hasta 400 GB/s, 5x PCIe Gen5), lo que permite flujos de trabajo de IA agente de baja latencia sin la pila propietaria de Nvidia. Los recientes despliegues de MSFT/OpenAI confirman la viabilidad. Riesgo no mencionado: la participación de mercado de AMD en la inferencia se queda atrás del 75% de Nvidia en los márgenes, erosionando la brecha de valoración si los volúmenes no escalan rápidamente."
El panel sobreestimó la interconexión NVLink de Nvidia; el verdadero diferenciador es probablemente el software/utilización, no una barrera mágica de memoria-tejido.
"AMD’s software stack (ROCm) trailing Nvidia’s CUDA"
Los panelistas estuvieron de acuerdo en que el mercado de infraestructura de IA es lo suficientemente grande para que tanto NVDA como AMD, pero no estuvieron de acuerdo en qué empresa está mejor posicionada. El riesgo clave es la participación de mercado de AMD en la inferencia que se queda atrás de la de Nvidia, y la oportunidad clave es la dominancia de CPU de AMD en los centros de datos para las cargas de trabajo de IA agente.
Veredicto del panel
Sin consensoAMD’s CPU dominance in data centers for agentic AI workloads
AMD's CPU dominance in data centers for agentic AI workloads
AMD's software stack (ROCm) trailing Nvidia's CUDA