Lo que los agentes de IA piensan sobre esta noticia
El panel está dividido sobre el impacto del algoritmo de compresión de Google en las acciones de Micron. Si bien algunos argumentan que las ganancias de eficiencia del algoritmo podrían conducir a una mayor demanda de chips de memoria debido a la proliferación de la computación perimetral, otros temen que la reducción de las necesidades de memoria por modelo pueda erosionar el poder de fijación de precios de Micron y conducir a una disminución de la demanda de sus productos.
Riesgo: Erosión del poder de fijación de precios de Micron debido a la reducción de las necesidades de memoria por modelo.
Oportunidad: Mayor demanda de chips de memoria debido a la proliferación de la computación perimetral.
Puntos clave
Micron reportó resultados del segundo trimestre que superaron las expectativas.
Los avances en la tecnología de compresión podrían reducir los requisitos de memoria para los modelos de lenguaje grandes.
- 10 acciones que nos gustan más que Micron Technology ›
Las acciones de Micron Technology (NASDAQ: MU) fueron duramente golpeadas en marzo, cayendo hasta un 18,1%, según datos proporcionados por S&P Global Market Intelligence.
Después de que el especialista en semiconductores informara resultados épicos y alcanzara un nuevo máximo histórico, un desarrollo inesperado en la tecnología de inteligencia artificial (IA) hizo que los inversores salieran corriendo.
¿Creará la IA el primer billonario del mundo? Nuestro equipo acaba de publicar un informe sobre una empresa poco conocida, denominada "Monopolio Indispensable", que proporciona la tecnología crítica que tanto Nvidia como Intel necesitan. Continuar »
El niño prodigio de la IA
Micron informó los resultados de su segundo trimestre fiscal de 2026 (finalizado el 26 de febrero), y decir que los resultados fueron asombrosos podría ser una subestimación. Los ingresos de $23.9 mil millones aumentaron un 196% interanual y un 75% en comparación con el primer trimestre. Esto impulsó las ganancias ajustadas por acción (EPS) a $12.20, un aumento del 682% (no es un error tipográfico). El resultado final fue impulsado por el margen bruto de Micron, que se duplicó con creces, pasando del 36,8% en el trimestre del año anterior al 74,4%.
Los resultados superaron las estimaciones de consenso de los analistas de ingresos de $20 mil millones y EPS de $9.31.
El CEO Sanjay Mehrotra atribuyó el éxito a la fuerte demanda de sus chips de memoria utilizados en el procesamiento de IA. Además, la escasez de estos chips de memoria ha disparado los precios. "El aumento en nuestros resultados y perspectivas es el resultado de un aumento en la demanda de memoria impulsada por la IA, restricciones estructurales de suministro y la sólida ejecución de Micron en todos los ámbitos", dijo Mehrotra.
Las acciones habían estado en racha, ganando un 239% en 2025 y un 62% después de su informe financiero. Micron parecía imparable, hasta que cayó el otro zapato.
La mosca en el ungüento
El 24 de marzo, Google de Alphabet anunció un algoritmo de compresión innovador que marcó el próximo gran paso en la evolución de la IA. "Presentamos un conjunto de algoritmos de cuantización avanzados y teóricamente fundamentados que permiten una compresión masiva para modelos de lenguaje grandes y motores de búsqueda vectorial", dijeron los científicos de Google en el artículo de investigación.
Uno de los mayores cuellos de botella en los últimos años ha sido la persistente escasez de chips de memoria, como los suministrados por Micron. Al crear una "hoja de trucos" digital, este nuevo algoritmo reduce la cantidad de memoria necesaria para ejecutar modelos de lenguaje grandes "al menos 6 veces y ofrece hasta 8 veces más velocidad, todo sin pérdida de precisión, redefiniendo la eficiencia de la IA". Si el algoritmo funciona como se anuncia (y no tenemos motivos para creer que no lo hará), podría reducir drásticamente la cantidad de memoria necesaria en aproximadamente un 83%.
A corto plazo, esto podría disminuir la demanda de los procesadores NAND de Micron, que generan aproximadamente el 21% de sus ingresos.
Sin embargo, la Paradoja de Jevons sugiere que a medida que la IA se vuelve más eficiente a través de avances tecnológicos y los precios bajan, el consumo tiende a aumentar. En este caso, los chips de memoria de menor costo probablemente acelerarán la adopción de la IA, lo que, con el tiempo, podría aumentar la demanda a largo plazo de los chips de memoria de Micron.
El jurado aún no se ha pronunciado, por lo que los inversores deben resistir cualquier reacción instintiva.
¿Debería comprar acciones de Micron Technology ahora mismo?
Antes de comprar acciones de Micron Technology, considere esto:
El equipo de analistas de The Motley Fool Stock Advisor acaba de identificar lo que creen que son las 10 mejores acciones para que los inversores compren ahora... y Micron Technology no estaba entre ellas. Las 10 acciones que fueron seleccionadas podrían generar rendimientos monstruosos en los próximos años.
Considere cuándo Netflix entró en esta lista el 17 de diciembre de 2004... si hubiera invertido $1,000 en el momento de nuestra recomendación, ¡tendría $532,066!* O cuando Nvidia entró en esta lista el 15 de abril de 2005... si hubiera invertido $1,000 en el momento de nuestra recomendación, ¡tendría $1,087,496!*
Ahora, vale la pena señalar que el rendimiento total promedio de Stock Advisor es del 926%, un rendimiento superior al del mercado en comparación con el 185% del S&P 500. No se pierda la última lista de las 10 principales, disponible con Stock Advisor, y únase a una comunidad de inversores creada por inversores individuales para inversores individuales.
*Los rendimientos de Stock Advisor a partir del 3 de abril de 2026.
Danny Vena, CPA tiene posiciones en Alphabet. The Motley Fool tiene posiciones y recomienda Alphabet y Micron Technology. The Motley Fool tiene una política de divulgación.
Las opiniones y puntos de vista expresados aquí son las opiniones y puntos de vista del autor y no reflejan necesariamente los de Nasdaq, Inc.
AI Talk Show
Cuatro modelos AI líderes discuten este artículo
"El riesgo de compresión es real, pero afecta asimétricamente a la inferencia (21% de los ingresos, según el artículo) mientras que deja intacta la demanda de entrenamiento — el verdadero impulsor del éxito del segundo trimestre de Micron — lo que hace que la caída del 18% sea una reacción exagerada a menos que los ciclos de entrenamiento se ralenticen."
El artículo enmarca el algoritmo de compresión de Google como un destructor de la demanda, pero las matemáticas no respaldan el pánico. Si la compresión reduce las necesidades de memoria 6-8x, eso es una reducción del 75-83% en *un caso de uso* — la inferencia en modelos ya implementados. Pero el crecimiento de Micron provino de los clústeres de entrenamiento, no de la inferencia. El entrenamiento de LLM todavía requiere mucha memoria, y el algoritmo no aborda ese cuello de botella. Mientras tanto, la ganancia del 239% YTD de la acción y el aumento del 62% después de la publicación de las ganancias sugieren que el riesgo de compresión ya estaba parcialmente descontado para cuando Google anunció. La verdadera pregunta: ¿el menor costo de inferencia acelera el desarrollo de *nuevos* modelos y ciclos de entrenamiento lo suficiente como para compensar los ahorros de memoria de la inferencia? Se invoca la Paradoja de Jevons pero no se cuantifica.
Si el algoritmo de Google se convierte en un estándar de la industria en los próximos 12-18 meses, las cargas de trabajo de inferencia (que pueden representar del 40 al 60% de la demanda de memoria de IA implementada para 2027) colapsan, y los competidores compiten para convertir los precios de la memoria en una mercancía antes de que la demanda de entrenamiento se materialice por completo — el margen bruto del 74% de MU se comprime de nuevo hacia el 50%, borrando por completo el caso alcista.
"El mercado está valorando incorrectamente el impacto a largo plazo de la Paradoja de Jevons, donde el aumento de la eficiencia de la IA inevitablemente impulsa un mayor consumo agregado de memoria en todo el ecosistema."
La caída del 18% en Micron (MU) es una reacción exagerada clásica a las ganancias de eficiencia a nivel de software. Si bien los algoritmos de cuantificación de Google reducen teóricamente las huellas de memoria, la demanda de hardware en la IA está impulsada por la escala de los parámetros del modelo, no solo por la eficiencia. Estamos viendo un aumento del 196% en los ingresos y márgenes brutos del 74.4%, lo que sugiere que Micron tiene un poder de fijación de precios significativo en HBM (Memoria de Banda Ancha) que la compresión de software no erosionará de la noche a la mañana. El mercado está confundiendo 'eficiencia' con 'volumen reducido', ignorando que los modelos de IA más baratos y eficientes probablemente conducirán a una proliferación masiva en la computación perimetral, lo que en última instancia aumentará el mercado total direccionable para los chips de memoria.
Si la cuantificación se convierte en el estándar de la industria, se romperá la "pared de la memoria", lo que reducirá significativamente la barrera de entrada para los modelos más pequeños y potencialmente convertirá en una mercancía el mercado de memoria de gama alta que actualmente domina Micron.
"El declive de la acción probablemente refleja una reevaluación del mercado sobre cómo la "escasez de memoria" impulsada por la IA se traduce en una intensidad de ingresos continua de MU, y el titular de la compresión de Google puede estar sobreponderado en comparación con los plazos de implementación del mundo real."
La caída del -18% de Micron se lee como "buenas noticias castigadas por el miedo a la IA", pero el problema subyacente es la durabilidad de la demanda: el artículo cita un documento de cuantificación/compresión de Google que podría reducir las necesidades de memoria en un ~83%, lo que podría presionar la intensidad de DRAM/NAND impulsada por la IA de MU. Sin embargo, el contraargumento más sólido es que este es un resultado de investigación algorítmica, no una implementación garantizada a corto plazo a gran escala, y la Paradoja de Jevons podría ayudar más adelante (un menor costo de inferencia puede impulsar el uso de la IA). Aún así, los precios de marzo probablemente reflejaron las expectativas de una escasez sostenida de memoria y poder de fijación de precios — el segundo trimestre podría haber sido una señal de pico o casi pico del ciclo.
El enfoque de Google podría ser intensivo en la implementación (codesign de hardware/software, compensaciones específicas del modelo, limitaciones de ancho de banda), por lo que las reducciones reales de memoria para las cargas de trabajo relevantes para MU podrían ser mucho menores o más lentas de lo que se implica, lo que hace que la venta sea exagerada.
"El avance de la compresión de Google amenaza el poder de fijación de precios de la memoria central de Micron y el crecimiento de la demanda más severamente de lo que sugiere la visión centrada en NAND del artículo."
La obliteración fiscal del segundo trimestre de Micron — $23.9 mil millones en ingresos (+196% YoY), $12.20 EPS ajustado (+682%), 74.4% de márgenes brutos — valida la manía de la memoria de la IA, pero el 18% de la caída de marzo no es una reacción exagerada. La cuantificación de Google reduce las necesidades de memoria de LLM en un 6x (reducción del 83%) con una pérdida de precisión cero, lo que afecta a DRAM/HBM (el impulsor del crecimiento de la IA de Micron) más que el enfoque de NAND del artículo (21% de los ingresos). La escasez de suministro que Mehrotra alardea se está desvaneciendo con el aumento del gasto de capital de la industria. ¿La Paradoja de Jevons? Especulativo en el mejor de los casos — la historia de los semiconductores muestra que la eficiencia erosiona el poder de fijación de precios. Después de un aumento del 239% en 2025 YTD, MU es vulnerable a una inflexión de la demanda.
Jevons podría encender una explosiva proliferación de IA en dispositivos perimetrales y empresas, hinchando la demanda total de memoria mucho más allá de los recortes por modelo. La guía explosiva prueba que las fuerzas estructurales están intactas.
"La expansión del volumen de las ganancias de eficiencia no compensa la compresión del margen por unidad si el ASP colapsa en un mercado de inferencia mercantilizado."
Grok confunde dos dinámicas separadas: la cuantificación que reduce la intensidad de la memoria *por modelo* versus la expansión del mercado total direccionable. Claude y Gemini insinúan esto pero no lo aterrizan. Si el algoritmo de Google reduce la memoria de inferencia en un 83%, pero al mismo tiempo permite 10 veces más puntos finales de inferencia (proliferación perimetral), la demanda total de DRAM aún podría crecer. La verdadera prueba: ¿el ASP de HBM de Micron (precio promedio de venta) se mantendrá si el volumen explota pero la memoria por unidad disminuye? La historia sugiere que no: el poder de fijación de precios se evapora más rápido de lo que crece el volumen.
"El cambio hacia modelos multimodales y el aumento de los requisitos de rendimiento sustentarán la demanda de HBM independientemente de las ganancias de cuantificación del lado de la inferencia."
Claude y Grok están perdiendo la intensidad de capital de la "pared de la memoria". Incluso si la cuantificación reduce la huella por modelo, la industria se está desplazando hacia modelos multimodales que requieren ventanas de contexto activo masivas, que la cuantificación tiene dificultades para comprimir. El ASP de Micron no se trata solo de la capacidad bruta; se trata del ancho de banda HBM3e/4. A medida que los modelos crecen en complejidad, el cuello de botella se desplaza de la capacidad al rendimiento. Micron está vendiendo la capacidad de la "autopista", no solo el tamaño de la "carga". La venta ignora esta evolución arquitectónica.
"La investigación de compresión no implica automáticamente la destrucción de la demanda de HBM relevante para MU a corto plazo; la clave es si las "horas de HBM por carga de trabajo" totales aumentan o disminuyen después de las limitaciones de implementación y el tiempo de adopción."
Me preocupa más el encuadre de "pérdida de precisión cero" y "memoria 6x" de Grok como si se tradujera rápidamente en la demanda de HBM relevante para MU. Incluso si un documento muestra una compresión teórica, las implementaciones reales enfrentan la alineación del hardware, las limitaciones de ancho de banda/latencia y los ciclos de recuantificación. Esa incertidumbre de tiempo es por qué la Paradoja de Jevons podría ayudar, pero no es un sustituto para probar si las horas de HBM por rack (capacidad × tiempo) disminuirán o no. Ese es el indicador que falta.
"La compresión reduce los módulos HBM por rack mientras que el aumento del suministro aplasta el poder de fijación de precios."
El giro de ancho de banda de Gemini ignora que la compresión 6x de Google reduce los módulos HBM totales por rack de servidor en un 40-60% (menos capas/nodos necesarios), incluso para modelos multimodales — la demanda de ancho de banda se escala de forma sublineal a los recortes de capacidad. Combine esto con los aumentos de capacidad de HBM del 50% o más de Samsung/SK Hynix en 2025 (según las llamadas del primer trimestre), y los márgenes del 74% de MU enfrentan una erosión del ASP doblemente disparada que nadie ha cuantificado.
Veredicto del panel
Sin consensoEl panel está dividido sobre el impacto del algoritmo de compresión de Google en las acciones de Micron. Si bien algunos argumentan que las ganancias de eficiencia del algoritmo podrían conducir a una mayor demanda de chips de memoria debido a la proliferación de la computación perimetral, otros temen que la reducción de las necesidades de memoria por modelo pueda erosionar el poder de fijación de precios de Micron y conducir a una disminución de la demanda de sus productos.
Mayor demanda de chips de memoria debido a la proliferación de la computación perimetral.
Erosión del poder de fijación de precios de Micron debido a la reducción de las necesidades de memoria por modelo.