Eugenio Mymrin | Momento | Imágenes falsas
Todos los dispositivos informáticos requieren una parte llamada memoria, o RAM, para el almacenamiento de datos a corto plazo, pero este año no habrá suficientes componentes esenciales para satisfacer la demanda mundial.
Esto se debe a que a las empresas les gusta NVIDIA, Microdispositivos avanzados y Google Necesitan tanta RAM para sus chips de inteligencia synthetic, y esas empresas son las primeras en recibir los componentes.
Tres proveedores de memoria principales: MicrónSK Hynix y Samsung Electronics constituyen casi todo el mercado de RAM y sus negocios se están beneficiando del aumento de la demanda.
“Hemos visto un aumento muy fuerte y significativo en la demanda de memoria, y ha superado con creces nuestra capacidad de suministrar esa memoria y, en nuestra estimación, la capacidad de suministro de toda la industria de la memoria”, dijo el jefe de negocios de Micron, Sumit Sadana, a CNBC esta semana en la feria comercial CES en Las Vegas.
Las acciones de Micron subieron un 247% durante el año pasado y la compañía informó que los ingresos netos casi se triplicaron en el trimestre más reciente. Samsung dijo esta semana que espera que sus ganancias operativas del trimestre de diciembre también casi se tripliquen. Mientras tanto, SK Hynix está considerando cotizar en bolsa en Estados Unidos a medida que aumenta el precio de sus acciones en Corea del Sur, y en octubre, la compañía dijo que había asegurado la demanda. para toda su capacidad de producción de RAM en 2026.
Ahora, los precios de la memoria están subiendo.
TrendForce, un investigador con sede en Taipei que cubre de cerca el mercado de la memoria, dijo esta semana que espera que los precios promedio de la memoria DRAM aumenten entre un 50% y un 55% este trimestre en comparación con el cuarto trimestre de 2025. El analista de TrendForce, Tom Hsu, dijo a CNBC que ese tipo de aumento en los precios de la memoria no tenía precedentes.
Base de tres a uno
Los fabricantes de chips como Nvidia rodean la parte del chip que realiza el cálculo (la unidad de procesamiento de gráficos o GPU) con varios bloques de un componente rápido y especializado llamado memoria de alto ancho de banda o HBM, dijo Sadana. HBM suele ser seen cuando los fabricantes de chips presentan sus nuevos chips. Micron suministra memoria tanto a Nvidia como a AMD, los dos principales fabricantes de GPU.
La GPU Rubin de Nvidia, que recientemente entró en producción, viene con hasta 288 gigabytes de memoria HBM4 de próxima generación por chip. HBM está instalado en ocho bloques visibles encima y debajo del procesador, y esa GPU se venderá como parte de un bastidor de servidor único llamado NVL72, que combina adecuadamente 72 de esas GPU en un solo sistema. En comparación, los teléfonos inteligentes suelen venir con 8 o 12 GB de memoria DDR de menor potencia.
El fundador y director ejecutivo de Nvidia, Jensen Huang, presenta la GPU Rubin y la CPU Vera mientras habla durante Nvidia Stay en CES 2026 antes del Client Electronics Present anual en Las Vegas, Nevada, el 5 de enero de 2026.
Patricio T. Fallon | AFP | Imágenes falsas
Pero la memoria HBM que necesitan los chips de IA es mucho más exigente que la RAM utilizada por los portátiles y teléfonos inteligentes de los consumidores. HBM está diseñado para las especificaciones de gran ancho de banda requeridas por los chips de IA y se produce en un proceso complicado en el que Micron apila de 12 a 16 capas de memoria en un solo chip, convirtiéndolo en un “cubo”.
Cuando Micron fabrica un bit de memoria HBM, tiene que renunciar a fabricar tres bits de memoria más convencional para otros dispositivos.
“A medida que aumentamos el suministro de HBM, queda menos memoria para la porción del mercado que no es de HBM, debido a esta base de tres a uno”, dijo Sadana.
Hsu, el analista de TrendForce, dijo que los fabricantes de memorias están favoreciendo las aplicaciones de servidor y HBM sobre otros clientes porque hay un mayor potencial de crecimiento en la demanda en ese negocio y los proveedores de servicios en la nube son menos sensibles a los precios.
En diciembre, Micron dijo que descontinuar una parte de su negocio que tenía como objetivo proporcionar memoria a los fabricantes de PC de consumo para que la empresa pudiera ahorrar suministro de chips y servidores de IA.
Algunos dentro de la industria tecnológica se maravillan de cuánto y con qué rapidez ha aumentado el precio de la RAM para los consumidores.
Dean Beeler, cofundador y jefe tecnológico de Juice Labs, dijo que hace unos meses cargó su computadora con 256 GB de RAM, la cantidad máxima que admiten las placas base de consumo actuales. Eso le costó unos 300 dólares en ese momento.
“Quién diría que terminaría siendo ~$3,000 de RAM sólo unos meses después”, publicó en Facebook el lunes.
‘Muro de la memoria’
Los investigadores de IA empezaron a ver la memoria como un cuello de botella justo antes ChatGPT de OpenAI llegó al mercado a finales de 2022, dijo el cofundador de Majestic Labs, Sha Rabii, un emprendedor que anteriormente trabajó en silicio en Google y Meta.
Los sistemas de IA anteriores se diseñaron para modelos como redes neuronales convolucionales, que requieren menos memoria que los modelos de lenguajes grandes, o LLM, que son populares hoy en día, dijo Rabii.
Si bien los propios chips de IA se han vuelto mucho más rápidos, la memoria no, dijo, lo que lleva a potentes GPU esperando obtener los datos necesarios para ejecutar LLM.
“Su rendimiento está limitado por la cantidad de memoria y la velocidad de la memoria que tiene, y si sigue agregando más GPU, no es una victoria”, dijo Rabii.
La industria de la IA se refiere a esto como el “muro de la memoria”.
Erik Isakson | Visión digital | Imágenes falsas
“El procesador pasa más tiempo esperando datos”, dijo Sadana de Micron.
Una memoria más rápida significa que los sistemas de inteligencia artificial pueden ejecutar modelos más grandes, atender a más clientes simultáneamente y agregar “ventanas contextuales” que permiten a los chatbots y otros LLM recordar conversaciones previas con los usuarios, lo que agrega un toque de personalización a la experiencia.
Majestic Labs está diseñando un sistema de inteligencia artificial para inferencia con 128 terabytes de memoria, o alrededor de 100 veces más memoria que algunos sistemas de inteligencia artificial actuales, dijo Rabii, y agregó que la compañía planea evitar la memoria HBM en favor de opciones de menor costo. Rabii dijo que la RAM adicional y el soporte de arquitectura en el diseño permitirán que sus computadoras admitan significativamente más usuarios al mismo tiempo que otros servidores de IA y utilicen menos energía.
Agotado para 2026
Wall Street ha estado preguntando a las empresas del negocio de la electrónica de consumo, como Manzana y Tecnologías Dellcómo manejarán la escasez de memoria y si podrían verse obligados a subir los precios o recortar los márgenes. Hoy en día, la memoria representa alrededor del 20% de los costos de hardware de una computadora portátil, dijo Hsu. Eso representa un aumento de entre el 10% y el 18% en el primer semestre de 2025.
En octubre, el jefe de finanzas de Apple, Kevan Parekh, dijo a los analistas que su compañía estaba viendo un “ligero viento de cola” en los precios de las memorias, pero lo minimizó diciendo que “realmente no hay nada que destacar”.
Pero en noviembre, Dell dijo que esperaba que su base de costos para todos sus productos aumentara como resultado de la escasez de memoria. El director de operaciones, Jefferey Clarke, dijo a los analistas que Dell planeaba cambiar su combinación de configuraciones para minimizar el impacto en los precios, pero dijo que la escasez probablemente afectará los precios minoristas de los dispositivos.
“No veo cómo esto no llegará a la base de clientes”, dijo Clarke. “Haremos todo lo posible para mitigar eso”.
Incluso Nvidia, que se ha convertido en el mayor cliente en el mercado de HBM, enfrenta preguntas sobre sus voraces necesidades de memoria, en particular, sobre sus productos de consumo.
En una conferencia de prensa el martes en CES, se le preguntó al director ejecutivo de Nvidia, Jensen Huang, si le preocupaba que los clientes de juegos de la compañía pudieran estar resentidos con la tecnología de inteligencia artificial debido al aumento de los precios de las consolas de juegos y las tarjetas gráficas impulsado por la escasez de memoria.
Huang dijo que Nvidia es un gran cliente de memoria y tiene largas relaciones con las empresas del sector, pero que, en última instancia, sería necesario que haya más fábricas de memoria porque las necesidades de IA son muy altas.
“Debido a que nuestra demanda es tan alta, cada fábrica, cada proveedor de HBM, se está preparando y a todos les está yendo muy bien”, afirmó Huang.
Como máximo, Micron sólo puede satisfacer dos tercios de los requisitos de memoria a mediano plazo de algunos clientes, dijo Sadana. Pero la compañía actualmente está construyendo dos grandes fábricas llamadas fabs en Boise, Idaho, que comenzarán a producir memoria en 2027 y 2028, dijo. Micron también iniciará la construcción de una fábrica en la ciudad de Clay, Nueva York, que, según dijo, se espera que entre en funcionamiento en 2030.
Pero por ahora, “estamos agotados para 2026”, dijo Sadana.











