Notebookcheck Logo

Samsung envía la memoria de IA más cara que Nvidia haya pedido nunca, ya que la HBM4 supera las especificaciones clave

Samsung inicia los envíos de memoria HBM4.
ⓘ Samsung
Samsung inicia los envíos de memoria HBM4.
Las pilas HBM4 de nueva generación superan las especificaciones de JEDEC y Nvidia con velocidades de hasta 13 Gbps y un ancho de banda de 3,3 TB/s, a la vez que ofrecen una mayor eficiencia energética, mejoras térmicas y hasta 36 GB de capacidad por pila de 12 capas. No obstante, se trata de la memoria más cara que Nvidia ha encargado nunca para las tarjetas del centro de datos de IA.

Samsung ha anunciado los primeros envíos comerciales de una memoria HBM4 de nueva generación para aplicaciones como las GPU de Nvidia y los respectivos centros de datos de IA.

Según los informes, Nvidia y otros clientes están pagando cerca de 500 dólares por unidad a Samsung, el doble de lo que pagaban por la anterior generación de memoria de gran ancho de banda HBM3E. Como consecuencia, las acciones de Samsung están en máximos históricos, y su dirección espera otro año de éxitos de taquilla aprovechando la escasez general de memoria escasez.

Especificaciones de la memoria HBM4 de Samsung

Mientras que los fabricantes de memorias cobran actualmente un ojo de la cara por cualquier unidad que produzcan, Samsung afirma que su nueva memoria HBM4 AI ha conseguido superar tanto la norma del Consejo Conjunto de Ingeniería de Dispositivos Electrónicos (JEDEC) como los requisitos de Nvidia.

La velocidad de funcionamiento de la HBM4 puede alcanzar la friolera de 13 Gbps, es decir, un 46% más que los requisitos del JEDEC, y su ancho de banda total de memoria es de hasta 3,3 TB/s por pila, superando con creces los 3 TB/s que piden clientes como Nvidia.

Samsung ha logrado este rendimiento vertiginoso aplicando de forma preventiva el proceso DRAM 1c de sexta generación de 10 nm con la matriz base fabricada a 4 nm, frente a la DRAM 1a de 14 nm que utilizó para la predecesora HBM3. Esto da a la generación de memoria HBM4 AI mucho margen para mejoras en el proceso y el rendimiento. Para gestionar todo el calor generado, Samsung diseñó el troquel base y la transmisión de datos con tecnologías de bajo consumo y bajo voltaje para conseguir una disipación del calor un 30% mejor y una eficiencia energética un 40% mayor en comparación con la generación de memoria HBM3 que Nvidia utiliza actualmente en sus tarjetas gráficas de IA de la serie Blackwell.

Por ahora, Samsung puede enviar a los clientes un máximo de 36 GB de capacidad de memoria HBM4 mediante un apilamiento de 12 capas, pero también puede elaborar un apilamiento de 16 capas para un total de 48 GB cuando Nvidia esté lista con el diseño de la GPU y el poder adquisitivo respectivos. Samsung promete una cantidad suficiente de los caros chips HBM4, afirmando que"continuará asegurando una capacidad de suministro estable para satisfacer la creciente demanda a medio y largo plazo, en particular de la IA y los centros de datos" cuando empiece a muestrear su memoria HBM4E de próxima generación en la segunda mitad de 2026.

Consiga el kit de memoria Crucial DDR5 de 64 GB para portátiles en Amazon

El chip de memoria HBM4 AI de Samsung.
ⓘ Samsung
El chip de memoria HBM4 AI de Samsung.

Fuente(s)

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2026 02 > Samsung envía la memoria de IA más cara que Nvidia haya pedido nunca, ya que la HBM4 supera las especificaciones clave
Daniel Zlatev, 2026-02-12 (Update: 2026-02-13)