JEDEC hizo modificaciones a las futuras memorias HBM4, que van a ser utilizadas por las próximas aceleradoras de IA en los próximos años.
A petición de los fabricantes, JEDEC ha reducido el grosor de los módulos de memoria HBM4, además de permitir pilas de 16 Hi. Esto fue informado por el medio ZDNet Korea, que dijo que JEDEC redujo el grosor del paquete de HBM4 a 775 micrómetros para las pilas de 12 y 16 capas.
La reducción del espesor de las memorias HBM4 va a facilitar su fabricación e implementación a fabricantes importantes como Samsung, SK Hynix y Micron, que van a ser los tres fabricantes más importantes de este tipo de memorias HBM.
Te recomendamos nuestra guía sobre las mejores memorias RAM del mercado
Las memorias HBM4 van a requerir unas uniones o enlaces híbridos, ya que utiliza unión directa con el chip y la oblea integrados, con el fin de reducir el grosor del paquete.
La idea de los fabricantes como SK Hynix es que fabrique estas memorias en masa durante el año 2026, con unas capacidades de hasta 36 GB por pila.
Los módulos de memorias HBM4 tienen la promesa de revolucionar el mercado de la inteligencia artificial y en tareas HPC. Nvidia, AMD e Intel serán los principales protagonistas que sus GPUs y APUs preparados para la inteligencia artificial que los van a implementar, aumentando las velocidades y ancho de banda por sobre HBM3. Os mantendremos al tanto de todas las novedades.
El precio de la NVIDIA RTX 5080 no te va a gustar, pero su rendimiento…
Samsung está en plan de poder alcanzar las 1000 capas V-NAND para sus futuros productos…
Intel presenta una tecnología similar al “Thermal Throttling” para los próximos estándares PCIe 6.0 y…