NoticiasTarjetas gráficas

El precio de la VRAM cuesta 5 veces más: Las tarjetas gráficas volverán a subir

Debido al incremento de la demanda de GPUs, y no precisamente para el consumo, sino para las aplicaciones de inteligencia artificial que se han visto impulsadas por el tirón de ChatGPT, algunos de sus componentes se han encarecido, como es el caso de los chips de memoria VRAM, que han llegado a disparar su precio hasta por 5. Y esto también tendrá un impacto en los precios de las tarjetas gráficas para consumidores…

Quizás también te interese:

Las tarjetas gráficas se han convertido nuevamente en un artículo de lujo, la VRAM se dispara

GPU NVIDIA A100, VRAM

Las GPUs han vuelto a estar en el punto de mira. Esta vez no por la minería de criptomonedas, que se ha hundido para no volver, por lo que parece. Esta vez son las aplicaciones de inteligencia artificial las que están incrementando la demanda de estas tarjetas gráficas para aplicaciones como ChatGPT.

Esta fuerte demanda en el sector empresarial, que no tiene en el sector de consumo, ha hecho que los chips de memoria VRAM incrementen sus precios considerablemente. Los principales fabricantes de esta memoria, como Samsung, SK-Hynix y Micron, han aumentado la cotización de sus chips de VRAM. En el caso de la HBM3 se ha disparado x5. Y eso que la memoria HBM ya era hasta tres veces más costosa que la convencional.

Por supuesto, Samsung también tiene soluciones como el chip HBM-PIM (Aquabolt-XL), que puede proporcionar una potencia de computación de 1,2 T. Mientras que SK-Hynix desarrolló GDDR6-AiM con funciones computacionales el año pasado.

Y, pese a la lenta demanda de la DRAM para las GPUs de consumo, estas otras VRAM están en lo más alto de ventas por la IA. Existe otra gran preocupación en este sentido, y es que  dado el crecimiento exponencial que está teniendo la IA, se podría producir otra escasez de chips GPU pronto. Y es que crear y mantener las enormes máquinas que sostienen tecnologías como ChatGPT necesita de muchas unidades, con sus correspondientes chips VRAM…

SK Hynix VRAM

Por ejemplo, para el desarrollo de ChatGPT se emplearon 10.000 GPUs NVIDIA. En la actualidad, para satisfacer las necesidades del servidor actual, OpenAI, el desarrollador de ChatGPT, ha utilizado unas 25.000 GPUs Nvidia, y se espera que aumente en el futuro a medida que aumente la demanda de este servicio.

Por cada 100 millones de usuarios activos, ChatGPT necesita 13,5 EPLOPS de potencia informática, que es compatible con unos 69.000 servidores NVIDIA DGX A100 80G, y la potencia informática global actual solo puede soportar 100 millones de usuarios promedio diarios en línea.

Te recomiendo la lectura de nuestra guía sobre qué tarjeta gráfica me compro.

Algunos profesionales estiman que si Google Search integra por completo la tecnología de IA de la plataforma Bard, como ha hecho Bing de Microsoft con su chat de IA, se necesitará 512.820 servidores A100 HGX, lo que requerirá más de 4,1 millones de GPUs A100, y muchos más chips de VRAM, ya que cada GPU está acompañada de varios chips VRAM…

Fuente
MyDrivers

Isaac

Geek de los sistemas electrónicos, especialmente del hardware informático. Con alma de escritor y pasión por compartir todo el conocimiento sobre tecnología.
Los datos de carácter personal que nos facilite mediante este formulario quedarán registrados en un fichero de Miguel Ángel Navas Carrera, con la finalidad de gestionar los comentarios que realizas en este blog. La legitimación se realiza a través del consentimiento del interesado. Si no se acepta no podrás comentar en este blog. Puedes consultar Política de privacidad. Puede ejercitar los derechos de acceso, rectificación, cancelación y oposición en [email protected]
Botón volver arriba