Todos conocemos la memoria RAM de nuestro ordenador, pero hay un concepto igual de importante, la VRAM de una tarjeta gráfica. Vamos a repasar qué es, cómo funciona, qué tipos hay y por qué es importante.
Índice de contenidos
VRAM son las siglas de Video RAM, es decir, Video Random Access Memory. El nombre ya nos deja bastante claro que tendrá un funcionamiento parecido a la RAM principal de nuestro ordenador, pero su uso es muy distinto.
Una de las características más importantes de la VRAM de una tarjeta gráfica es que es de tipo dual-ported. Esto significa que los chips de memoria pueden admitir que se le hagan lecturas y escrituras al mismo tiempo, mientras que en la RAM principal solo permiten un tipo de acceso simultáneo.
Para que os hagáis una idea, esto es lo que permite que el framebuffer de la VRAM, de donde se indica cómo debe ser cada uno de los píxeles que saldrán por la pantalla, sea leído para sacar la imagen por el monitor a la vez que se actualiza otro framebuffer con los datos del siguiente fotograma. Si la VRAM no fuese dual-ported, habría que esperar a que se imprimiese cada fotograma para empezar a generar el siguiente.
A lo largo del artículo seguiremos viendo diferencias entre las RAM y VRAM, particularmente en las DDR usadas en las primeras y GDDR usadas en las segundas.
Por ejemplo, pensad en una compañía que usa varias GPU de máximo rendimiento para procesar a la vez toda la información de sus millones de clientes, aplicándoles algún algoritmo de inteligencia artificial. El Big Data, en definitiva, es una de las mayores aplicaciones de las GPU profesionales y requiere una inmensa cantidad de datos.
Las memorias VRAM más usadas en la actualidad son las de tipo GDDR, esto es, Graphics DDR o Graphics Double Data Rate. Aquí, ocurre algo parecido con la distinción entre RAM y VRAM, pues son memorias similares a las DDR que encontramos en la RAM principal de un ordenador, pero con modificaciones importantes que le dan un ámbito de uso totalmente distinto.
En la actualidad, las últimas tarjetas gráficas lanzadas han estado usando memorias GDDR6, que vienen a aumentar aún más su frecuencia efectiva respecto a GDDR5 (con un máximo de 8 Gbps) o GDDR5X (donde pudimos llegar a ver modelos de 11 Gbps). Ahora, GDDR6 llega a frecuencias de 14Gbps, que en su variante GDDR6X (usada únicamente en las nuevas gráficas de NVIDIA, por ahora) llega a los 19.5 Gbps de frecuencia.
Pongamos tres ideas en común: las frecuencias efectivas de unas memorias GDDR6 son muy superiores a DDR4, su ancho de banda también es mucho mayor, y las CPU dependen cada vez más de la velocidad de la RAM. Entonces, ¿por qué no se están usando memorias de tipo GDDR6 o similar en los procesadores?
La verdad es que, precisamente, las memorias GDDR nacieron para enfocarse en las necesidades que tienen las tarjetas gráficas, y no estar limitados a lo que necesita una CPU. Y es que las velocidades de las memorias GDDR se consiguen a expensas de un gran aumento en la latencia. Es decir, que el retardo que ocurre entre que se pide un dato y se empieza a transferir es mayor, pero una vez empieza la transferencia esta es mucho más rápida. Esto es lo deseable en una GPU, donde tenemos grandes texturas que transferir, pero la naturaleza de funcionamiento de una CPU hace mucho más común que se transfiera una gran cantidad de datos muy pequeños, lo que le da gran importancia a la latencia.
Si vamos todavía más allá, recordemos que actualmente los controladores de memoria de las CPU están bastante limitados para conseguir funcionar con altas frecuencias, así que ya no solo estaremos limitados por la distancia física entre el chip de la CPU y las memorias, sino que su propio IMC (Integrated Memory Controller) estará ampliamente limitado.
En resumen, hay una innumerable cantidad de motivos por los que no veremos una VRAM GDDR6 como RAM principal de un ordenador…
Ahora vamos a ver otro tipo de memorias que nos da muchísimo juego por toda la historia que hay al respecto, HBM.
El nacimiento de HBM se produjo básicamente por la gran necesidad de mejorar el ancho de banda de las memorias de las tarjetas gráficas, pero sin aumentar su consumo energético en exceso. En el momento de su desarrollo imperaba GDDR5, y la mejora de su ancho de banda implicaba un aumento desproporcionado en el consumo.
Hasta ahora todo parece muy bonito sobre HBM, ¿no? Pues, desgraciadamente, esta tecnología tiene una serie de limitaciones importantes que han hecho que no haya tenido éxito en el mercado de las GPU domésticas. Tanto AMD como NVIDIA las siguen usando en modelos profesionales donde el ancho de banda de memorias es aún más fundamental, pero la primera abandonó este tipo de memorias con sus primeras gráficas Navi (RX 5000) lanzadas en 2019, después del poco éxito de Vega. NVIDIA no llegó a lanzar ninguna gráfica de consumidor con memorias HBM.
El gran problema de HBM ha estado siempre en su inmenso coste de fabricación. Si citamos un análisis al respecto de GamersNexus, la misma capacidad de HBM2 costaba básicamente el triple que GDDR5 hace unos 3 años. El coste de los propios chips apilados y del interceptor se dispara, provocando que la VRAM represente la mayor parte del coste de fabricación de la gráfica. Si a esto le sumamos la mayor posibilidad de tener un chip defectuoso (con las gráficas Vega de referencia se regalaba uno para coleccionarlo) entonces tenemos la clara conclusión de que los márgenes de beneficio de AMD sangraban con HBM2.
Todo depende también de la dependencia de la velocidad de memorias que tenga cada arquitectura gráfica. Vega fue un buen ejemplo de ello, pues overclockear la memoria era simplemente más provechoso que hacérselo al núcleo en sí.
En el artículo hemos hablado en todo momento sobre tarjetas gráficas dedicadas, pero… ¿qué ocurre en el caso de los gráficos integrados de las CPU? En este caso, habrá básicamente dos implementaciones posibles:
Este segundo caso es sin duda el más común, y por el que apuestan casi todas las CPUs con gráficos integrados de Intel y APU de AMD. En particular, estas últimas reservan una cantidad de memoria concreta para la gráfica integrada, por ejemplo en un procesador Ryzen 2400G tendremos 2GB reservados para la gráfica por defecto, aunque lo podemos cambiar en la BIOS.
Destacar que este tipo de procesadores son una buena demostración de la importancia de la VRAM, pues aún con la relativamente baja potencia de estas gráficas se pueden observar grandes incrementos de rendimiento si mejoramos las frecuencias de la RAM.
Esperamos que este artículo te haya ayudado a conocer mejor la importancia de la VRAM en una tarjeta gráfica. ¡Gracias por leernos!
Llegan a nuestras manos dos monstruos como son el AMD Ryzen Threadripper 7980X que analizaremos…
Cooler Master nos presenta su nueva caja para PC de alto rendimiento MasterBox 600. Se…
La consola portátil ASUS ROG Ally obtiene soporte oficial para la tecnología AMD Fluid Motion…