Tutoriales

El futuro de los gráficos computacionales

Desde los primeros gráficos computacionales que aparecieron en la historia, con imágenes 2D bastante pixeladas y con una calidad primitiva, hasta los realistas renders y videojuegos actuales con gráficos 3D y todo tipo de efectos visuales, el mundo de los gráficos ha evolucionado mucho. Por supuesto, parte de la culpa de esta evolución la tienen las nuevas tarjetas gráficas, que son realmente sorprendentes en cuanto a rendimiento. Pero ¿qué podemos esperar del futuro de los gráficos?

Motores gráficos de nueva generación

Los motores gráficos de nueva generación, junto con las nuevas versiones de las APIs gráficas, especialmente la prometedora Vulkan, traerán importantes mejoras en los gráficos del futuro. Un ejemplo de esto es el nuevo motor gráfico Unreal Engine 5. Esta versión está impulsando gráficos realistas en los videojuegos mediante avances como el sistema de geometría Nanite y mejoras de renderizado. Ejemplificado por Crysis, la creciente cantidad de polígonos y texturas exige mayores recursos de VRAM y poder de GPU.

Las APIs gráficas y monitores de alta resolución, como 4K y 8K, presentan desafíos adicionales.

Aunque los juegos 4K no son la norma, motores como Unreal Engine 5 requieren más VRAM, haciendo que 12 GB sean el nuevo mínimo en lugar de 8 GB, y en el futuro esto seguirá subiendo. Las texturas y resoluciones en aumento son esenciales para la inmersión, especialmente en la realidad virtual. A medida que avanzamos, podríamos ver resoluciones como 16K. La iluminación también es crucial para el realismo, con sistemas en evolución constante, incluido el Ray Tracing, que se integra en las GPUs modernas para generar resultados impresionantes en los juegos.

También te puede interesar conocer cómo funciona una tarjeta gráfica

Títulos AAA mejores y más frecuentes

Por supuesto, los motores gráficos tienen IA para facilitar a los desarrolladores de videojuegos el uso de esta para los personajes no jugables, etc. Sin embargo, la IA estará cada vez más presente y en más campos. Por ejemplo, para ayudar a los creadores a conseguir videojuegos más rápidamente, impulsando así esta industria con más títulos y nuevas versiones lanzadas de forma más rápida.

La implementación de la IA está revolucionando el desarrollo de videojuegos al agilizar el proceso de creación. Actualmente, la creación de juegos AAA involucra a muchas personas durante varios años. La IA podría acelerar este proceso al ayudar en la modelación de personajes, optimización de código y generación de voces y animaciones faciales.

Ejemplos como NVIDIA y Remedy Entertainment demuestran cómo el aprendizaje automático puede generar movimientos de polígonos basados en el discurso, mejorando la experiencia y ampliando la base de jugadores. La investigación en campos como radiación neuronal también promete generar escenas 3D a partir de fotos y acelerar la creación de texturas realistas. Aunque estos avances podrían tardar al menos 10 años para ser accesibles a través de GPUs más potentes, la historia del progreso tecnológico sugiere que lo que parece inalcanzable en un momento puede volverse realidad en el futuro.

Ray Tracing mejorado

Los gráficos 3D realistas requieren trucos y cálculos complejos de física para simular la iluminación en los juegos. El Ray Tracing, adoptado por AMD, NVIDIA e Intel, mejora la iluminación con algoritmos avanzados, aunque aún impacta el rendimiento en términos de FPS. A medida que las GPU evolucionan, se espera que el Ray Tracing se vuelva omnipresente, al igual que el mapeo de texturas.

Juegos como Cyberpunk 2077 y títulos en motores como Unity 3D o Unreal Engine muestran mejoras notables con Ray Tracing. Las próximas generaciones de GPUs podrían permitir el Ray Tracing como predeterminado, gracias a mejoras en la memoria caché y ancho de banda. Además, los núcleos Tensor y la IA también puede mejorar mucho el rendimiento y la calidad del trazado de rayos, prueba de ello es DLSS 3.5 con Ray Reconstruction.

Las mejoras en pantallas, como OLED, también beneficiarán el Ray Tracing. Se espera que avances significativos en Ray Tracing ocurran en unos 5 años, impactando juegos, software de renderizado y películas de animación. Actualmente, el Ray Tracing es exclusivo de tarjetas de gama media-alta, mientras que las GPUs de gama baja deben ajustar configuraciones o desactivarlo. La adopción generalizada del Ray Tracing podría estar a años de distancia, similar a la evolución de tecnologías pasadas como el mapeo normal y el teselado.

Mayores resoluciones ¿sin escalado?

Cuando NVIDIA introdujo la arquitectura Turing en 2018 con soporte de Ray Tracing, también incorporó núcleos Tensor para cálculos de baja precisión utilizados en aprendizaje automático. Estos núcleos permitieron innovaciones como el DLSS, un sistema de mejora del rendimiento y la calidad de imagen. AMD y Intel también siguieron con tecnologías similares, como FSR y XeSS.

Estas tecnologías aprovechan algoritmos de IA para procesar los frames a baja resolución y luego escalarlos para obtener calidad óptima con menos carga en la GPU. Con mejoras continuas en los núcleos tensoriales y el rendimiento de las GPUs chiplets del futuro, se espera que las GPUs generen imágenes casi idénticas a la nativa con menor impacto en el rendimiento. Eventualmente, cuando las GPUs sean lo suficientemente potentes, estas tecnologías podrían volverse obsoletas y pasar de moda. Aunque, con la introducción 8K y 16K a medio plazo, lo que se podría esperar es que la resolución a la que renderizan sea superior a 1080p, mejorando la calidad final.

Más realismo gracias a la IA

La IA también desempeña un papel crucial en aumentar el realismo en los videojuegos, pero la IA podría ir más allá de los gráficos. En futuras generaciones de tarjetas gráficas, núcleos tensoriales podrían acelerar la IA en juegos, permitiendo personajes más realistas con respuestas y comportamientos más auténticos. La IA podría llevar a enemigos más inteligentes y adaptables, desafiando a los jugadores de manera única. Los videojuegos con finales abiertos o cambios basados en elecciones podrían volverse más ricos e impredecibles, brindando una experiencia más realista. Ejemplos como OpenAI entrenando IA para jugar a juegos como Dota 2 demuestran el potencial.

Imagina personajes que aprenden y se vuelven más inteligentes, lo que podría generar niveles de desafío variables en función de la intensidad del entrenamiento neural. Esta evolución podría llevar a diferentes niveles de «IA bot» para diversificar la dificultad de los juegos del futuro, o con capacidad para crear casi una historia diferente cada vez que juegues…

Mejoras en la arquitectura de la GPU

Por supuesto, la evolución de la tecnología de hardware aceleración 3D (GPU) experimentará notables cambios desde la actualidad hasta el futuro. A lo largo de los años, hemos sido testigos de una transformación que se ha movido desde los gráficos procesados por la CPU hasta los primeros aceleradores gráficos, y finalmente a las actuales tarjetas gráficas que conocemos. Estos cambios han implicado la maduración de la tecnología en diversos aspectos.

Hasta hace poco, las posibilidades para los investigadores eran limitadas en términos de poner a prueba sus modelos y teorías. Sin embargo, en las últimas iteraciones de las GPUs, han surgido cambios significativos que van más allá de la simple incorporación de nuevas tecnologías o mejoras en aspectos como el nodo de fabricación del chip o la capacidad de memoria. Un ejemplo notorio es la incorporación de los núcleos tensoriales o Tensor, los cuales han ganado un papel protagónico en la arquitectura.

En los próximos años, la arquitectura de las GPUs continuará mejorando y transformándose para superar los estándares actuales de rendimiento y calidad gráfica. Esto se debe a la necesidad de mantenerse al ritmo de los avances en software más pesado, como los videojuegos. Consecuentemente, las futuras tarjetas gráficas para PC se asemejarán más a las soluciones actualmente presentes en entornos de alto rendimiento (HPC) o centros de datos, como las AMD Instinct y las NVIDIA A/H-Series.

Es probable que veamos la introducción de nuevas unidades computacionales en un futuro cercano. Estas unidades, al igual que los núcleos Tensor y los núcleos RT dedicados, así como los motores para codificación/decodificación AV1, estarán diseñadas con el propósito de mejorar el rendimiento y la fidelidad visual en los gráficos.

Computación difusa y GPUs cuánticas: un futuro más lejano

Antes de concluir, es importante señalar que el hardware actual es un factor limitante para la inteligencia artificial (IA), por lo tanto, en el corto plazo, la prioridad radica en mejorar este hardware basado en los paradigmas computacionales actuales. Sin embargo, en un futuro distante, surge la pregunta sobre cómo podrían influir la computación difusa y la computación cuántica en el campo de los gráficos, aunque esta última se encuentra todavía muy lejana en el horizonte temporal.

La computación difusa, también llamada lógica difusa o lógica borrosa, representa una vertiente de la inteligencia artificial enfocada en abordar la incertidumbre y la imprecisión en sistemas de toma de decisiones. A diferencia de la lógica binaria convencional, que emplea valores booleanos como verdadero o falso, la computación difusa permite manejar información imprecisa mediante la utilización de valores borrosos o difusos.

En el corazón de la computación difusa se encuentra la noción de conjuntos difusos, los cuales incorporan un grado de pertenencia que varía de manera continua entre 0 y 1. En lugar de asignar valores binarios de pertenencia, como 0 o 1, a los elementos de un conjunto, la computación difusa posibilita asignar grados de pertenencia parciales. Esta capacidad resulta especialmente útil cuando se trata de conceptos ambiguos o inciertos que no pueden definirse de forma precisa.

La inferencia difusa constituye la herramienta fundamental en la computación difusa, encargada de tomar decisiones con base en reglas difusas. Estas reglas describen relaciones entre conjuntos difusos y se emplean para deducir conclusiones borrosas a partir de la información de entrada. Tal enfoque es aplicable en ámbitos como la toma de decisiones o el control, brindando la capacidad de modelar y resolver problemas donde la imprecisión, la incertidumbre y los conceptos vagos desempeñan un papel primordial.

No olvides comentar con dudas o sugerencias…

Recent Posts

  • Procesadores

Intel culpa a los fabricantes de placas base de los problemas de estabilidad de sus CPUs

Intel publicó un comunicado refiriéndose a los problemas de estabilidad de sus procesadores Intel Core,…

41 mins atrás
  • Tutoriales

¿Qué es la página #?

Es casi improbable que no hayas visto alguna vez la página # en tu navegador…

15 horas atrás
  • Tutoriales

Conoce la opción USB-FDD de tu BIOS, todavía sigue siendo importante

Seguro que al ver este término USB FDD, como en los items u opciones que…

16 horas atrás