Tutoriales

Qué es la rasterización y cual es su diferencia con el Ray Tracing

Tras la inminente salida de las nuevas tarjetas gráficas Nvidia RTX. Hemos querido elaborar un artículo sobre qué es la rasterización y cual es su diferencia con el Ray Tracing. ¿Preparado para conocer todo lo que necesitas saber sobre esta tecnología? ¡Comenzamos!

Qué es la rasterización y diferencias Ray Tracing

Los gráficos de PC en tiempo real han utilizado durante mucho tiempo una técnica llamada “rasterización” para mostrar objetos tridimensionales en una pantalla bidimensional. Es una técnica rápida y los resultados se han vuelto muy buenos a lo largo de los últimos años, aunque no es tan bueno como lo que puede hacer el trazado de rayos.

Con la técnica de la rasterización, los objetos que ves en la pantalla se crean a partir de una malla de triángulos virtuales, o polígonos, los cuales crean modelos tridimensionales de objetos. En esta malla virtual, las esquinas de cada triángulo, conocidas como vértices, se cruzan con los vértices de otros triángulos de diferentes tamaños y formas. Debido a esto, se asocia mucha información con cada vértice, incluida su posición en el espacio, así como información sobre el color, la textura y su “normal”, que se utiliza para determinar la forma en que se enfrenta la superficie de un objeto.

rasterización

Los ordenadores convierten luego los triángulos de los modelos 3D en píxeles, o puntos en una pantalla 2D. A cada píxel se le puede asignar un valor de color inicial a partir de los datos almacenados en los vértices del triángulo. El procesamiento de píxeles adicional o “sombreado”, que incluye cambiar el color del píxel en función de cómo las luces en la escena golpean el píxel, y la aplicación de una o más texturas al píxel, se combinan para generar el color final aplicado a un píxel.

Esto es una tarea computacionalmente intensiva, ya que puede haber millones de polígonos utilizados para todos los modelos de objetos en una escena, y aproximadamente 8 millones de píxeles en una pantalla 4K. A todo esto hay que sumar que cada imagen que se muestra en una pantalla suele actualizarse de 30 a 90 veces por segundo. Además, los búferes de memoria, el espacio temporal reservado para acelerar las cosas, se utilizan para renderizar los fotogramas por adelantado antes de que se muestren en la pantalla.

TE RECOMENDAMOS
Como borrar juegos y partidas guardadas en Nintendo Switch

También se usa una profundidad o “z-buffer” para almacenar información de profundidad de píxeles para asegurar que los objetos frontales en la ubicación x-y de la pantalla de un píxel se muestran en pantalla, y los objetos detrás del objeto más frontal permanecen ocultos. Esta es la razón por la cual los juegos de computadora modernos y gráficamente ricos se basan en poderosas GPUs, las cuales son capaces de hacer muchos millones de cálculos cada segundo.

El Ray Tracing funciona de una forma totalmente diferente. En el mundo real, los objetos 3D que vemos están iluminados por fuentes de luz, y los fotones que forman la luz pueden rebotar de un objeto a otro antes de llegar a los ojos del espectador. Además, la luz puede ser bloqueada por algunos objetos, creando sombras, o la luz puede reflejarse de un objeto a otro, como cuando vemos las imágenes de un objeto reflejadas en la superficie de otro. También tenemos las refracciones, que causan un cambio en la velocidad y la dirección de la luz a medida que pasa a través de objetos transparentes o semitransparentes, como vidrio o agua.

que es Nvidia RTX

El Ray Tracing reproduce esos efectos, se trata de una técnica que fue descrita por primera vez por Arthur Appel de IBM, en 1969. Esta técnica traza el camino de una luz que atraviesa cada píxel en una superficie de visualización 2D y lo convierte en un modelo 3D de la escena. El próximo avance importante se produjo una década después en un documento de 1979 titulado “Un modelo de iluminación mejorado para pantalla sombreada”, Turner Whitted, ahora miembro de Nvidia Research, mostró cómo capturar la reflexión, las sombras y la refracción con la técnica del Ray Tracing.

Con la técnica de Whitted, cuando un rayo encuentra un objeto en la escena, el color y la información de iluminación en el punto de impacto en la superficie del objeto contribuyen al color del píxel y al nivel de iluminación. Si el rayo rebota o viaja a través de las superficies de diferentes objetos antes de llegar a la fuente de luz, el color y la información de iluminación de todos esos objetos pueden contribuir al color final del píxel.

TE RECOMENDAMOS
Final Fantasy XV para PC es cancelado junto con todas las funciones RTX

Otro par de documentos en la década de 1980 establecieron el resto de la base intelectual para la revolución de gráficos por computadora, que volcó la forma en que se hacen las películas. En 1984, Robert Cook, Thomas Porter y Loren Carpenter, de Lucasfilm, detallaron cómo el Ray Tracing podría incorporar varias técnicas cinematográficas comunes como el desenfoque de movimiento, la profundidad de campo, penumbras, translucidez y reflejos borrosos que, hasta entonces, solo podían crearse con cámaras. Dos años más tarde, el trabajo del profesor de CalTech Jim Kajiya, “The Rendering Equation”, terminó el trabajo de mapeo de la forma en que se generaron los gráficos por computadora a la física para representar mejor la forma en que la luz se dispersa en una escena.

Al combinar toda esta investigación con las GPU modernas, los resultados que se obtienen son imágenes generadas por ordenador que capturan sombras, reflejos y refracciones de maneras que pueden ser indistinguibles de fotografías o videos del mundo real. Ese realismo es por lo que el Ray Tracing ha llegado a conquistar el cine moderno. La siguiente imagen generada por Enrico Cerica usando OctaneRender, muestra una distorsión de trazos de vidrio en la lámpara, iluminación difusa en la ventana y vidrio esmerilado en la linterna en el piso reflejado en la imagen del marco.

que es la rasterización

El Ray Tracing es una técnica extremadamente demandante de potencia, es por eso que los cineastas dependen de un gran número de servidores o de granjas para crear sus escenas en un proceso que puede tomar días, incluso semanas, para generar efectos especiales complejos. Sin duda, muchos factores contribuyen a la calidad global de los gráficos y al rendimiento del trazado de rayos. De hecho, debido a que el trazado de rayos es tan computacionalmente intenso, a menudo se utiliza para representar aquellas áreas u objetos en una escena que se benefician más de la calidad visual y el realismo de la técnica, mientras que el resto de la escena se procesa usando rasterización.

¿Qué te  ha parecido nuestro artículo sobre que es la rasterización? ¿Os ha parecido interesante? ¡Esperamso vuestros comentarios!

Juan Gomar

Soy un apasionado de la tecnología en general pero principalmente de la informática y los videojuegos.
Los datos de carácter personal que nos facilite mediante este formulario quedarán registrados en un fichero de Miguel Ángel Navas Carrera, con la finalidad de gestionar los comentarios que realizas en este blog. La legitimación se realiza a través del consentimiento del interesado. Si no se acepta no podrás comentar en este blog. Puedes consultar Política de privacidad. Puede ejercitar los derechos de acceso, rectificación, cancelación y oposición en info@profesionalreview.com
  • Ó.M.

    Puedes rasterizar perfectamente algo que está en 2D. Una cosa es trabajar con vectores y otra cosa es convertir unas coordenadas fijas en algo que ya no podrá modificarse como puede hacerse mientras lo definen ecuaciones. Evidentemente en 3D también se puede. Un PDF cuando se imprime se rasteriza.

    El ray tracing es el quiero y no puedo. Me explico. Podemos simular los haces de luz, pero dado que ‘en la realidad’ hay infinitos haces por cada fuente emisora y punto de rebote es simplemente inasumible recrear ‘realmente’ el ray tracing, otra cosa es emular de una forma limitada y controlada el nº de haces que queremos usar y que interactúen de forma ‘calculada’ (sea en tiempo real o no).

    Otro punto importante es que cada los haces de luz rebotan y atreaviesan en absolutamente todo lo que hay en la escena y en las simulaciones o en el uso de RT en tiempo real se especifican los objetos o partes de objetos en los que aplicar el RT, por lo que de nuevo: claramente es una simulación, nada que ver con lo que sucede con los haces de luz emisores en una escena realmente.

    Finalmente: ¿qué pasa con el estereoscópico? ¿el VR? ¿las 3D? No hay capacidad de cálculo apenas para gestionar un muy reducido nº de RT en tiempo real y que sigue siendo completamente artificial (en unas partes de la escena se aplica y en otras mágicamente no por lo que donde realmente podría tratar de justificar que ‘es realista’, esto es: para los humanos no tuertos: en la imagen estereoscópica, donde hay que calcular 2 escenas de forma simultánea (y no una) con sus variaciones correspondientes si de nuevo se quiere poner la pegatina de ‘que es real’ en lugar de como hasta ahora, conformarse con hacer una emulación que puede ser más o menos parecida a lo que pasaría en la realidad si es que interesa, o todo lo contrario: modificarla si es necesario para que quede más cosmética y bonita siempre de forma artificial (y casi siempre pasará desapercibido).

    Simular el comportamiento de la luz (de forma absoluta, que sería lo único que merecería calificarse como realista) es algo muy ambicioso.

    Todo lo que vamos a ver en los siguientes lustors, con RT en tiempo real, sigue siendo una simulación controlada y ultralimitada (no hay nada malo en ello). Pero que se calcule en tiempo real no tiene nada que ver con que simule de forma feaciente los haces luminicos en un entorno 3D, hay un universo de distancia entre las dos cosas.

    Es como si dijéramos que de un haz salen 16 ‘rayos’ que calculamos y recalculamos de forma controlada aquí sí, aquí también, pero aquí no y allí tampoco. Y para colmo ni hablar de hacerlo en estereoscópico (a no ser que sea en una resolución y refresco similar a la de una N64) o de prescidir de la mitad de los poquísimo haces de luz y aumentar muy ligeramente la resoluciñon…

    vamos que al parecer la cosa aún queda bastante lejana de poder decir que ‘asemeja la realidad, incluso de una forma muy limitada’.

    Normalmente la realidad no luce tan bonita y tan enfocada y tan perfectamente iluminada por todos los sitios como en las escenas tuneadas en las que la iluminación y enfoque de cada punto de la escena se ha calculado para que toda se vea de forma estratosférica… pero totalmente irreal.

Quizás te interese:

Cerrar