Noticias

Nvidia revela un nuevo algoritmo que puede convertir imágenes 2D en 3D

Si bien hay muchas aplicaciones actuales para convertir objetos 3D en una perspectiva 2D, es muy poco lo que tenemos a mano que pueda hacer ese trabajo a la inversa. En pocas palabras, si quieres que un objeto sea 3D, tienes que renderizarlo en 3D. Una vez que el trabajo duro de eso está hecho, convertirlo en una imagen 2D es un proceso bastante sencillo. Bueno, probablemente no tan directo, pero tienes la idea. Nvidia planea cambiar eso con un algoritmo que permite pasar una imagen 2D en 3D de manera sencilla.

Nvidia ha revelado un algoritmo de IA que puede convertir imágenes 2D en 3D

Nvidia acaba de anunciar que una nueva IA que se está desarrollando ha sido capaz de recrear con éxito varias imágenes 3D a partir de una singular imagen estática en 2D.

Utilizando imágenes de aves, la IA fue capaz de replicar con éxito las imágenes desde varios ángulos. Más que eso, sin embargo, también fue capaz, en un grado impresionante, de recrear las diversas texturas.

¿Qué tiene que decir Nvidia?

«En los gráficos por ordenador tradicionales, un pipeline renderiza un modelo 3D a una pantalla 2D. Pero hay información que se puede obtener al hacer lo contrario. Un modelo que pudiera inferir un objeto 3D a partir de una imagen 2D podría realizar un mejor seguimiento del objeto, por ejemplo.

Los investigadores de NVIDIA querían crear una arquitectura que pudiera hacerlo integrándose a la perfección con las técnicas de aprendizaje de la máquina. El resultado, DIB-R, produce un renderizado de alta fidelidad utilizando una arquitectura codificador-decodificador. Un tipo de red neuronal que transforma la entrada en un mapa de características o vector que se utiliza para predecir información específica. Como la forma, el color, la textura y la iluminación de una imagen.

Es especialmente útil cuando se trata de campos como la robótica. Para que un robot autónomo pueda interactuar de forma segura y eficaz con su entorno, debe ser capaz de sentir y comprender su entorno. DIB-R podría mejorar potencialmente esas capacidades de percepción de profundidad».

El objetivo principal de esta nueva tecnología DIB-R (differentiable interpolation-based renderer) significa que un proceso que antes podía llevar semanas de algoritmos de IA para ser «entrenado», ahora puede esencialmente aprender «percepción de profundidad» en cualquier objeto en milisegundos.

Visita nuestra guía sobre las mejores tarjetas gráficas del mercado

En un futuro, la aplicación de este algoritmo podría ahorrar muchísimo trabajo a la hora de modelar objetos de la vida real en cualquier aplicación, ya sea de diseño o en la creación de videojuegos, solo por nombrar dos de las primeras funciones que me vienen a la cabeza.

[irp]

Para más información, puedes consultar el blog oficial de Nvidia.

Recent Posts

  • Procesadores

AMD Ryzen 9 7950X3D: Detectan un misterioso modelo con 192 MB de caché L3

Se ha detectado un misterioso procesador Ryzen 9 7950X3D que viene con una cantidad inusual…

17 mins atrás
  • Portátiles y ordenadores

Senua’s Saga: Hellblade II exige una RX 6800 XT para jugar en 1440p

Se han revelado los requisitos mínimos y recomendados para poder disfrutar de Senua's Saga: Hellblade…

3 horas atrás
  • Procesadores

Intel Core Ultra 9 285K: El buque insignia de Arrow Lake contaría con 5.5 GHz

Surge nueva información sobre la serie Core Ultra 200. El Intel Core Ultra 9 285K…

5 horas atrás