Noticias

Nvidia revela un nuevo algoritmo que puede convertir imágenes 2D en 3D

Si bien hay muchas aplicaciones actuales para convertir objetos 3D en una perspectiva 2D, es muy poco lo que tenemos a mano que pueda hacer ese trabajo a la inversa. En pocas palabras, si quieres que un objeto sea 3D, tienes que renderizarlo en 3D. Una vez que el trabajo duro de eso está hecho, convertirlo en una imagen 2D es un proceso bastante sencillo. Bueno, probablemente no tan directo, pero tienes la idea. Nvidia planea cambiar eso con un algoritmo que permite pasar una imagen 2D en 3D de manera sencilla.

Nvidia ha revelado un algoritmo de IA que puede convertir imágenes 2D en 3D

Nvidia acaba de anunciar que una nueva IA que se está desarrollando ha sido capaz de recrear con éxito varias imágenes 3D a partir de una singular imagen estática en 2D.

Utilizando imágenes de aves, la IA fue capaz de replicar con éxito las imágenes desde varios ángulos. Más que eso, sin embargo, también fue capaz, en un grado impresionante, de recrear las diversas texturas.

¿Qué tiene que decir Nvidia?

«En los gráficos por ordenador tradicionales, un pipeline renderiza un modelo 3D a una pantalla 2D. Pero hay información que se puede obtener al hacer lo contrario. Un modelo que pudiera inferir un objeto 3D a partir de una imagen 2D podría realizar un mejor seguimiento del objeto, por ejemplo.

Los investigadores de NVIDIA querían crear una arquitectura que pudiera hacerlo integrándose a la perfección con las técnicas de aprendizaje de la máquina. El resultado, DIB-R, produce un renderizado de alta fidelidad utilizando una arquitectura codificador-decodificador. Un tipo de red neuronal que transforma la entrada en un mapa de características o vector que se utiliza para predecir información específica. Como la forma, el color, la textura y la iluminación de una imagen.

Es especialmente útil cuando se trata de campos como la robótica. Para que un robot autónomo pueda interactuar de forma segura y eficaz con su entorno, debe ser capaz de sentir y comprender su entorno. DIB-R podría mejorar potencialmente esas capacidades de percepción de profundidad».

El objetivo principal de esta nueva tecnología DIB-R (differentiable interpolation-based renderer) significa que un proceso que antes podía llevar semanas de algoritmos de IA para ser «entrenado», ahora puede esencialmente aprender «percepción de profundidad» en cualquier objeto en milisegundos.

Visita nuestra guía sobre las mejores tarjetas gráficas del mercado

En un futuro, la aplicación de este algoritmo podría ahorrar muchísimo trabajo a la hora de modelar objetos de la vida real en cualquier aplicación, ya sea de diseño o en la creación de videojuegos, solo por nombrar dos de las primeras funciones que me vienen a la cabeza.

[irp]

Para más información, puedes consultar el blog oficial de Nvidia.

Fuente
eteknix

Gustavo Gamarra

Soy operador de PC e instalador de redes informáticas , redactor y escritor en mis ratos libres. Amante de la tecnología, el cine, el fútbol y los videojuegos.
Los datos de carácter personal que nos facilite mediante este formulario quedarán registrados en un fichero de Miguel Ángel Navas Carrera, con la finalidad de gestionar los comentarios que realizas en este blog. La legitimación se realiza a través del consentimiento del interesado. Si no se acepta no podrás comentar en este blog. Puedes consultar Política de privacidad. Puede ejercitar los derechos de acceso, rectificación, cancelación y oposición en [email protected]
Botón volver arriba