Google explica cómo funcionan las fotos 3D con profundidad de Google Fotos

Google explica cómo funcionan las fotos 3D con profundidad de Google Fotos
2 comentarios Facebook Twitter Flipboard E-mail

Google Fotos, servicio que estrenó los collages recientemente y que dejará de tener almacenamiento ilimitado en 2021, añadió el pasado mes de diciembre una gran novedad: las fotografías con efecto 3D automáticas. Google las llama 'fotografías cinemáticas' y se pueden generar de forma automática desde la aplicación, pulsando en el apartado de destacados recientes.

Desde el blog de Google han querido explicar cómo logran darle movimiento a las fotos, haciendo que tengan un efecto 3D tan llamativo. Como siempre, se valen de sus redes neuronales y de la experiencia en el ámbito computacional para hacer que los trucos de Google Fotos sigan creciendo.

La tecnología detrás de las 'fotos cinemáticas' de Google

Según Google, con las fotos cinemáticas quiere tratar de hacer revivir al usuario "la sensación de inmersión del momento en el que tomó la foto", simulando tanto el movimiento que hizo la cámara como el paralaje 3D. ¿Cómo convierten una imagen 2D en una 3D?

Google utiliza sus redes neuronales entrenadas con fotografías tomadas con los Pixel 4 para estimar profundidad de campo con una sola imagen RGB

Google explica que, al igual que hacen con el modo retrato o la realidad aumentada, las fotografías cinemáticas requieren de un mapa de profundidad para poder dar información sobre la estructura 3D. Para lograr este efecto en cualquier móvil que no tenga doble cámara, han entrenado una red neuronal convolucional para predecir un mapa de profundidad a partir de una sola imagen RGB.

Con tan solo un punto de vista (el plano de la foto), es capaz de estimar la profundidad de la fotografía con claves monoculares como los tamaños relativos de los objetos, perspectiva de la fotografía, desenfoque y demás. Para que esta información sea más completa, utilizan datos recogidos con la cámara de los Pixel 4, para combinarlas con otras fotografías tomadas con cámaras profesionales por el equipo de Google.

Básicamente, la técnica es similar a la del modo retrato de los Pixel: se analiza la imagen, se segmenta y una vez que se logra aislar el fondo, se simula movimiento desplazando el fondo. Esto es bastante más complejo, ya que se requieren varias correcciones y análisis en la fotografía ya que, unos pocos píxeles mal interpretados, podrían arruinar el resultado final.

Más información | Google

Comentarios cerrados
Inicio