Google explica cómo funciona el modo retrato con la cámara doble de los Pixel 4

Google explica cómo funciona el modo retrato con la cámara doble de los Pixel 4
1 comentario Facebook Twitter Flipboard E-mail

Que la fotografía en los móviles ha evolucionado de manera bárbara es algo que podemos constatar con sólo volver a un smartphone de hace unos años tras haber probado uno actual. Y no sólo se nota en el número de cámaras, también en la manera de procesar las imágenes, en especial un tipo de captura muy concreta que se aprovecha del potencial en procesamiento de los móviles: el desenfoque de fondo o bokeh. Lo que se denomina coloquialmente modo retrato.

Google representa el modo retrato en Android, todos los que tienen un Pixel lo saben. También quienes han probado una Gcam o cámara de Google adaptada a otros smartphones: el desenfoque de fondo que consigue no sólo es muy natural, también puede ajustarse a posteriori con Google Fotos y logra un recorte que realza en gran medida la imagen. Pero ¿cómo lo consigue Google? La empresa lo ha explicado.

La doble cámara del Pixel 4 es crucial

Procesado Camara Google Modo retrato de objetos y personas en los Pixel 4. Imagen de Google

Cuando saltaron los primeros rumores de los Google Pixel 4 todos nos congratulamos porque por fin la empresa se decidía por una múltiple cámara trasera después de obtener muy buenos resultados con la delantera (Google Pixel 3). Aunque eso sí, los nuevos Pixel no incluyen óptica gran angular; apostando por el telefoto, algo que se hacía bastante extraño. Pero hay una explicación: el desenfoque de fondo.

En un artículo de su blog, Google ha explicado cómo ha mejorado el efecto bokeh en los Google Pixel 4. La clave está en el sistema Dual Pixel de las cámaras traseras y en el hecho de incluir una pareja de sensores con sus respectivos objetivos. Gracias a la información proporcionada por las cámaras, el sistema puede discernir la profundidad de los objetos con precisión para aplicar el recorte al primer plano de manera natural. A ello contribuye la inteligencia artificial aplicada a la imagen ya que, gracias al aprendizaje de máquina, delimita con precisión los bordes y aplica el efecto de desenfoque a imitación de una óptica real, la que montan las cámaras profesionales.

Procesado Camara Google Así aprovecha la IA de Google toda la información que arrojan las cámaras

El sistema Dual Pixel de las cámaras permite enfocar con precisión los objetos, también recortarlos del fondo para aplicar desenfoque. Y, dado que los Pixel 4 poseen dos cámaras, Google logra un efecto parallax al contrastar las dos imágenes obtenidas. Con ello, la IA detecta los cambios en el primer plano y en el fondo; lo que le permite aplicar el recorte con precisión.

Procesado Camara Google Toda la información recogida por los sensores. Imagen de Google

Además de hacer uso de la IA, de la doble cámara y del sistema Dual Pixel de los sensores, Google utiliza modelos de desenfoque reales obtenidos de cámaras réflex (SLR) para aplicar los distintos efectos de modo retrato tras el aprendizaje de máquina. Con ello no sólo logra más naturalidad, también resultados que parecen profesionales. Y mejora el procesamiento de las imágenes HDR+ para adaptar la saturación y contraste del fondo a la que posee el objeto en primer plano (Tone Mapping o mapeo tonal).

Todas las mejoras introducidas en el modo retrato ya están disponibles en los Google Pixel 4. Los anteriores Pixel no pueden disfrutar de ellas ya que hace falta la doble cámara, pero, aun así, mantienen excelente calidad en el desenfoque de fondo. También una buena Gcam: no hay duda de que Google sabe cómo procesar imágenes.

Más información | Google

Comentarios cerrados
Inicio