ARCore: la realidad aumentada de Google ya detecta la profundidad para fusionarse con el mundo real

ARCore: la realidad aumentada de Google ya detecta la profundidad para fusionarse con el mundo real
1 comentario Facebook Twitter Flipboard E-mail

Google ha puesto solución al principal problema que tenía su plataforma de realidad aumentada para Android: su falta de inmersión total con el entorno.

La realidad aumentada de Google mostraba objetos en 3D y ajustaba las luces y sombras según el entorno, pero no terminaba de mezclar ambas realidades, siempre era una pegatina que se mostraba siempre por encima de todo. Hasta ahora.

API de profundidad ARCore

Google lanza una nueva API de profundidad en ARCore para que las aplicaciones de realidad aumentada puedan determinar la profundidad. Así podrán detectar qué objetos físicos están por delante y cuáles por detrás del elemento virtual.

Con esta mejora se podrán crear experiencias más realistas, ya que ahora los objetos o personajes de realidad aumentada podrán ser tapados por muebles, paredes u otros objetos, no como antes que siempre estaban por encima. También al conocer la profundidad se mejora la interacción con el entorno, permitiendo lanzar objetos que reboten o que pinten sobre elementos reales.

Lo mejor de todo es que la API de profundidad de ARCore solo usa una única cámara para calcular la profundidad, como hace los Google Pixel para en su modo retrato, con lo que cualquier móvil con ARCore recibirá esta mejora. Los desarrolladores tienen que implementar esta novedad en sus aplicaciones.

Más información | Google

Comentarios cerrados
Inicio