Google inventa su propio '3D Touch' a base de software y sin ningún tipo de sensor dedicado

Google inventa su propio '3D Touch' a base de software y sin ningún tipo de sensor dedicado
7 comentarios Facebook Twitter Flipboard E-mail

No hagas mediante hardware lo que se puede hacer con software. Este es uno de los planteamientos básicos de Google, quien lleva años demostrando que no hacían falta dos cámaras para hacer un buen retrato, que no es necesario un hardware excesivo para ser fluido y que el aprendizaje automático puede aplicarse a todo el sistema operativo sin que ni siquiera los usuarios se den cuenta.

Con la última actualización del mes de marzo, Google ha proporcionado novedades más que interesantes para los Pixel. No obstante, una de las menos comentadas es, precisamente, una de las más interesantes. Google ha logrado crear su propio '3D Touch' mediante software.

Un vistazo a…
10 APLICACIONES de GOOGLE que PODRÍAN HABER TRIUNFADO

Así es el '3D Touch' creado por Google

Pulsaciones Pixel
Anteriormente, accedíamos a las funciones rápidas de las apps con una pulsación larga. Con el último update, los Pixel son capaces de hacerlo mediante presión.

Con la nueva batería de novedades que han llegado con el parche del mes de marzo, Google ha logrado que sus Pixel sean capaces de reconocer la presión que se ejerce sobre la pantalla. Como la compañía ha explicado a The Verge, esta función se expandirá en un futuro a aplicaciones de Google, estando actualmente disponible en el launcher.

"Long Press actualmente funciona en un conjunto selecto de aplicaciones e interfaces de usuario del sistema, como la aplicación Launcher, Fotos y Drive. Esta actualización acelera la pulsación para que aparecen más opciones más rápido. También planeamos expandir sus aplicaciones a más aplicaciones de primera parte en un futuro próximo."

Básicamente, Google ha utilizado su API 'Deep Press', presente en Android desde su décima versión. Con esta, han hecho funcionar una serie de algoritmos que son capaces de detectar el área táctil que se está pulsando. A mayor presión, más área pulsada. Como siempre, el machine learning es clave en este tipo de funciones, y Google es capaz de interpretar distintos tamaños de dedos y pulsaciones.

Al estar basado todo este mecanismo en una API, los desarrolladores pueden utilizarla para aplicar esta tecnología aunque, de momento, tan solo Google está dando el paso para implementarla, primero en el launcher y, en un futuro, en apps como Google Fotos o Drive.

Cómo han cambiado las cosas desde Force Touch

Force Touch

Resulta curioso la cantidad de giros que han dado las cosas desde la llegada de este concepto a manos de Apple. Force Touch es una tecnología desarrollada por Apple hace cinco años, en septiembre de 2014. Esta tecnología empezó con el Apple Watch y acabó llegando como '3D Touch' a los iPhone.

Apple desarrolló Force Touch y lo llevó a los iPhone. Google lo imitó mediante pulsaciones largas. Posteriormente, Apple lo quitó para sustituirlo por pulsaciones largas. Ahora, Google lo emula por software que detecta presión

El principal "problema" de esta tecnología es que requería de un componente físico dentro de la placa del dispositivo y, con el paso del tiempo, Apple decidió prescindir de él a partir del iPhone XR. Este móvil sustituía el sensor de presión por un sistema de pulsación larga (Haptic Touch) que, si bien cumple con parte de las funciones del antiguo 3D Touch, no se llega al nivel original.

Del mismo modo, la propia Google lleva tiempo implementando las pulsaciones largas en su launcher para invocar funciones. Básicamente, la misma filosofía del Haptic Touch: pulsar durante unos milisegundos para invocar funciones. Sea como fuere, la puerta en Android a que las aplicaciones sean capaces de detectar la presión queda más abierta que nunca, por lo que habrá que ver si acaba siendo algo popular o no.

Vía | The Verge

Comentarios cerrados
Inicio