Notebookcheck Logo

Google está trabajando en una nueva tecnología para que los dispositivos lean el lenguaje corporal humano

El sensor de radar Soli de Google tiene múltiples aplicaciones, como la capacidad de saber cuándo un humano está mirando un dispositivo. (Fuente de la imagen: Google)
El sensor de radar Soli de Google tiene múltiples aplicaciones, como la capacidad de saber cuándo un humano está mirando un dispositivo. (Fuente de la imagen: Google)
En un vídeo reciente, Google ha compartido información sobre su tecnología de detección por radar Soli, que espera que haga que los dispositivos sean menos interruptores al leer las sutiles señales humanas. La misma tecnología ya se utiliza en la función Motion Sense del Pixel 4.

Google ha revelado más detalles sobre su tecnología de radar Soli para las interacciones no verbales entre humanos y ordenadores. Por ejemplo, una interacción no verbal podría ser interactuar con un dispositivo agitando la mano o girando la cabeza. La tecnología, que la empresa aún está desarrollando, combina sensores de movimiento con algoritmos.

Google explica cómo funcionan los sensores y los algoritmos en un vídeo reciente y describe futuros casos de uso. La empresa sugiere que los beneficios de esta tecnología incluyen la reducción de la saturación de los dispositivos y la fabricación de aparatos más útiles y menos intrusivos.

Gestos como "acercarse y marcharse" utilizan algoritmos de aprendizaje profundo para determinar si alguien está en el "espacio personal" de un dispositivo. Según Google, el solapamiento del espacio personal es un buen indicador de si los humanos van a interactuar o simplemente pasar de largo

Acciones como "desviar la mirada" y "mirar" son reconocidas por algoritmos de aprendizaje automático que pueden entender un lenguaje corporal más matizado. Por ejemplo, esta tecnología puede determinar el grado en que se gira la cabeza, lo que permite predecir la probabilidad de que se interactúe.

El sensor de radar Soli se lanzó en 2015 y se ha utilizado en múltiples dispositivos de Google. Google lo utilizó en el Pixel 4 para Motion Sense para detectar los gestos de la mano, permitiendo a los usuarios pausar la música o las alarmas sin necesidad de tocar sus teléfonos. Los sensores también se han utilizado en la función Sleep Sensing función disponible en la pantalla inteligente Nest Hub de segunda generación; la herramienta ayuda a realizar un seguimiento de la calidad del sueño detectando los patrones de respiración y el movimiento.

Comprar el Google Nest Hub (2ª generación) en Amazon

Please share our article, every link counts!
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2022 03 > Google está trabajando en una nueva tecnología para que los dispositivos lean el lenguaje corporal humano
Polly Allcock, 2022-03- 3 (Update: 2022-03- 3)