Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Teknófilo

Publicado en: 01/03/2022 14:41

Escrito por: Teknófilo

Google quiere que los dispositivos sepan cuándo es un buen momento para interactuar

Google lleva años trabajando en un «nuevo lenguaje de interacción», y hoy ha compartido lo que ha desarrollado hasta ahora.
La idea detrás de este «lenguaje de interacción» es que las máquinas que nos rodean puedan intuir nuestro deseo de interactuar con ellas (o no hacerlo) al identificar mejor nuestras señales no verbales.
El sistema que ha desarrollado Google analiza nuestros movimientos (a diferencia de los tonos vocales o las expresiones faciales) para saber si estamos preparados para interactuar, de modo que los dispositivos sepan cuándo permanecer en un segundo plano en lugar de bombardearnos con información.
Google utiliza el sensor de radar Soli de la empresa para detectar la proximidad, la dirección y las trayectorias de las personas a su alrededor. A continuación, analiza esos datos para determinar si alguien está mirando, pasando, acercándose o girado la cabeza hacia el sensor.
Google considera que hay cuatro movimientos clave: Aproximación, Mirada, Giro y Paso. Estas acciones pueden utilizarse como desencadenantes de órdenes o reacciones en cosas como pantallas inteligentes.


La identificación de estos movimientos permite que los dispositivos sepan cuándo te estás acercando (o una parte del cuerpo), para que puedan mostrar información que podrías estar lo suficientemente cerca como para ver.
Para que todo esto funcione bien, los sensores y algoritmos de Google tienen que ser increíblemente inteligentes, no sólo para reconocer cuándo se está realizando una acción específica, sino también cuándo no.
El jefe de diseño de Google, Leonardo Giusti, dice que «ése es el mayor reto que tenemos con estas señales». Afirma …

Top noticias del 1 de Marzo de 2022