Foto: Cuartoscuro / Archivo El sistema desarrollado por Google, emplea un diseño ligero con el que reduce la cantidad de carga de CPU necesaria para ejecutarlo, para no afectar así a la calidad de las llamadas  

Google se encuentra trabajando en tecnologías para hacer más accesibles las videollamadas y ha desarrollado un nuevo sistema que permite detectar en tiempo real cuando un participante utiliza la lengua de señas.

Los reportes han señalado que la mayor parte de los servicios de videollamadas utilizan sistemas para destacar a las personas que hablan en voz alta durante las reuniones de grupo.

Y a su vez, esto provoca inconveniencia para las personas que presentan problemas auditivos cuando se comunican mediante lenguaje de signos.

Para resolver esta cuestión, un equipo de investigadores de Google Research ha desarrollado un modelo de detección de la lengua de signos en tiempo real basado en la estimación de las poses que puede identificar a las personas como hablantes mientras se comunican con esta lengua.

El sistema desarrollado por Google, presentado en la conferencias europea de visión computarizada ECCV’20, emplea un diseño ligero con el que reduce la cantidad de carga de CPU necesaria para ejecutarlo, para no afectar así a la calidad de las llamadas.

La herramienta utiliza un modelo de estimación de poses de brazos y manos, conocido como PoseNet, que reduce los datos de la imagen a una serie de marcadores en los ojos, nariz, manos y hombros del usuarios, entre otros, de manera que se detecta también el movimiento.

El modelo de Google presenta cerca del 80% de efectividad detectando a las personas que hablan lengua de signos cuando emplea tan solo 0,000003 segundos de datos, mientras que si se usan los 50 fotogramas anteriores la efectividad asciende hasta el 83,4%.

Para mejorar la accesibilidad de las plataformas de videoconferencias, los investigadores han hecho su herramienta compatible con ellas, para que pueda usarse para señalar como ‘hablantes’ a quienes utilicen lengua de signos.

Este sistema emite ondas de sonido ultrasónicas cuando advierte a una persona que emplea esta lengua, de forma que las personas no las pueden percibir pero sí sus tecnologías de detección del habla, que destacan así al usuario en las videollamadas.

Los investigadores han publicado en código abierto en la plataforma GitHub su modelo de detección y esperan que su tecnología pueda “aprovecharse para permitir que los hablantes de lengua de signos utilicen las videoconferencias de manera más conveniente”.

Con información de EP

 

AR