Diseñan un sistema que permite dirigir un robot con la voz
Investigadores del grupo ISIS de la Universidad de Málaga han diseñado un sistema para controlar de forma remota un robot con la voz. El método logra una alta tasa de reconocimiento de palabras y el control de la plataforma robótica en tareas de navegación, ventajas que abren la puerta a su futura aplicación a otros dispositivos, como sillas de ruedas, en entornos de asistencia a personas.
Según reconocen los expertos, en la actualidad existen diversos sistemas de reconocimiento de voz para el control robótico. Sin embargo, el suyo muestra diferencias en dos aspectos: el idioma, ya que es de los pocos para hispanohablantes y la tasa de éxito en el reconocimiento.
Los expertos han desarrollado su modelo acústico en el sistema operativo Linux, ya que la arquitectura para controlar el robot trabaja con varios procesos simultáneos. Asimismo, en lo referente al idioma, han utilizado un software denominado Julius/Julian, un sistema de reconocimiento de voz de código abierto. “Actualmente solo hay modelos acústicos para japonés e inglés. Al no existir modelo acústico específico para español, el desarrollo de este elemento ha supuesto la parte central de nuestro trabajo”, reconoce a la Fundación Descubre el investigador de la Universidad de Málaga Alberto Poncela, responsable del proyecto.
Otra ventaja son los resultados que obtiene ese modelo acústico en las pruebas a las que se somete. “Conseguimos una tasa de reconocimiento de palabras cercana al 99% y una tasa de reconocimiento de comandos, es decir, de órdenes, del 95% o superior. A esto se suma que el robot consigue ir al sitio que se le envía bajo el control de la voz de un usuario no experto”, subraya Poncela.
Los investigadores apuntan que estos resultados del estudio titulado ‘Command-based voice teleoperation of a mobile robot via a human/robot interface’ y publicado en la revista Robotica, abren la puerta a la posibilidad de adaptar el sistema a otras plataformas robóticas, como sillas de ruedas, lo que supondría su aplicación en entornos asistenciales.
Construyendo el modelo
¿Cómo reconoce el robot una orden emitida por una persona? Para ello se requieren varios elementos. Por un lado, el léxico, el conjunto de palabras que el sistema puede reconocer. A este se sumaría la gramática, las reglas y las restricciones de ese vocabulario. “Además hay que construir un modelo acústico, es decir, la representación estadística de los sonidos que forman cada una de las palabras habladas usadas en la gramática. El modelo acústico se obtiene tras una fase de entrenamiento. Nosotros hemos considerado 802 palabras, agrupadas en 72 frases”, precisa otra de las investigadoras participantes en el estudio Leticia Gallardo Estrella.
El sistema tiene que ser entrenado para cada usuario, ya que las características de la voz de cada persona son distintas, con lo que hay que afinar hasta hacerlo preciso y personalizado. “Para ello, se graban las frases de entrenamiento con un micrófono y se parametrizan con unos coeficientes numéricos con las características propias de la voz. A partir de estos coeficientes se construye el modelo acústico”, detalla la investigadora.
A continuación, el vocabulario, la gramática y el modelo acústico se introducen en el motor de voz, que tiene como salida la frase reconocida. “Definimos un juego de comandos técnicos de movimiento cortos, por ejemplo –parar-, y otros largos -girar 20 grados- que se emiten de forma remota con un micrófono, se reconoce el comando y, mediante wifi, la orden llega al robot, que tiene un punto de acceso”, especifica.
Pruebas de reconocimiento y navegación
Los investigadores han acometido dos tipos de pruebas para testear el sistema. Las primeras, para comprobar si el sistema reconoce la voz y las órdenes emitidas. Un comando sólo es correcto si se reconocen todas las palabras. Por ejemplo, la acción “girar” va asociada a un valor numérico (20) y una unidad (grados) en la frase “girar 20 grados”.
El sistema tiene en cuenta todas esas variables y consigue, en palabras de los investigadores, buenos resultados. “Alcanzamos una tasa de reconocimiento de palabras cercana al 99% y una tasa de reconocimiento de comandos del 95% o superior”, incide Alberto Poncela.
El segundo tipo de pruebas guardan relación con la navegación. Para ello, simularon entornos complejos para que un robot modelo Pioneer P2AT los recorriera y llegara a un punto. Un usuario no experto en robótica emitió las órdenes con un micrófono. “El resultado fue que esta persona hizo llegar el robot a su destino”, subraya.
Este trabajo se enmarca en el proyecto ‘Sistema Inteligente de Asistencia Domiciliaria’ SIAD destinado a crear una arquitectura genérica capaz de adaptarse por sí misma a distintos tipos de usuarios mediante aprendizaje y financiado por la Consejería de Economía, Innovación, Ciencia y Empleo de la Junta de Andalucía.
Referencia:
Alberto Poncela, Leticia Gallardo-Estrella. ‘Command-based voice teleoperation of a mobile robot via a human-robot interface’. Robotica, 33 (1), pp. 1-18, 2015.
Imágenes:
El investigador de la Universidad de Málaga Alberto Poncela, responsable del proyecto
https://www.flickr.com/photos/fundaciondescubre/16974751511/
https://www.flickr.com/photos/fundaciondescubre/16768294897/
Más información:
FUNDACIÓN DESCUBRE
Departamento de Comunicación
Teléfono: 954232349. Extensión 140
e-mail: comunicacion@fundaciondescubre.es
Suscríbete a nuestra newsletter
y recibe el mejor contenido de i+Descubre directo a tu email