Hablar con tu hogar inteligente mediante las ondas del cerebro
Un equipo internacional liderado por investigadores de la Universidad de Jaén ha diseñado un sistema no invasivo que utiliza los pensamientos para controlar los electrodomésticos de una vivienda domótica. La novedad reside en que combina inteligencia artificial con algoritmos que reducen el ruido del ambiente, con lo que su efectividad en el proceso de decodificación roza el 100% en entornos reales, es decir, fuera del laboratorio.
“Enciende el interruptor de la luz”. Dar esta indicación a un ordenador pensando en esa acción y que, mediante la interpretación de ondas cerebrales, se ejecute, ya no es ciencia ficción. En el caso de personas con problemas de movilidad, contar con estos dispositivos denominados cerebro-máquina para comunicarse con su entorno supone una gran ayuda y, a la vez, constituyen un reto para la comunidad científica. Hay proyectos como Neuralink de la compañía de Elon Musk, donde se implantan electrodos en el cerebro para captar las ondas neuronales. Sin embargo, supone un abordaje invasivo para el paciente.
Otros investigadores trabajan con estrategias que no requieren cirugía. En este caso, los dispositivos analizan la actividad del cerebro y detectan estados mentales del usuario, en tiempo real. Luego, transforman esos pensamientos en órdenes operativas, como seleccionar una letra en un teclado virtual o encender un interruptor. Todo este proceso se desarrolla ejecutando mentalmente una acción, como imaginar seleccionar las letras de una palabra que luego se ejecutan. ¿Cómo? Colocan electrodos en el cuero cabelludo. Éstos registran ondas cerebrales de muy escasa amplitud, que pasan por un amplificador. A continuación se digitalizan para poder ser procesadas por el ordenador, encargado de interpretar las señales y realizar todo el tratamiento.
En esta línea trabaja el grupo Sistemas Inteligentes Basados en Análisis de Decisión Difuso (SINBAD²) de la Universidad de Jaén. Junto con las universidades de Ingeniería y Tecnología, Lima – UTEC (Perú) Essex (Reino Unido) y Nantong (China) ha desarrollado un sistema más preciso que lee señales cerebrales para que personas afectadas por ictus puedan interaccionar con un hogar inteligente.
La novedad del modelo es que combina el electroencefalograma no invasivo, es decir, capta las ondas de un casco con electrodos que se coloca en la cabeza, con arquitecturas de inteligencia artificial para el procesamiento de la señal. De esta forma, alcanza una efectividad en la decodificación que roza en algunos casos 100% en un entorno natural, es decir, fuera de un contexto controlado, como un laboratorio de neurociencia.
Al aplicarse sobre el cuero cabelludo introduce muchas interferencias o ruido en la señal. A esto se suma el sonido no deseado del ambiente, ya que los usuarios estaban en un entorno natural. “En el laboratorio de neurociencia, las paredes están construidas para que no haya interferencias electromagnéticas. Es un escenario ideal, donde no alteraciones de pisadas de viandantes o un portazo de una ventana. Nosotros llevamos al modelo a un entorno cotidiano, donde suelen funcionar mal”, ejemplifica el investigador de la Universidad de Jaén, Javier Andreu-Perez, investigador senior y autor correspondiente del estudio publicado en la revista Applied Soft Computing.
Combinar arquitecturas
Para reducir estas fuentes de ruido y aumentar la precisión del modelo, los investigadores incorporaron dos arquitecturas basadas en inteligencia artificial: el aprendizaje profundo y la lógica difusa. El primero imita las características estructurales del sistema nervioso humano, donde existen áreas del cerebro especializadas en tareas como el lenguaje o el reconocimiento facial. En este caso, la máquina permite aprender mediante redes neuronales especializadas en la detección de ciertas características ocultas de los datos. “Esta arquitectura posee muchas capas y aprende de patrones de señales muy específicos. Por ejemplo, reconoce lo que estás pensando al procesar la señal del encefalograma”, explica Andreu-Perez.Sin embargo, estas redes neuronales son muy sensibles al ruido. Por ello, los investigadores añadieron aprendizaje difuso. “Se trata de unas funciones que ayudan a la red neuronal a aprender de estos patrones, pero modelando la incertitud. Así, aunque haya ruido, la red neuronal lo omite”, detalla el experto.
Esta nueva arquitectura actúa como una especie de parche, para que la red neuronal sea más robusta frente al ruido ambiental. La combinación de estas técnicas aumenta la fiabilidad del sistema para decodificar este tipo de estímulos cerebrales para alcanzar una precisión del 98,6%. “Hasta ahora, no se habían integrado interfaces cerebro-máquina, aprendizaje profundo y lógica difusa. Por eso, nuestra estructura combinada mejora los resultados obtenidos hasta el momento”, subraya.
Aplicaciones
Esta precisión convierte al modelo en candidato para aplicaciones donde se puede usar el cerebro como medio de comunicación con la máquina mediante pensamientos en entornos naturales. Es el caso de herramientas para ayudar a personas con movilidad reducida donde con sólo pensar en una orden, se movería un dispositivo en su hogar. “También para la industria del entretenimiento y los juegos, así como la neuro-rehabilitación remota desde casa”, adelanta Andreu-Perez.
Hasta el momento se necesitan dispositivos que hagan de intermediarios antes de ejecutar la acción concreta, como encender la luz. Sin embargo, este equipo trabaja ya en interfaces más simples, donde el usuario no tenga que pensar en pulsar un botón o una letra, sino que el sistema actúe directamente con los pensamientos imaginarios, sin ninguna tableta o código dado, sólo decodificando lo que el usuario imagina. La ciencia ficción está cada día más cerca de perder su adjetivo de ficticia y de hacerse realidad.
Más información en #CienciaDirecta: Desarrollan un modelo más preciso que lee señales cerebrales para interaccionar con un hogar inteligente
Suscríbete a nuestra newsletter
y recibe el mejor contenido de i+Descubre directo a tu email