Jaén /
18 de enero de 2021

Inteligencia artificial para detectar odio contra las mujeres escrito en tuits

Fotografía ilustrativa de la noticia

Autoría: Alba Madero / Fundación Descubre

Un equipo de investigación de la Universidad de Jaén aplica este sistema para reconocer mensajes misóginos y xenófobos en Twitter. Esta tecnología aprende y reconoce los matices de un amplio registro de frases, palabras e insultos en castellano. Así, los expertos enfocan esta metodología para que organismos como la Policía detecten reclamos ofensivos de odio en la red social.

Twitter es el caldo de cultivo ideal para la libertad de expresión, pero también para los mensajes de odio. Como muestra, dos datos: las mujeres periodistas y políticas reciben comentarios misóginos cada 30 segundos en esta red social y, según el mismo informe publicado por Amnistía Internacional, las mujeres extranjeras o de origen mestizo reciben un 34% más de insultos.

Dos personas usan la app Twitter en sus móviles.

Esta incitación al odio y a la violencia hacia las mujeres son algunos de los delitos con los que lidian los organismos judiciales a diario. Sin embargo, la tarea de encontrar y recopilar los mensajes que argumentan claramente estas actitudes es compleja, dado que requiere un ingente esfuerzo humano y de tiempo. Un problema que trata de solucionar el grupo de investigación Sistemas de Acceso Inteligente a la Información de la Universidad de Jaén, que ha desarrollado un sistema basado en inteligencia artificial para identificar mensajes misóginos y xenófobos en Twitter. Este método puede utilizarse en ámbitos como el policial y el jurídico para localizar mensajes de odio, así como para moderar el lenguaje de los tuits generados en la red social. El programa se basa en redes neuronales, estructuras similares al cerebro humano, que ‘aprenden’ a identificar los matices de los mensajes.

Los expertos apuntan que esta tecnología distingue el contenido ofensivo y las ambigüedades del lenguaje para detectar mensajes de odio en Twitter. Añaden que este sistema podría utilizarse como un medio de alerta para la detección de comentarios que inciten al odio y a la violencia hacia las mujeres y migrantes.

Mª Dolores Molina, Flor Miriam Plaza del Arco, Mª Teresa Valdivia y L. Alfonso Ureña, autores del estudio.

Los investigadores del grupo Sistemas de Acceso Inteligente a la Información explican que para ‘instruir’ al sistema recurrieron a cuatro bases de datos previamente recopiladas de manera semiautomática, compuestas por frases peyorativas, palabras e insultos hacia las mujeres y migrantes. Para ello utilizan redes neuronales, que funcionan como lo hace el cerebro: conectan nodos que interpretan información y la ordenan. Se trata de un sistema inteligente que, a partir de unos datos básicos, ‘aprende’ a gestionar datos o a desarrollar nuevas funciones. “Utilizamos este recurso para ‘enseñar’ al programa a reconocer los matices del lenguaje, porque en ciertas frases hay pronombres o determinantes que son esenciales para darles un sentido u otro”, explica a la Fundación Descubre la investigadora de la Universidad de Jaén Flor Miriam Plaza.

‘Enseñar’ al programa

En su proceso investigador, los expertos han recopilado tuits donde se utilizan adjetivos ofensivos como “zorra” o “negrata”. El sistema identifica el contexto en el que se aplican estas palabras y reconoce si el usuario las utiliza como insultos. De este modo, el programa detecta y recopila los mensajes peyorativos hacia mujeres o migrantes.

Los investigadores explican que esta tecnología está preparada para aplicarse en diversos ámbitos como el judicial o el marketing, dado que recopilar y analizar cada mensaje de forma manual es un proceso que implica tiempo y dedicación de un experto, mientras que el programa lo hace de forma automática. “Este sistema puede ser útil para la policía u organismos que actualmente funcionan en base a denuncias por bullying o discurso de odio”, explica el investigador de la Universidad de Jaén Luis Alfonso Ureña.

El sistema analiza y recopila los mensajes con lenguaje ofensivo hacia mujeres y migrantes.

En estudios previos, el grupo Sistemas de Acceso Inteligente a la Información centró su labor en la detección de anorexia y bulimia en las redes sociales; así como el reconocimiento de las emociones de los usuarios en Twitter. “Queremos mejorar la tecnología basada en inteligencia artificial y aprendizaje automático para el análisis de sentimientos. Así, podremos aplicarla a una mayor variedad de ámbitos y ofrecer soporte a los organismos que lo necesiten”, comenta Luis Alfonso Ureña.

En 1968 la película ‘2001: Una Odisea en el espacio’ ya exploraba la idea de una inteligencia artificial capaz de comunicarse, pilotar una nave espacial e incluso tomar decisiones con connotaciones éticas. Actualmente, la inteligencia artificial no alcanza esos niveles de autogestión, pero estudios como el de el grupo Sistemas de Acceso Inteligente a la Información ofrecen nuevas y más variadas aplicaciones de la misma.

Más información en #CienciaDirecta: Desarrollan un rastreador inteligente que identifica tuits ofensivos contra mujeres y migrantes

Versión en inglés: Development of a smart tracker that identifies offensive tweets against women and migrants


Ir al contenido