MADRID, 13 Nov.
Europa Press ha llevado a cabo un proyecto junto a la empresa española AyGLOO y el apoyo financiero del Centro para el Desarrollo Tecnológico Industrial (CDTI) para combatir la propagación de noticias falsas en Internet.
Recientemente, hubo una difusión sin control de bulos en X (antes Twitter) después de los ataques de Hamás en Israel, seguida de la advertencia de la Comisión Europea a Elon Musk por violar las nuevas reglas de la Unión Europea contra la desinformación. Los eventos más recientes muestran el desafío en confrontarnos a este problema.
Europa Press ha llevado a cabo un proyecto de I+D con el objetivo de crear un sistema de alerta temprana que puede utilizarse como primer 'test' ante posibles bulos y para combatir la proliferación de tecnologías, como la Inteligencia Artificial, que facilitan la creación masiva de este tipo de contenidos.
El proyecto utiliza técnicas de Inteligencia Artificial como el Procesamiento de Lenguaje Natural (NLP), la Similaridad Semántica de textos (STS), la Inferencia de Lenguaje Natural (NLI), el Aprendizaje Profundo (Deep Learning) y la Inteligencia Artificial Explicable (XAI). El objetivo a largo plazo es proporcionar a periodistas e investigadores herramientas que les permitan detectar rápidamente noticias falsas.
Para lograr este objetivo, se han desarrollado dos estrategias principales. Una de ellas es la creación de una base de datos de fact-checks en diversos idiomas, que se actualiza diariamente y utiliza un modelo de similitud semántica para verificar si un posible bulo ya ha sido verificado por un actor independiente en el pasado.
Muchas veces, las noticias falsas se repiten a lo largo del tiempo, por lo que esta herramienta pretende detectar bulos que vuelven a surgir en el discurso público. Además, durante el desarrollo del proyecto se ha entrenado otro modelo con miles de ejemplos de bulos escritos en español y noticias verdaderas escritas por los profesionales de la agencia de noticias. Utilizando herramientas de NLP y Deep Learning, este modelo puede evaluar si un texto parece falso o verdadero según su estructura, sin valorar su veracidad.
Para abordar los riesgos de sesgos o falta de transparencia en el uso de algoritmos de Inteligencia Artificial, el proyecto también incluye un módulo de explicabilidad que proporciona pistas al investigador sobre por qué el modelo considera que un texto parece falso.
Actualmente, la aplicación se encuentra en fase de desarrollo y será probada por verificadores independientes y otros actores de la sociedad civil en la segunda etapa del proyecto. La lucha contra la proliferación de información falsa es una de las prioridades de la Comisión Europea, ya que puede socavar las instituciones democráticas y la confianza de los ciudadanos en ellas.