MADRID, 13 Nov.
Europa Press ha finalizado la primera etapa de un proyecto desarrollado en colaboración con la empresa española de Inteligencia Artificial AyGLOO y con el apoyo financiero del Centro para el Desarrollo Tecnológico Industrial (CDTI), con el objetivo de hacer frente al creciente desafío de la difusión de noticias falsas en Internet.
Un ejemplo reciente de este desafío fue la propagación descontrolada de bulos en X (antes conocido como Twitter) después de los ataques de Hamás en Israel y la posterior advertencia de la Comisión Europea a Elon Musk por violar las nuevas reglas de la Unión Europea contra la desinformación.
Con el fin de dar un paso en la dirección correcta, Europa Press ha llevado a cabo un proyecto de investigación y desarrollo para crear un sistema de alerta temprana que pueda servir como una prueba inicial ante posibles bulos y hacer frente a la aparición de nuevas tecnologías, como la Inteligencia Artificial, que facilitan la creación de este tipo de contenido a gran escala.
Utilizando técnicas de Inteligencia Artificial como el Procesamiento de Lenguaje Natural (NLP), la Similaridad Semántica de Textos (STS), la Inferencia de Lenguaje Natural (NLI), el Aprendizaje Profundo (Deep Learning) y la Inteligencia Artificial Explicable (XAI), el objetivo a medio plazo es proporcionar a periodistas e investigadores herramientas que les permitan detectar rápidamente noticias falsas.
Para lograr esto, se han desarrollado dos estrategias principales. Por un lado, se ha creado una extensa base de datos de verificación de hechos en varios idiomas, que se actualiza diariamente y utiliza un modelo de similitud semántica para verificar si un posible bulo ya ha sido verificado previamente por una entidad independiente.
Con frecuencia, la información falsa se repite con el tiempo, por lo que esta herramienta pretende ser útil para detectar bulos que vuelvan a surgir una y otra vez en el discurso público.
Además, durante el desarrollo del proyecto, se ha entrenado otro modelo con miles de ejemplos de bulos escritos en español y noticias verdaderas escritas por los profesionales de la agencia de noticias. Utilizando herramientas de Procesamiento de Lenguaje Natural (NLP) y Aprendizaje Profundo (Deep Learning), el modelo puede evaluar si un texto parece falso o verdadero según cómo esté escrito. Sin entrar en la veracidad o falsedad del texto, este análisis pretende ser una advertencia temprana para el periodista o investigador.
Dado los posibles riesgos de sesgos o falta de transparencia en el uso de algoritmos de Inteligencia Artificial, esta parte del proyecto incluye un módulo de explicabilidad, que busca dar pistas al investigador sobre por qué el modelo considera que un texto parece falso.
La aplicación, que aún se encuentra en fase de desarrollo, será probada en la segunda etapa del proyecto por verificadores independientes y otros actores de la sociedad civil.
La lucha contra la proliferación de información falsa, que puede socavar las instituciones democráticas y erosionar la confianza de los ciudadanos en ellas, es una de las principales prioridades marcadas por la Comisión Europea.