Público
Público

Comunicación Así lucharán humanos y máquinas contra la desinformación antes de que se produzca

Frente a la polarización interesada y la desinformación, en los últimos tiempos están surgiendo nuevas formas abordar el problema de los bulos desde todos los frentes, en un intento por volver a ganar la confianza en una información veraz.

Publicidad
Media: 5
Votos: 1

Es necesario combatir los bulos para recuperar la confianza en la información veraz. Tero Vesalainen (CC0)

Los bulos, las mentiras y la desinformación siguen peligrosamente presentes en la agenda política y pueden convertirse en una excusa para regular —o sea, limitar— la libertad de información. Mientras, surgen nuevos sistemas de verificación de datos y de fomento de la transparencia para brindar a los ciudadanos una información honesta, veraz y contrastada.

Hasta ahora, el enfoque mayoritario para luchar contra la desinformación ha sido la comprobación de información y datos a posteriori, es decir, uina vez publicado el supuesto bulo. En EEUU, sitios populares como PolitiFact y Snopes llevan años haciéndolo.

En España, Maldita.es —que engloba, entre otros, a Maldito Bulo, Maldita Ciencia y Maldita Hemeroteca—, también. Otro proyecto construido alrededor del 'fact-checking' será Newtral, encabezado por la periodista Ana Pastor y aún en construcción.

Medios y agencias usan equipos y algoritmos desde hace años para detectar posibles informaciones falsas; Facebook combina un ejército de comprobadores —algunos han demandado a la compañía por sus condiciones de trabajo— con el aprendizaje automático para luchar contra la desinformación.

"Existe un problema de desinformación: creo que los ciudadanos son cada vez más conscientes de que por los cambios en el consumo de noticias hay cosas que le llegan que no son verdad pero quieren saber por qué, y ahí es donde entran los desmentidos", comenta a Público Clara Jiménez, cofundadora de Maldita.es. Para ella, estos desmentidos "son una manera de ayudar a los ciudadanos a tomar decisiones o formarse opiniones informadas".

No obstante, existe otra aproximación para combatir los sesgos y bulos informativos: la prevención. Es decir, evitar que la información falsa o sesgada antes de que sea demasiado tarde

Más transparencia y más fuentes, de entrada

"La información falsa sobre la noticia-bulo es rápida y gratis en términos materiales, y carísima en términos del peligro que eso alberga para la convivencia y la propia democracia". Esta frase la pronunció la vicepresidenta Carmen Calvo en unas recientes jornadas sobre periodismo que, con el nombre “¿Quién paga la mentira? ¿Es de pago la verdad?”, estaban patrocinadas por Coca-Cola.

Por mucha razón que tenga, la insinuación de la supuesta necesidad de una mayor regulación para poner coto a los bulos mueve el foco político a la siempre tentadora idea de abrir la puerta a la censura en aras de la seguridad. Pero ¿no es acaso labor de los emisores de información reconquistar la confianza de la audiencia?

"Nosotros estamos en contra de una legislación al respecto, y no somos los únicos", Clara Jiménez. "A día de hoy la línea entre una legislación antibulos y la censura es demasiado fina". Plataformas ciudadanas como la PDLI también se han manifestado fuertemente contrarios una regulación restrictiva, como la que denuncian que introducirá el proyecto de reforma de la Ley Orgánica de Protección de Datos (LOPD), en tramitación parlamentaria..

¿Y si se pudiese atacar la desinformación desde su raíz, sin poner en riesgo la libertad de expresión?

Desde hace tiempo, muchos medios de comunicación —grandes y pequeños— tratan de ganarse la confianza de sus lectores publicando no sólo grandes historias de investigación, sino explicando cómo se hicieron. Pero ¿y si el enfoque fuese diferente? ¿Y si se pudiese atacar la desinformación desde su raíz, sin poner en riesgo la libertad de expresión?

Una nueva herramienta de esta misma casa promueve, precisamente, aportar más transparencia al proceso de la publicación de noticias. TJTool permite al lector comprobar cómo se ha elaborado cada historia de Público, de modo que pueda comprobar que detrás de esos temas hay un trabajo periodístico, con sus principios y, claro, con sus errores.

Según explica la codirectora de Publico, Virginia P. Alonso, esta herramienta tiene una razón de ser clara: "La transparencia que exigimos a instituciones públicas también debe ser exigible a los procesos informativos", afirma esta responsable, que añade: "Nos gustaría que este ejercicio de transparencia periodística se extendiera a todos los medios, porque creemos que es el camino para restaurar la confianza de los lectores en lo que hacemos".

Para los periodistas, de hecho, supone un extraordinario ejercicio de rigor extra, ya que el lector puede comprobar de un vistazo cómo ha sido el proceso de creación de la historia, desde el inicio (¿por qué se aborda un tema u otro?) hasta el final, con un especial foco en las fuentes de cada texto. Y el redactor se expone como nunca a la posibilidad de una comprobación pública de su trabajo.

"Porque una ciudadanía mal informada o desinformada supone un eventual riesgo para la salud democrática", destaca Alonso. "Se necesita de una sociedad informada y con criterio, porque solo así pueden enfrentarse y corregirse las disfunciones del sistema".

Algoritmos más que útiles

Las máquinas también pueden ayudar a prevenir la difusión de la desinformación. Investigadores del Laboratorio de Inteligencia Artificial (CSAIL, por sus siglas en inglés) del MIT y el Instituto de Investigación de Computación de Qatar (QCRI), de la Universidad Hamad Bin Khalifa, acaban de presentar los resultados de un sistema en desarrollo que utiliza el aprendizaje automático para determinar si una fuente —un medio o un sitio web— es precisa o está sesgada políticamente.

Para desarrollar el sistema, los investigadores usaron datos de Media Bias/Fact Check (MBFC), que analiza los sesgos ideológicos de más de 2.000 sitios de noticias. Luego, con esos datos alimentaron un algoritmo de aprendizaje automático llamado máquina de soporte vectorial (SVM), y lo programaron para clasificar los sitios de noticias de la misma manera que lo hace MBFC.

¿Cómo identificar y prevenir la difusión de información falsa? (Dominio Público)

"Para cada medio exploramos diferentes fuentes de información que incluyen la página de Wikipedia del medio, su perfil de Twitter, su estructura de URL, los artículos publicados por ese medio y el tráfico que atrae", explica a Público por correo electrónico Ramy Baly, uno de sus desarrolladores, desde el MIT. "Creemos que estas fuentes incluyen varios indicadores de la fiabilidad y el sesgo político del medio", afirma, y añade: "Entonces, extraemos esas características y las usamos para entrenar al clasificador SVM".

Una vez entrenado, el sistema alcanzó una precisión del 65% en cuanto al rigor (la 'factualidad') de la información, y detectó correctamente en cerca del 70% de las veces si el medio tenía un sesgo ideologico hacia la izquierda, hacia la derecha o resultó ser moderado. Una de las ventajas de este sistema es que sería relativamente sencillo hacerlo funcionar en cualquier lengua.

"Hemos probado este modelo en 100 medios de comunicación en nueve idiomas: árabe, húngaro, italiano, turco, griego, francés, alemán, danés, macedonio", añade otro de los autores de este desarrollo, Preslav Nakov, desde la QCRI. "Tenemos un modelo independiente del idioma, que funciona un poco peor que en inglés, pero no mucho peor".

Poco a poco

Se trata de un avance prometedor pero aún limitado. El siguiente paso sería poder extender este sistema automático de detección de sesgos y comprobación factual más allá de las tendencias políticas. ¿Podría usarse un sistema similar para comprobar si un medio está condicionado por sesgos a favor o en contra de una religión? Baly confirma que es lo que están investigando ahora mismo.

"Una forma sería predefinir estos sesgos, como ya hemos hecho con los ideológicos", comenta, y añade: "Un enfoque más interesante sería identificarlos automáticamente en función de la propia verificación de los hechos, es decir, sería ideal saber si los medios usados para ese fact-checking tienen un sesgo religioso".
"La dicotomía izquierda-derecha no es una división universal", recuerda Nakov: "Por ejemplo, estas nociones aparecen invertidas en Europa del Este, donde la izquierda es conservadora y la derecha es liberal".

La presencia humana sigue siendo imprescindible para la verificación de la información

Estos investigadores confirman que el siguiente paso en el que trabajan será un agregador de noticias con capacidades de verificación de hechos que permite a las personas saber lo que están leyendo en términos de rigor, ideología, propaganda, etc. y que mostrará los resultados de forma muy gráfica.

En cualquier caso, la presencia humana sigue siendo imprescindible para la verificación de la información. Ramy Baly tiene claro que incluso si los sistemas automáticos de verificación basados en aprendizaje de máquinas son capaces de lograr altas tasas de precisión "sería mejor utilizar dichos sistemas junto con verificadores humanos, que pueden utilizar los resultados del sistema como una segunda opinión y mejorar su productividad".

WhatsApp, ese "agujero negro"

En Maldita.es tiran también de tecnología, pero remarcan que "luego hace falta un periodista que verifique" los resultados. Clara Jiménez apunta a Público un dato muy importante: "Estamos dejando fuera un espectro amplísimo que (afortunadamente, por motivos obvios de privacidad) no podemos 'trackear': las conversaciones privadas de los ciudadanos". "WhatsApp es un el agujero negro y ahí es donde más desinformación ahí, no en Twitter, que es lo que se monitoriza a día de hoy", añade.

Para saber qué pasa en WhatsApp, por tanto, sólo sirve la comunidad: disponer de una red de ciudadanos que alerten de qué les está llegando. "Así es como funciona Maldita.es, con una comunidad amplísima de "malditos" que nos reportan a diario  entre 150 y 200 mensajes con desinformación que se está volviendo viral en sus móviles", comenta Jiménez, que añade: "Esa desinformación no es la misma que encontramos en redes sociales y suele llegar antes a WhatsApp, así que a día de hoy las personas somos más eficaces que las máquinas".

La responsable de Maldita.es tiene claro, además, que "el camino es la educación: en los colegios, en las universidades, en los centros sociales, en los medios... es necesaria más cultura crítica, más alfabetización mediática y afinar las técnicas de verificación".