Retrato robot de una noticia falsa
La desinformación prospera en la era de los algoritmos de recomendación de contenidos, que deciden en las redes sociales y en páginas pseudoinformativas qué contenido deberías ver primero. El que apela a las emociones más fuertes es el preferido del algoritmo -da igual si es falso o verdadero-.

Madrid-
No importa si es miedo, indignación, rabia o asco. Si el titular conecta con tus emociones más básicas, es que va por buen camino para colarte una noticia falsa premeditada, es decir, hecha a propósito para engañarte.
"Al apelar a las emociones, nos hacen reaccionar muy rápido -por ejemplo, compartiendo la noticia a otras personas- y desactivan nuestro pensamiento analítico y crítico", nos explica la psicóloga María Fernández-López, investigadora en ciencia cognitiva en la Universitat de València.
Por otra parte, nuestro cerebro es perezoso y prefiere lo simple. "Los mensajes claros, breves y visuales, con un diseño llamativo, nos suelen parecer más ciertos que los que son complejos y menos atractivos a la vista", advierte.
Otro rasgo peculiar es que dejan huella en nuestra memoria emocional. "Se recuerdan más, aun después de que hayamos descubierto que eran falsas", añade esta experta. Suelen ser además, a veces, informaciones "muy fáciles de creer".
Qué nos hace vulnerables
Los humanos somos presa fácil para las mentiras, por varias razones. "Buscamos certezas ante la incertidumbre. Cuando todo es confuso, cualquier explicación nos sirve. Preferimos una explicación clara, aunque sea falsa, a una fiable, pero difícil de entender", razonaba Fernández-López en un webinar sobre el tema organizado por Aciertas-COSCE (Confederación de Sociedades Científicas de España). Además, el sesgo de confirmación juega en nuestra contra cuando tendemos a dar por ciertas informaciones que secundan nuestras creencias preexistentes (políticas, religiosas, etc).
Otro punto débil es que "pensamos rápido y no siempre de forma reflexiva", dice esta psicóloga. Además, "confiamos con bastante facilidad en lo que nos suena familiar".
Por otro lado, no olvidemos que "cuesta más cuestionar que creer. Cuestionar requiere esfuerzo. El cerebro acepta primero y corrige después, si es que llega a hacerlo", señala esta investigadora.
Otra arma infalible para caer en el engaño es la repetición. "Tendemos a creer que, si algo lo hemos visto o leído muchas veces, debe de ser cierto. Cuanto más lo vemos, más creíble nos parece", recalca.
A la caza de atención
Las fake news tienen el objetivo de "manipular la opinión pública, influir en decisiones políticas o elecciones, desacreditar a personas o a grupos...", señala Fernández-López.
También hay historias no verídicas que se difunden con burdos intereses económicos como trasfondo. El libro Esclavos del algoritmo (Debate, 2025), por ejemplo, señala el último informe de la asociación por la transparencia NewsGuard, que identifica al menos 1.254 webs de información y noticias producidas mediante IA generativa que operan sin supervisión humana.
Las han encontrado en 15 idiomas (entre ellos, español, italiano, inglés, francés, alemán, portugués...) y suelen tener nombres genéricos que pasan por medios convencionales, como iBusiness Day, Ireland Top News o Daily Times Update. Sus textos están sembrados de errores, invenciones y falsedades que se cuelan aquí y allá sobre todo tipo de temas, desde política hasta tecnología, ocio o viajes.
¿Cómo funcionan? La clave es conseguir más clicks y atrapar la atención del usuario para, así, capturar más datos de su comportamiento online. Por eso, "normalmente, son páginas que te enganchan cookies -programas que guardan información de lo que haces en internet- sin tu consentimiento", advierte a Público la criminóloga experta en ciberseguridad María Aperador.
Esos datos que van recabando son el nuevo oro en el mundo digital. Sirven para establecer patrones y perfiles de usuarios (sexo, edad, aficiones, intereses, deseos, miedos, formas de actuar, horarios y un largo etcétera). Mientras quienes operan esas plataformas ganan dinero a nuestra costa, con el tráfico de nuestros datos, nos hacen más vulnerables a anunciantes, propagandistas políticos y ciberdelincuentes.
Nos pierde el morbo, no la verdad
Las informaciones creadas de forma automática con inteligencia artificial -sale mucho más barata que pagar a un redactor- tienen, por lo general, una buena dosis de morbo y sensacionalismo: los algoritmos han aprendido qué son ingredientes de éxito para que la gente pinche en la "noticia".
Lo mismo ocurre con los algoritmos de recomendaciones que te muestran, en tu página de YouTube, de TikTok o de cualquier red social, los contenidos que deberías ver primero.
"El software da prioridad a los contenidos que captan más la atención de los usuarios, por encima de cualquier consideración moral", afirmaba Guillaume Chaslot, un ingeniero de Google que decidió estudiar cómo funcionaba el sistema de recomendación de contenidos de YouTube -y fue despedido por ello-.
¿Qué hacer para no caer en la trampa?
Lo primero es corroborar las fuentes y hacer comprobaciones directas, cuando sea posible. Podemos buscar esa misma noticia en otros sitios, para comprobar si se han hecho eco de ella medios de comunicación fiables.
Pero, sin duda, lo más importante es empezar por el principio y cultivar el pensamiento crítico. Tenemos que recuperar nuestra capacidad de reflexionar, dedicar unos minutos para sopesar las historias que nos llegan y analizar quién se puede beneficiar de que creamos tal o cual falacia.
Para eso, es imprescindible cultivar un espacio personal de calma. "Cuando estamos estresados, sobrecargados de trabajo, no tenemos tiempo ni energía para activar nuestro pensamiento analítico", observa Fernández-López.
El punto de partida sano ha de ser esa mirada crítica, ese pararnos y pensar antes de compartir o sucumbir a la emoción que quieran transmitirnos.
Comentarios de nuestros socias/os
¿Quieres comentar?Para ver los comentarios de nuestros socias y socios, primero tienes que iniciar sesión o registrarte.