madrid
Situémonos entre abril y octubre de 2016. EEUU se preparaba para despedir a Barak Obama y se encontraba en plena carrera electoral hacia la Casa Blanca. Ganó Donald Trump y, con él, comenzaría el mantra de las 'noticias falsas' y su temida distribución en redes sociales, especialmente en Facebook (y especialmente desde el escándalo de Cambridge Analytica). Un estudio afirma ahora que durante aquel año la mayoría de los usuarios de esa red social no compartió artículos falsos durante la campaña presidencial. Y los que lo hicieron fueron, mayoritariamente, personas mayores de 65 años.
"Fake news" ("noticias falsas") es uno de los irritantes eslóganes que repite insistentemente el presidente Trump. La extensión de los bulos con apariencia verosímil preocupa desde hace tiempo a políticos y gobiernos, hasta el punto de ver en este fenómeno una auténtica amenaza para la democracia.
También algunos científicos han expresado preocupación sobre la propagación de noticias falsas y su influencia en el discurso público; no obstante, reconocen que queda mucho por conocer acerca de los mecanismos detrás de la difusión de noticias falsas, especialmente durante los procesos electorales. Y, en general, se podría decir que, con los estudios disponibles, la influencia real y medible de los bulos sobre la calidad de la elección política no está aún muy clara debido a la interminable lista de factores que pueden influir en el voto.
Un nuevo artículo firmado por investigadores de la Universidad de Nueva York y la de Princeton (EEUU), publicado en Science Advances, apunta a que la gran mayoría de los usuarios estadounidenses de la red social de Zuckerberg no compartió artículos sobre noticias falsas durante la campaña presidencial de 2016.
Los resultados de la investigación muestran que el 90% de los usuarios no compartía, de hecho, artículos de dominios de noticias falsas con sus amigos de Facebook; sólo el 8,5% compartió uno o más bulos. Sólo el 3% de las personas investigadas de edades comprendidas entre los 18 y los 29 años compartieron enlaces de sitios de noticias falsas, un dato que contrasta con el 11% de los mayores de 65 años que sí lo hicieron. Todo ello, independiente de las afiliaciones ideológicas o partidistas de los encuestados.
Estas conclusiones contrastan claramente con la percepción que se propagó por muchos medios de comunicación justo tras la victoria de Trump. Varios titulares de la prensa internacional se apresuraron a señalar a las redes sociales, y en concreto a Facebook, como un elemento esencial —o al menos como un factor de peso— en el triunfo del polémico líder.
"El consumo y la difusión de noticias falsas es más limitado y concentrado de lo que suelen indicar las narrativas populares"
Tal y como declara a Público Andrew Guess, uno de los autores del estudio, los resultados del mismo "significan, como han sugerido otras investigaciones, que el consumo y la difusión de noticias falsas es más limitado y concentrado de lo que suelen indicar las narrativas populares". "Cualquier ajuste o intervención diseñada para contrarrestarlo, por ejemplo mediante plataformas sociales, debe tener en cuenta estos hechos descriptivos, ¡aunque probablemente ya estén al tanto de ellos!", apunta este investigador por correo electrónico.
Otro dato interesante de este artículo que los investigadores ponen de relieve es la fuerte diferencia ideológica: el 18% de quienes se identificaron como republicanos compartió enlaces a sitios de noticias falsas, frente al 4% de los que se autoproclaman demócratas. No obstante, los propios investigadores apuntan que este hallazgo podría ser simplemente fruto del hecho de que la mayoría de las noticias falsas producidas durante la campaña eran, directamente, pro-Trump o anti-Clinton.
¿Cómo lo han averiguado?
Para realizar este informe se recurrió a una encuesta panel, realizada en tres oleadas de abril a noviembre de 2016, sobre una muestra de aproximadamente 1.300 encuestados que aceptaron que una aplicación compartiera temporalmente con los investigadores información sobre sus propias publicaciones en si 'timeline' de la red social, incluidos los enlaces externos. Los investigadores no tuvieron acceso al contenido de las fuentes de noticias de las personas ni a la información sobre sus amigos. Los encuestados podían retirarse en cualquier momento del estudio.
Con el fin de identificar las "noticias falsas", los investigadores se basaron en una lista de sitios web reunida por Craig Silverman de BuzzFeed News. Complementaron esta lista con otras fuentes revisadas por pares para generar una lista de "noticias falsas" específicamente desmentidas por organizaciones de verificación de hechos.
Para el ingeniero, investigador y profesor de la Universidad Carlos III de Madrid Rubén Cuevas Rumín, que no ha participado en el mencionado artículo, "es peligroso generalizar que las personas mayores son la mayor fuente de difusión de noticias falsas". "Este estudio se refiere a un país concreto como es Estados Unidos, quizás en otros países se obtendrían resultados diferentes", apunta por correo electrónico a este diario, y añade: "Además, incluso dentro de un país concreto habría que estudiar otros factores como nivel de educación de la gente, poder adquisitivo, zona geográfica en la que residen (zona rural vs. urbana), etc; y una vez se hayan tenido todas las variables sociodemográficas en cuenta, habría que sacar patrones robustos".
"No es tan importante el número de usuarios que comparte noticias falsas sino el alcance que tengan esos usuarios"
Eso sí, según este experto, "si se conoce que un grupo de usuarios con las propiedades que sean (por ejemplo personas mayores) son más susceptibles de compartir noticias falsas, esa información puede ser valiosa en modelos estadísticos o de machine learning a la hora de detectar si una noticia es falsa o no". Por ejemplo, prosigue, si existe una noticia que es masivamente propagada sólo por gente mayor (y asumimos que la gente mayor es más probable que propague noticias falsas) esa noticia sería sospechosa de ser falsa, aunque habría que tener en cuenta más parámetros como la fuente, la velocidad de propagación, etc.
Por su parte, Ángel Cuevas Rumín, hermano de Rubén y también investigador experto de la UC3M, afirma por e-mail a Público que el hallazgo "parece interesante desde un punto de vista de comportamiento humano", aunque recuerda que "en términos de impacto el 11% de los mayores de 65 años pueden ser en total muchos menos usuarios que el 3% de usuarios entre 18 y 29 años".
"Además", apunta, "una cuestión importante no es tanto el número de usuarios que comparte noticias falsas sino el alcance que tengan esos usuarios, es decir, es más relevante que un usuario muy influyente comparta una noticia que un usuario poco influyente lo haga". "En general, es probable que la capacidad de influencia de usuarios más jóvenes sea mayor que la de usuarios mayores de 65 años por la simple razón de que el número de contactos del primer grupo (en media) será más grande que el de los mayores de 65 años", comenta a este diario.
'Fake news' y redes
En los últimos tiempos, y especialmente desde que estalló el escándalo de Cambridge Analytica —que utilizaba datos de perfiles de usuarios de Facebook obtenidos sin permiso para desarrollar mensajes políticos a medida de los gustos de los potenciales votantes ("micro targeting")— muchos investigadores están centrados en intentar medir los efectos de los mensajes en redes sociales.
El pasado año, por ejemplo, tuvo un enorme eco un estudio del MIT que mostraba cómo las noticias falsas y los bulos se extendían de forma más rápida que las noticias reales o contrastadas en Twitter, que es una red abierta (a diferencia de Facebook, que es cerrada).
Pero al final esos datos no parecen tener, de momento, una traducción en cuanto a su efecto sobre la decisión del voto de cada uno de los ciudadanos. "No existe ningún estudio científico que haya comparado la influencia de diferentes medios (redes sociales, TV, radio, prensa, amigos, familia, etc) en el voto de los usuarios", recuerda Rubén Cuevas, quien opina que "existe una campaña generalizada de desprestigio a Facebook dentro de la cual hay dos ejes fundamentales: el primero las 'fake news' y la influencia en los resultados electorales, y el segundo la vulneración de la privacidad". Y eso que tanto esta red social como Twitter llevan unos años realizando esfuerzos para detener la distribución de noticias falsas, como bien recoge este 'paper'.
"Se le está otorgando a Facebook un peso mayor del que realmente tiene en el resultado de las elecciones"
Su hermano Ángel cree que "Facebook tiene un impacto pequeño o moderado, cómo máximo de un 10% en función de nuestros resultados en algunos grupos concretos; por tanto nosotros, en base a las evidencias que hemos encontrados, no podemos afirmar que el uso de Facebook por parte de Trump haya sido el factor determinante en su victoria de 2016".
"En mi opinión", añade Rubén, "se le está otorgando a Facebook un peso mayor del que realmente tiene en el resultado de las elecciones". Tras apuntar que "la tasa de éxito en clicks (cuánta gente hace click en un anuncio) es inferior al 1% en la mayoría de campañas publicitarias", estima que "las 'fake news' no dejan de ser una campaña publicitaria, que por tanto es esperable tasas de éxito similares y por tanto, la capacidad de influencia real es mucho más limitada de lo que se pretende".
Además, afirma este investigador, en el caso de política, muchos de aquellos a los que se les muestra una noticia de determinado signo político (sea un bulo o no) "ya están convencidos de votar por un partido determinado, así que el efecto de la campaña de Facebook es posiblemente en práctica inferior al de una campaña tradicional de publicidad".
Se trata de uno de los efectos de la llamada 'cámara de eco', es decir, la metáfora que pretende explicar cómo algunas ideas son amplificadas y reforzadas por repetición en un sistema en el que no existen visiones diferentes.
¿Impacto real?
Andrew Guess es un tanto escéptico a la hora de abordar la influencia real sobre los usuarios de las redes sociales y la mencionada 'cámara de eco'. "Yo mismo y otros investigadores en esta área tendemos a pensar que la narrativa de las 'cámaras de eco' está exagerada", afirma. Y ello a pesar de reconocer que Facebook es un vector clave de exposición a noticias falsas.
Los hermanos Cuevas, por su parte, se muestran bastante prudentes. "El tema de las 'cámaras de eco' es un muy interesante, muy complejo y que actualmente está siendo abordado por investigadores, por lo tanto aún no existen evidencias muy fuertes sobre los efectos de dichas cámaras", comenta Ángel.
"Por una parte, las 'cámaras de eco' pueden ser un problema para los usuarios ya que evitan que el usuario quede expuesto a elementos ajenos a su opinión; por ejemplo, si pensamos en términos políticos, un usuario con inclinaciones de izquierda nunca estaría expuestos a planteamientos de corte ideológico contrario que pudieran hacer que ese usuario se replanteara parte de sus convicciones", puntualiza, y añade: "Sin embargo, un factor importante es entender si los humanos (más allá de las redes sociales) elegimos voluntariamente estar en 'cámaras de eco' ya que nos sentimos más cómodos en ellas".
Por su parte, Rubén estima que "sin duda ninguna es algo que debería preocuparnos como sociedad". "Estos fenómenos hacen que la opinión de la gente se polarice ya que están expuestos exclusivamente a información alineada con su posición política, lo que hace prácticamente imposible que se plantee posibles errores en su ideología, conozca alternativas a ella, etc.", asevera.
"Estos fenómenos hacen que la opinión de la gente se polarice ya que están expuestos exclusivamente a información alineada con su posición"
Aunque las 'cámaras de eco' no han nacido con la redes sociales, existen desde hace mucho tiempo, recuerda este investigador. "Si una persona de un signo político sólo lee prensa y ve canales de TV cuya línea editorial es de dicho signo político, se está autoimponiendo una 'cámara de eco'. Por tanto, las redes sociales no hacen más que reforzar un problema que ya existía".
Respecto del "micro targeting", Ángel apunta a que "el problema es qué tipo de información se usa para llegar hasta nosotros, y si esa información son datos personales sensibles es sin duda un problema". Este investigador recuerda que la nueva normativa de protección de datos define como "información sensible entre otros datos de los que se pueda inferir: la orientación sexual de un usuario, sus preferencias políticas, su opción religiosa, su etnia, temas relacionados con la salud, etc.".
La nueva Ley de Protección de Datos en España, para adaptarse al Reglamento general europeo, no ha estado exenta de polémica, al tratar de regular la recogida de datos online por parte de partidos políticos con fines electoralistas. Pese a que la Agencia de Protección de Datos ha anunciado varias veces que prohibirá la elaboración de bases de datos ideológicas de los ciudadanos, la mera posibilidad de que la norma lo ampare ha disparado algunas alarmas.
"Nosotros tenemos un estudio reciente en el que demostramos que el 73% de los usuarios de FB en Europa están etiquetados con preferencias publicitarias potencialmente ligadas a datos sensibles", comenta preocupado, y considera que el 'micro targeting' "puede tener sin duda elementos perniciosos de cara al usuario".
¿Te ha resultado interesante esta noticia?
Comentarios
<% if(canWriteComments) { %> <% } %>Comentarios:
<% if(_.allKeys(comments).length > 0) { %> <% _.each(comments, function(comment) { %>-
<% if(comment.user.image) { %>
<% } else { %>
<%= comment.user.firstLetter %>
<% } %>
<%= comment.user.username %>
<%= comment.published %>
<%= comment.dateTime %>
<%= comment.text %>
Responder
<% if(_.allKeys(comment.children.models).length > 0) { %>
<% }); %>
<% } else { %>
- No hay comentarios para esta noticia.
<% } %>
Mostrar más comentarios<% _.each(comment.children.models, function(children) { %> <% children = children.toJSON() %>-
<% if(children.user.image) { %>
<% } else { %>
<%= children.user.firstLetter %>
<% } %>
<% if(children.parent.id != comment.id) { %>
en respuesta a <%= children.parent.username %>
<% } %>
<%= children.user.username %>
<%= children.published %>
<%= children.dateTime %>
<%= children.text %>
Responder
<% }); %>
<% } %> <% if(canWriteComments) { %> <% } %>