La decisión de Facebook de señalar las noticias falsas que circulan por sus muros no está funcionando como se esperaba. Lejos de ayudar, un estudio acaba de desvelar que provoca un efecto perverso porque los usuarios de la plataforma se creen a pies juntillas las que no han sido marcadas como falsas, pese a que eso no signifique que no lo sean. La medida adoptada por Facebook muy aplaudida en su momento. Llegó justo después de la campaña de propaganda en la plataforma que apoyó la candidatura de Donald Trump a la Casa Blanca y el asunto causaba un enorme revuelo entonces.
Pero ahora, un estudio del MIT (el prestigioso Massachusetts Institute of Technology) publicado por la revista Management Science revela que cuando sólo algunas de las historias que se publican en Facebook se etiquetan como falsas o controvertidas, la gente se cree todo el resto, aunque sean absolutamente inventadas. Es lo que los investigadores del estudio llaman “efecto de la verdad implícita”: si en un entorno en el que tantas noticias reciben la calificación de falsas ésta no lleva esa etiqueta, entonces será porque es cierta.
¿Obvio? Se pregunta la publicación estadounidense Fast Company. Sí, obvio, pero nadie se había dado cuenta hasta ahora.
El equipo de investigadores ha llegado a esta conclusión después de un trabajo de investigación con dos estudios en los que han participado más de 6.000 personas. Aunque con algunas diferencias de procedimiento, los análisis arrojaban los mismos e inquietantes resultados.
Los participantes vieron gran variedad de titulares, unos con noticias reales, otros con noticias falsas, de la misma manera que se presentan en un muro de Facebook. La mitad de ellos vio historias sin ningún tipo de marca de verificación. La otra mitad vio una mezcla de titulares etiquetados y sin etiquetar. A todos se les preguntó cuáles de ellos creían más precisos.
Según recoge Fast Company, cuando no se emplearon etiquetas, los participantes se mostraron dispuestos a compartir el 29,8% de todas las historias falsas. Sin embargo, cuando las ‘fake news’ estaban identificadas, los usuarios sólo se mostraron a favor de compartir el 16,1%. El dato más significativo, sin embargo, es que las historias falsas sin marcar se compartieron en un 36,2%.
Los investigadores del estudio, que están trabajando ya con Facebook para tratar de solucionar este imprevisto, creen que, en lugar de etiquetar el contenido como falso, resultaría más eficaz utilizar el algoritmo para esconder las publicaciones. La segunda propuesta de solución pasa, por supuesto, por aumentar el número de verificadores para que la cantidad de noticias que se analice sea mayor, aunque probablemente sea del todo imposible llegar a todas. Aunque habría una tercera vía, que es la de señalar, por ejemplo, que todo lo que publican los medios de comunicación que cuentan con fórmulas de control riguroso es verdadero y el resto, falso. Esta fórmula obligaría a Facebook a señalar que unos medios son más creíbles que otros y no parece que la empresa de Mark Zuckerberg esté dispuesta a pasar por ahí.