Todo está preparado para la guerra mundial de la desinformación. Es triste pero las elecciones presidenciales de EE. UU. que se celebrarán el martes 3 de noviembre, y que deberán dirimir quién es el nuevo mandatario de la potencia occidental –el republicano Donald Trump o el demócrata Joe Biden–, se han convertido ya en terreno de juego de la que muchos consideran la gran batalla de las fakenews, bots, inteligencia artificial, deepfakes. Si el propio presidente Trump pone en duda la limpieza de los próximos comicios, como hizo también en 2016, el panorama pinta mal. Un dato, la red social Twitter eliminó más de 130 cuentas que intentaban interrumpir la conversación pública durante el primer debate televisado entre los dos candidatos.
En el caso norteamericano no solo hay que estar atentos a los intentos de manipulación de los acólitos de las dos partes, también están las interferencias del exterior. Los servicios de inteligencia de EE. UU. están dibujando un escenario de piratas informáticos vinculados con Rusia, China, Irán y Corea del Norte metiendo cizaña.
Por eso, los verificadores de noticias falsas se apresuran a mejorar sus capacidades para intentar frenar la ola de mentiras y medias verdades que está a punto de llegar, y que se suma a las generadas por la pandemia del SARS-CoV-2. Y las armas que utilizan los súper difusores de bulos son las mismas que aprovechan las organizaciones y colectivos que luchan contra ellos. Es el caso de los bots (aféresis de robot), programas informáticos que efectúan automáticamente tareas repetitivas en webs y redes sociales. Los bots maliciosos se pueden utilizar para recopilar datos de usuarios de internet con fines publicitarios, para lanzar millones de ciberestafas en segundos o realizar ciberespionaje, para amplificar mensajes engañosos sobre el coronavirus y, también, para simular interacciones humanas en las redes sociales con el objetivo de influir en el debate público.
Esta última función es la que más preocupa de cara a las elecciones estadounidenses. Por eso se está preparando para aterrizar en EE. UU. la empresa inglesa Logically, fundada en 2017 por Lyric Jaim, que aprovecha algoritmos de inteligencia artificial (IA) para localizar y desenmascarar perfiles falsos e informaciones que solo pretenden la manipulación del receptor. Según su fundador, son más de un centenar de ingenieros informáticos y periodistas, el ejército de verificación más grande de los que funcionan en el mundo. ¿Y cuál es su principal herramienta? Los algoritmos y la inteligencia artificial, las mismas que utilizan los reyes de las fakenews.
En la web explican que sus equipos de verificación, junto con la IA, revisan los hechos de forma rigurosa y con evidencias para determinar si la información difundida es fiable. De hecho, ponen a disposición del público una aplicación donde enviar informaciones online dudosas, que Logically investigará. La inteligencia artificial también es capaz de encontrar imágenes manipuladas, analizar metadatos de artículos, los patrones de propagación de la noticia y los vínculos en redes sociales. Todo para señalar al bot que pretende una viralidad de la noticia falsa. El aprendizaje automático de las máquinas sirve, además, para detectar deepfakes (vídeos falsos de personas aparentemente reales confeccionados también con IA) o saber si un texto ha sido creado por un humano o una máquina.
La última verificación que han realizado los expertos de Logically fue precisamente durante el primer debate entre Donald Trump y Joe Biden. Y encontraron falsedades, afirmaciones engañosas y algunas ciertas. En este enlace los fans de estos debates pueden comprobar cómo actuó cada candidato. Solo un ejemplo: Trump aseguró que está “obteniendo insulina tan barata que es como el agua”. Es falso. Según Logically, la orden ejecutiva de Trump con el objetivo de reducir el precio de la insulina aún no se ha implementado. Vamos, que la insulina sigue siendo cara. En su biblioteca de verificaciones ninguno de los dos políticos sale muy bien parado.
Otra iniciativa, surgida esta vez en EE. UU., es Ground News, que alardea de ser la primera plataforma de comparación de noticias del mundo. Lanzada el pasado mes de enero, su creadora, la ingeniera Harleen Kaur, que trabajó en la NASA, ha explicado que a la gente le resulta muy difícil entender qué es noticia y qué no. Ground News parte de una idea: existe un sesgo informativo desde el momento en que se elige hacer la cobertura o no de un determinado evento o suceso, y ese sesgo no aporta una visión completa a la opinión pública. Por ejemplo, si hay lluvias torrenciales en Ruanda, la mayoría de fuentes que cubren la noticia se inclinan hacia el espectro ideológico de izquierdas, en teoría más preocupado por el cambio climático. Y en el otro lado pasa igual. Una noticia sobre un policía que dispara al sospechoso de atacar a una persona es cubierta principalmente por medios más conservadores. Lo que hace Ground News con noticias de todo el mundo es analizar su cobertura mediática y establecer porcentajes dependiendo del número de medios situados a la izquierda, centro y derecha que la han publicado. Así se ve que cómo información se escora hacia un espectro ideológico u otro. A partir de ese momento, el usuario de la app puede profundizar más en esa información.
Cojamos una de las noticias de Ground News, la titulada. "El Departamento de Seguridad Nacional catalogará a los supremacistas blancos como la 'amenaza más persistente y letal' para EE. UU.". Ground News estudia qué medios la han cubierto y ubica a cada uno en un espectro ideológico. Así, en este caso determina que más del 70 % de los medios que se hacen eco del informe están considerados de tendencia progresista y un 30 % de centro. Con estos análisis, sus promotores pretenden explicar al ciudadano los puntos ciegos que surgen en cualquier noticia, los matices que han pasado desapercibidos y ofrece la posibilidad de leer una misma noticia en distintos medios de diversa tendencia. El lector puede sacar conclusiones con menos interferencias externas y ver cómo va evolucionando esa noticia en el tiempo.
Y por último hay fórmulas más simples para luchar contra la desinformación. En junio pasado, Twitter comenzó un curioso experimento: mostrar a algunos usuarios un aviso pidiendo que leyesen el artículo antes de difundirlo en la red social. Es normal que muchos usuarios hagan viral una historia sin haberla leído siquiera, sin pinchar, solo por el titular. Pues bien, la red social publicaba una advertencia asegurando que el titular no cuenta la historia completa, “puedes leer el artículo antes de retuitearlo”. El resultado es sorprendente: los usuarios abren un 40 % más los artículos tras ver el aviso, las personas que abren la noticia antes de retuitearla han aumentado un 33 % y algunas personas no retuitean el artículo tras haberlo leído. En los últimos meses han sido muchas las críticas contra los gigantes tecnológicos que controlan Facebook, WhatsApp, Instagram o Twitter por no poner coto a los bulos.
Ah, no te olvides que en España tenemos numerosas organizaciones de fact-checking para que no caigamos en la trampa. Entre ellas, destacamos a Newtral, plataforma que desde 2018 se dedica a la verificación de datos. Ah, también usa ya los protocolos de inteligencia artificial.