Facebook va a prohibir los vídeos manipulados, conocidos como ‘deepfakes’, esas grabaciones hiperrealistas que utilizan técnicas de Inteligencia Artificial para falsear la realidad. A las puertas de un año con elecciones presidenciales en Estados Unidos, la compañía de Mark Zuckerberg ha anunciado una actualización de sus políticas que incluyen una postura más restrictiva con respecto a estos vídeos.

A través de un comunicado que firma la vicepresidenta de gestión de políticas globales de la red social, Monika Bickert, Facebook establece los criterios para eliminar los ‘deepfakes’.

La compañía retirará los vídeos manipulados que hayan sido editados “de forma que no sea evidente” para una persona sin conocimientos técnicos porque “probablemente inducirán a error” al creer que el protagonista del vídeo dijo algo que en realidad no pronunció.

También retirará los vídeos elaborados con técnicas de Inteligencia Artificial o machine learning que fusionen, reemplacen o superpongan contenido en un vídeo haciéndolo parecer auténtico.

La medida anunciada por Facebook no está exenta de polémica. En primer lugar porque, aunque el comunicado de la compañía no lo dice expresamente, la prensa especializada interpreta que las nuevas restricciones mantienen la puerta abierta a las parodias y a las manipulaciones satíricas.

Además, como ha publicado Business Insider, la nueva política de la compañía no afectaría a vídeos falsos elaborados con técnicas más rudimentarias. Es el caso, por ejemplo, de uno de los vídeos manipulados más famosos de 2019, el que emborrachó a la líder demócrata del Congreso de EE.UU., Nancy Pelosi. El vídeo, que continúa online en la red de Zuckerberg, no altera el orden de las palabras (las ralentiza) ni recurre a la Inteligencia Artificial para su manipulación.

Facebook ya había adoptado algunas medidas contra los ‘deepfakes’. En colaboración con verificadores de contenidos, la compañía restringía la distribución de los contenidos marcados como falsos, cosa que seguirá haciendo. La compañía defiende que, aunque no los elimine, marcarlos como falsos ofrece contexto e información a quienes se los encuentren.

En septiembre, además, la compañía lanzó el Deep Fake Detection Challenge, un programa dotado con 10 millones de euros en el que colaboran, entre otras, la Universidad de Berkeley, el MIT y empresas como Microsoft o la BBC, en para producir más herramientas de investigación y de código abierto para detectar ‘deepfakes’.

Por último, Facebook ha anunciado una alianza con la agencia Reuters para ayudar a los medios de comunicación de todo el mundo a identificar 'deepfakes' con un curso online gratuito.