Un deepfake es un tipo de contenido creado utilizando técnicas de inteligencia artificial que permite superponer rostros y voces en vídeos y audios, generando una apariencia casi idéntica a la de una persona real. Esta tecnología ha evolucionado desde su uso inicial en entretenimiento hacia aplicaciones más siniestras, como la creación de falsificaciones de declaraciones de figuras públicas o la difusión de noticias falsas.

La facilidad de acceso a herramientas de creación de deepfakes ha democratizado su producción, lo que significa que prácticamente cualquier persona con el conocimiento y los recursos adecuados puede crear y distribuir estos contenidos. Este fenómeno es particularmente preocupante para los jóvenes, quienes, debido a su alto consumo de redes sociales, pueden ser más susceptibles a caer en la trampa de estos engaños visuales y auditivos.

La respuesta de OpenAI

En ese contexto, OpenAI ha lanzado un detector diseñado para identificar con una alta precisión si una imagen ha sido creada por su generador de imágenes, DALL-E 3. Este detector utiliza inteligencia artificial para analizar metadatos ocultos en los archivos, lo que permite determinar su autenticidad. La capacidad de este detector para identificar correctamente el 98.8% de las imágenes generadas por DALL-E 3 representa un avance significativo en la tecnología de detección de deepfakes.

La herramienta no solo busca errores en la imagen, sino que también se basa en estos metadatos que actúan como una especie de"huella digital" difícil de falsificar. Esto proporciona una capa adicional de seguridad en la identificación de contenidos generados por IA.

Implicaciones sociales y políticas

El lanzamiento de esta herramienta llega en un momento crucial, ya que las deepfakes no solo amenazan la integridad informativa, sino que también pueden influir en procesos democráticos, como las elecciones. La capacidad de detectar y neutralizar estos contenidos falsos es esencial para proteger la integridad de la información y la confianza pública en los medios de comunicación.

En este contexto, OpenAI se ha unido a la Coalición para la Procedencia y Autenticidad del Contenido(C2PA), una iniciativa que incluye a gigantes tecnológicos como Meta y Google. Esta coalición trabaja en el desarrollo de estándares y etiquetas digitales que certifiquen la autenticidad del contenido. Estas etiquetas funcionarán como una"etiqueta nutricional" para los contenidos digitales, proporcionando a los consumidores información clara sobre el origen y la manipulación del contenido.

Además de la tecnología de detección, OpenAI, en colaboración con Microsoft, ha creado un"fondo de resiliencia social" con un capital inicial de 2 millones de dólares. Este fondo está destinado a promover la educación y la alfabetización digital en inteligencia artificial, especialmente entre las comunidades más vulnerables. El objetivo es empoderar a los ciudadanos con las herramientas y conocimientos necesarios para discernir entre contenido auténtico y manipulado, fortaleciendo así la respuesta de la sociedad frente a la desinformación.