La IA ha revolucionado todos los sectores que conocemos, desde la educación hasta la agricultura. Esto supone muchas oportunidades, pero también una gran cantidad de retos, entre ellos legislativos. Por ello, la Unión Europea ha tomado la voz cantante en este ámbito y ha presentado el primer marco regulador global con el objetivo de asegurar los derechos humanos y abordar los riesgos que pueden derivarse de su aplicación. Busca también fomentar que la herramienta sea fiable y garantice la seguridad de las personas.

La Ley de IA(Reglamento UE 2024/1689) entró en vigor el 1 de agosto de 2024 pero su absoluta aplicación se irá desarrollando de forma progresiva, con plazos de entre 6 y hasta 36 meses según la norma.

Cuatro niveles de riesgo

La norma clasifica los sistemas de IA según el riesgo, tal y como explica la Comisión Europea:

  • Riesgo inaceptable: todos los sistemas que se consideren que amenazan la seguridad y los derechos humanos estarás completamente prohibidos.
  • Alto riesgo: cuando la IA se utiliza en las siguientes áreas: infraestructuras críticas(como el transporte), donde pueden afectar la seguridad y la salud pública, y en la educación, influyendo en el acceso y progreso profesional. También abarcan la seguridad de productos(como la cirugía asistida por robots), la gestión laboral(como la clasificación de CVs), servicios esenciales(como la calificación crediticia), la aplicación de la ley(evaluación de pruebas), la gestión migratoria(procesamiento de visados) y la administración de justicia(resolución de casos judiciales).
  • Estos sistemas deberán cumplir unos estrictos requisitos antes de estar disponibles en el mercado. Esto incluye desde mecanismos para evaluar y mitigar riesgos, utilizar datos de alta calidad, proporcionar documentación detallada para que las autoridades la verifiquen, ofrecer información clara a los usuarios o garantizar que hay una supervisión humana, entre otros.
  • Riesgo limitado: relacionado principalmente con la falta de transparencia en el uso de la IA. La ley impone una serie de normas para asegurar que las personas sepan que están utilizando sistemas de IA. Por ejemplo, en el caso de los chatbots, los usuarios deben saber que hablan con una máquina.
  • Aquí entra en juego también que los proveedores deben asegurarse que el contenido generado por IA se pueda identificar, con etiquetas específicas, sobre todo si es texto, audio o vídeos destinados a informar al público, incluyendo falsificaciones.
  • Riesgo nulo o mínimo: la gran parte de los sistemas de IA en Europa se incluyen en esta categoría. La ley permite su uso gratuito.

La ley además define obligaciones para los desarrolladores e implementadores, exige evaluaciones de conformidad antes de que los sistemas lleguen al mercado, y garantiza el cumplimiento una vez que están en uso. Además, crea una estructura de gobernanza tanto a nivel europeo como nacional para supervisar su implementación.