La tecnología avanza de una manera tan rápida que resulta difícil seguirle el ritmo. Cuando estábamos terminando de entender en qué consistía el funcionamiento de unas gafas de realidad virtual, de repente nos encontramos con que ya existe la inteligencia artificial. Pero, intentemos que todos estos nuevos conceptos no se nos escapen de las manos y tratemos de hacernos con ellos antes de que se nos conviertan en algo inabarcable.
El uso de estas nuevas tecnologías está yendo tan rápido que necesita regulación. En informática o programación un algoritmo es la secuencia de instrucciones mediante la cual podemos resolver un problema o cuestión. Uno de los algoritmos de los que más oímos hablar es el famoso algoritmo de Google. Se trata de un conjunto de algoritmos que se utilizan para puntuar las páginas web.
Para muchos siempre ha sido un misterio su manera de funcionar, pero lo cierto es que a través de él se determina el posicionamiento de una web en el buscador. Para ello se tienen en cuenta una serie de factores como la frecuencia con que se actualiza la página en cuestión, el número de visitas a la misma, la comodidad y velocidad en su navegación y la calidad de sus contenidos. Google juega con esos factores y a través de su algoritmo sitúa la página más o menos visible en el buscador.
Por sus consecuencias para el ser humano, los algoritmos y la inteligencia artificial necesitan alguien que supervise su funcionamiento y las consecuencias de este.
Eticas Consulting, compañía pionera en auditoría de algoritmos, anunció este miércoles que pondrá en marcha una metodología creativa junto a SNGULARpara lograr algoritmos más éticos y responsables a través de la Inteligencia Artificial.
Además, Eticas ha elaborado la primera Guía de Auditoría Algorítmica dirigida a empresas, entidades públicas y ciudadanos. A través de esas auditorías se puede comprobar que son diseñados, desarrollados y utilizados de acuerdo a la ley, de forma socialmente justa y responsable para evitar que discriminen.
La auditoría está segmentada en 5 pasos, según la compañía.
1. Model card (Tarjeta Modelo)
Tiene como objetivo obtener la información suficiente sobre el algoritmo para empezar la auditoría. Esa información comprende los objetivos del algoritmo (qué pretende conseguir en términos cuantitativos y cualitativos), sus usos previstos, su licencia, su arquitectura, el marco teórico sobre el que se sustenta el algoritmo, el metodológico utilizado para definir el modelo, información sobre las bases de datos usadas en el desarrollo del algoritmo, las fuentes usadas y qué motivaciones hay para usarlas, categoría de personas afectadas por la implementación del algoritmo, entre otras.
2. Risk Assessment (Asesoramiento del riesgo)
Se trata de la evaluación de los potenciales riesgos que pueden derivar de la implementación del algoritmo.
3. Identificación de los grupos protegidos
Definimos como grupo protegido a un grupo poblacional cuyos integrantes son personas en situación de vulnerabilidad que comparten una o varias características. Aunque cada auditoría algorítmica requiere definir atributos diferentes según el contexto de aplicación, estos son algunos de los atributos de pueden definir grupos protegidos: edad, personas con diversidad funcional, género, orientación sexual, religión…
4. Métricas cuantitativas
Las métricas cuantitativas del algoritmo se realizan con el objetivo de determinar si se comporta de forma adecuada en relación con los diferentes grupos identificados en función de criterios específicos de “justicia algorítmica” (equidad grupal).
5. Interacción humano-máquina
Se trata de examinar cuál será el papel que el sistema algorítmico jugará en los procesos en los que se integra. El análisis de la interacción humano-máquina se centra, fundamentalmente, en examinar que los principios de cumplimiento ético y legal, aceptabilidad, deseabilidad y protección de los datos personales, se cumplen en el contexto concreto del sistema. Para ello, se estudian los objetivos y los usos del algoritmo, la protección o desprotección de los individuos y los grupos afectados por el mismo.
Pero ¿quién debería estar autorizado para hacer estas auditorías? Por un lado, el propio equipo de trabajo que está trabajando en su confección; entidades externas certificadoras avaladas por su conocimiento y su experiencia, la ciudadanía y las administraciones públicas.
Precisamente con ese fin se creará la Agencia Estatal de Supervisión de la Inteligencia Artificial, impulsada a través de una disposición adicional en la Ley de Presupuesto Generales del Estado para el año 2022. La idea es que esta entidad que al mismo tiempo supervise la Inteligencia Artificial y los algoritmos en España cuente con personalidad jurídica pública, patrimonio propio y autonomía en su gestión.
La Agencia «actuará con plena independencia orgánica y funcional de las administraciones, de forma objetiva, transparente e imparcial», según dice el texto legal.
Se encargará de adoptar medidas dirigidas a «la minimización de riesgos significativos sobre la seguridad y salud de las personas, así como sobre sus derechos fundamentales, que puedan derivarse del uso de sistemas de inteligencia artificial». Estará adscrita a la Secretaría de Estado de Digitalización e Inteligencia Artificial, dentro del Ministerio de Asuntos Económicos y Transformación Digital.