Un total de 109 países –32 en Europa– utilizan o han aprobado el uso de tecnología de reconocimiento facial con fines de vigilancia. Las técnicas de videoseguridad desarrolladas con inteligencia artificial han ganado protagonismo desde que llegó el virus SARS-CoV-2. A lo largo de este año hemos sabido que hay sistemas capaces de reconocer un rostro con mascarilla con una precisión del 95 % o que investigadores españoles trabajan en un proyecto de gafas policiales con dispositivo de reconocimiento incorporado. A la par, cada vez hay más críticas sobre los sesgos –sobre todo de raza– que tiene incorporada la inteligencia artificial utilizada para el reconocimiento facial o la intromisión en la privacidad del ciudadano.

En enero de 2020, un hombre negro llamado Robert Williams fue detenido en Detroit en presencia de su familia acusado de robar relojes en una tienda de artículos de lujo. Tras pasar una noche en los calabozos se descubrió que Robert no era la misma persona que aparecía en unas imágenes de video en las que se podía ver a un hombre negro cometiendo el delito. Los algoritmos se equivocaron y decidieron que el de la grabación era Williams cuando no era así. Durante los últimos meses han aumentado las protestas por el sesgo racial de esta tecnología, menos precisa en las personas de piel oscura. Luego se supo que no era el primer error del reconocimiento facial en EE. UU.

3.000 millones de imágenes

En febrero del año pasado, la policía de Londres desplegó una serie de cámaras con tecnología de reconocimiento facial en toda la ciudad y realizó el primer arresto en febrero. También hace un año, el diario The New York Times publicó una investigación sobre una empresa emergente que había desarrollado una aplicación de reconocimiento facial que utilizaban distintos departamentos de policía para resolver delitos. Las imágenes que usaba la herramienta –más de 3.000 millones­– fueron extraídas, entre otras miles de webs, de Facebook y YouTube.

Más recientemente, los policías encargados de investigar el asalto ‘trumpista’ al Capitolio también se aprovecharon de esta tecnología para identificar con claridad a los participantes más violentos. Y lo más curioso es que los asaltantes se lo pusieron muy fácil. Un software de reconocimiento facial analizó cientos de vídeos y miles de fotográfias subidas a las redes sociales por los radicales para conocer su identidad.

Aeropuertos y estaciones

Mientras partidarios y detractores exponen sus opiniones, el reconocimiento facial está dando pasos de gigante, también en España. El Aeropuerto Adolfo Suárez-Barajas de Madrid cuenta ya con un sistema de reconocimiento biométrico que permite al pasajero facturar y embarcar mostrando tan solo el rostro, la empresa israelí contratada por la cadena Mercadona para su plan de instalación de videovigilancia por reconocimiento facial ha patentado unos drones con identificación facial incorporada.

Renfe ha sido la última empresa en informar de que utilizará reconocimiento facial para controlar el aforo en estaciones y andenes y vigilar a los que se cuelan, montan peleas o pintan grafitis. La prueba piloto pretende realizarla en estaciones de la red de Cercanías de Madrid y Barcelona y en estaciones de Valencia, País Vasco y Málaga y con más de 200 cámaras. El pasado miércoles, el diario El Confidencial daba detalles del anuncio de licitación para el desarrollo de un software de análisis de vídeo en 25 estaciones por un valor de casi 800.000 euros. Según la noticia, el sistema identificará “atributos comunes” en los rostros como edad, género, origen étnico, tipo de ropa y estado de ánimo. Ese mismo día, la publicación sobre tecnología Xataka comprobó que Renfe había anulado la oferta de contratación “para realizar correcciones en el Pliego y en el documento de Especificaciones Técnicas”. Los sesgos étnicos y las dudas sobre la protección de datos pueden haber provocado esta marcha atrás.

En esta realidad, algunos especialistas en aprendizaje automático apuestan por herramientas que modifican las imágenes que subimos a internet hasta hacerlas irreconocibles para los algoritmos de reconocimiento facial. La idea es que el ojo humano las identifique perfectamente pero que la máquina no pueda rastrearla. Hay otra alternativa, no enviar fotos a las redes sociales. #LevantaLaCabeza