SISTEMAS AUTOMATIZADOS

SISTEMAS AUTOMATIZADOS

¿Puede ser racista un coche autónomo?

Posibles sesgos en los algoritmos hacen necesarias medidas para equiparar la igualdad de reconocimiento frente a las máquinas.

Los posibles sesgos en los algoritmos aumentan las dudas acerca de los coches automatizados
Los posibles sesgos en los algoritmos aumentan las dudas acerca de los coches automatizados | LLC

Los coches autónomos se están adentrando en la sociedad con dudas sobre su seguridad, su actuación moral en situaciones limite o cómo afectaría al tráfico. Un estudio de la Universidad de Georgia va más allá, los coches autónomos tienen dificultad para detectar a las personas de piel oscura. Es decir, tu coche automatizado tiene más probabilidades de chocar con una persona de piel negra que contra una de piel blanca.

La investigación recopiló imágenes de peatones con diferente tono de piel. Posteriormente, analizaron la frecuencia con la que el modelo reconocía las personas de piel blanca frente a lo que tardaba en reconocer a los peatones de piel oscura. El resultado final evidenciaba la falta de reconocimiento de los peatones de piel negra, cinco puntos por debajo de los peatones blancos.

"La principal conclusión de nuestro trabajo es que los sistemas de visión que comparten estructuras comunes con los que probamos deben examinarse más detenidamente", dijo Jamie Morgenstern, uno de los autores del estudio, a la revista estadounidense Vox.

El estudio no es definitivo, ni debe ser tomado como alarma social. Más bien busca encauzar posibles problemas de código debido a la procedencia de su creador. Los algoritmos aprenden de los ejemplos que reciben. No es el primer problema racial que muestra un sistema automatizado, ya en 2015 el sistema de reconocimiento de imágenes de Google etiquetó a los afroamericanos como ‘gorilas’. Si los sistemas no reciben aprendizaje sobre personas de piel negra no tendrán capacidad para detectarlas.

Las propuestas para evitar el problema de sesgo de detección algorítmica son varias. Algunas se dirigen a la diversidad racial de los equipos que creen sistemas automatizados, como ejemplifica Joy Buolanwini, científica del MIT Media Lab. Y la otra propuesta, insiste en la necesidad de comprobar los algoritmos en busca de posibles sesgos y demuestren la imparcialidad del sistema antes de ponerlo en funcionamiento.

Alberto Camas
 |  Madrid | 11/04/2019

Utilizamos cookies propias y de terceros para mejorar, recoger datos estadísticos y mostrarle publicidad relevante. Si continúa navegando, está aceptando su uso. Puede obtener más información o cambiar la configuración en política de cookies.