Es experta en ética digital y reside en Dinamarca, donde dirige Transparent Internet, una organización que pelea por convertir el ciberespacio en un lugar más confiable donde se garantice la privacidad, la dignidad y la autonomía de las personas. Esta consultora ayuda a otras empresas a tomar decisiones más transparentes y éticas. Manuela Battaglini, abogada y amante de las biografías de mujeres fuertes y la novela histórica, se incorpora ahora al grupo de 17 expertos que asesorarán al Gobierno para elaborar la Carta de los Derechos Digitales.

La conversación con Levanta la cabeza se ha realizado mediante una videollamada a través de Whereby, una plataforma noruega de videoconferencia creada en 2013 que facilita las reuniones virtuales garantizando la intimidad y la libertad de las personas. Battaglini lo repite varias veces, hay otras opciones, existen las apps éticas.

Durante el confinamiento y ahora en la desescalada ¿crees que estamos haciendo un uso responsable de las nuevas tecnologías?

No me parece justo que la responsabilidad de usar bien la tecnología la coloquemos siempre en el lado del usuario y no de la plataforma y de la empresa tecnológica. Aquí la responsabilidad hay que invertirla. Hay plataformas, propietarios y quienes las han desarrollado que están haciendo un mal uso de ellas. Lo que falta es educación para que utilicemos plataformas más éticas, aquellas que no recogen datos, no los perfilan y no manipulan nuestra realidad. El gran problema de la sociedad digitalizada son los perfiles, las decisiones automatizadas. Si utilizamos herramientas éticas no van a recopilar nuestros datos como está pasando ahora. Tú y yo estamos hablamos y nadie sabe de qué, no pueden acceder a esa información.

Pero ¿por dónde empezamos?

Hay una herramienta que se llama Exodus Privacy donde introduces el nombre de la app y te dice los rastreadores que tiene esa aplicación y los permisos que le pide a tu móvil. Te darás cuenta de hasta qué punto esa aplicación quiere entrar en las entrañas de tu información. Por ejemplo, la aplicación con la que estamos haciendo la videollamada tiene cero rastreadores y te pide cinco permisos a tu móvil, los necesarios para que funcione la videollamada. Si vas a Zoom, te pide más de 30 permisos. Por no hablar de otras...

¿Por qué es tan difícil hacer ese cambio a herramientas más éticas?

El modelo de negocio es distinto. El de las herramientas éticas suele ser la suscripción y el pago porque no pueden especular con tus datos. Hay otras herramientas éticas que tienen como modelo de negocio los anuncios no personalizados. A la gente no le apetece pagar nada y parece que no queremos enterarnos de lo que supone que sepan todo de nosotros.

A lo largo de la emergencia se ha hablado mucho de las apps de rastreo para frentar la propagación del coronavirus. En España se anunció para junio pero no llega ¿Qué está pasando?

A saber, quieren hacer un piloto en Canarias. Es una decisión muy difícil de tomar y hacerlo bien requiere su tiempo. Ya están funcionando aproximadamente setenta apps de COVID-19 pero hay que ver cómo se calcula la efectividad, no solo la eficacia. El Ministerio de Sanidad necesita información para datos epidemiológicos, y la app es una medida táctica más, no es un todo, es una acción táctica dentro de una estrategia. Tiene que haber un equilibrio entre los intereses del Gobierno y los ciudadanos. El Ejecutivo quiere saber más para controlar la pandemia, el ciudadano quiere vivir con seguridad en los distintos escenarios sin sentirnos discriminados. Se necesita un marco ético. Y no se puede dividir la sociedad entre aquellas personas que pueden disfrutar de ciertos servicios y los que no.

Si hay tantas apps en activo, ¿no sería mejor escoger la que sea más efectiva y no perjudique a los ciudadanos?

Por le momento, la mejor es la suiza. Esta aplicación tenía una estrategia alrededor. Estaba considerada la mejor aplicación del mundo y decidieron no ponerla en marcha hasta que no hubiese un marco regulatorio para que los ciudadanos se sintiesen seguros. Han hecho una muy buena comunicación resolviendo todas las posibles dudas de los ciudadanos. De la de Singapur no puedo hablar tan bien. La aplicación estaba bien pero el Gobierno mandaba mensajes diarios a los ciudadanos a través de WhatsApp con la ratio de contagios y de las zonas con más riesgo, y eso producía una discriminación hacia las personas que vivían en esos barrios.

¿Puede ser que las cautelas para lanzar la app tengan que ver también con nuestra forma de ser y de vivir?

España, desafortunadamente, está muy dividida. Uno de los factores que puede hacer que una aplicación fracase puede ser el discurso público. Si sale, tiene que enfrentarse al discurso publico, que ahora está muy enfrentado. Y a la vez hay que salvaguardar las libertades de los ciudadanos

Has escrito que los cambios tecnológicos generan “una angustia social y cultural”.

Lo que estamos sufriendo ahora mismo con la aplicación de rastreo del coronavirus a nivel mundial es el proceso de adaptación del ser humano a una nueva tecnología. La sociedad no sabe lo que puede pasar y, por temor, empieza a especular sobre la privacidad y el estado de vigilancia… La sociedad necesita un tiempo de adaptación a las nuevas tecnologías, hablo de la sociedad, no de los individuos. Hablo de los cambios disruptivos y esos cambios son dolorosos, estamos hechos para acomodarnos. Lo vimos con la adaptación al arco como instrumento de caza y luego de guerra, tardamos más de cien años en adaptarnos. A principios del siglo XX se tardó más de veinte años en la adaptación al coche, al avión. Hoy necesitamos una media de ocho o diez años. Ahora las tecnologías mutan y avanzan mucho más rápido que nuestra capacidad de adaptación. Esto empezó a suceder en 2007. Fue el año donde un hubo un antes y un después, fue cuando el big data estuvo disponible para todos y se compartió una herramienta para analizar esa ingente cantidad de datos. Airbnb se creó en 2007, iPhone ese disparó ese año... Que la tecnología fuese más rápido que nuestra capacidad de adaptación afecta directamente a cómo legislamos y controlamos estas tecnologías. Ahora nos damos cuentas que hay que poner ciertas barreras al big data. Desde el punto de vista institucional solo hay que ver Uber, todavía no hay regulación ni una legislación y ya se está pensando en coches autónomos. Esto provoca una angustia generalizada.

¿Qué hacemos entonces?

Solo podemos avanzar y adaptarnos si tenemos en los gobiernos tecnólogos que sean capaces de innovar tanto como las grandes tecnológicas. Y luego está el derecho a la educación continua en tecnología. No solo se trata de tener asegurada la educación del ser humano, la obligatoria, sino la formación y el reciclaje continuado en tecnología. O aprendemos constantemente o habrá una parte de la sociedad que lo pasará muy mal. El derecho a la educación permanente en tecnología es importante.

¿Existe algún país que pueda servir de ejemplo?

Finlandia, por ejemplo. Allí se han hecho cursos sobre inteligencia artificial (IA) para la ciudadanía, con materiales muy bien elaborados. Fue un ejemplo de alfabetización digital con un diseño simple y colorido donde cada curso era como un juego. Era para gente que sabía lo qu era la IA. Es solo un ejemplo. En Dinamarca, donde vivo, la gente está muy puesta en tecnología. El Gobierno entiende la importancia de la educación tecnológica. Aquí funciona el cluster de robótica más grande de Europa, un grupo de empresas que colaboran estratégicamente y que se han unido para enseñar y actualizar conocimientos de aquellos que manipulan los robots. Buscan contribuir a la innovación y a la riqueza, quieren que la riqueza esté repartida en la cadena. Juntan a trabajadores de cuello blanco y cuello azul porque se han dado cuenta que quién mejor que un técnico para decirle a un ingeniero lo que falla de un robot. La idea es que la persona sustituida por un robot pase a ser su técnico. Me parece una medida eficaz para crear riqueza, sensación de bienestar y confianza en la tecnología.

Hemos visto como en las últimas semanas, gigantes de la tecnología como IBM, Amazon o Microsoft han anunciado que no desarrollarán más software de videovigilancia por reconocimiento facial destinada a la policía y agencias privadas de seguridad por los sesgos raciales que provoca…

No creo que sea sincera esa negativa a seguir desarrollando esta videovigilancia. Es una campaña de marketing, no son de fiar. Fueron ellas las que han provocado el sesgo. Es una tecnología que crea más problemas de los que resuelve. El Massachussets Institute of Technology (MIT) destapó todo el sesgo de discriminación racial hacia las personas negras, sobre todo a las mujeres. Las clasificaba como hombres y daban muchos falsos positivos, que significaba entrar en un listado de supuestos delincuentes. Tengo la impresión de que es pura farsa y puro marketing.

¿Corremos el peligro que con la excusa de la pandemia entremos en una fase de mayor control, de un Estado más vigilante?

El gran peligro es que nos contagiemos de lo que pasa en China, donde hay una dictadura. Hemos empezado con un control férreo de la movilidad, que se puede entender, pero ahora hay que vigilar qué tipo de control se quiere establecer. Muchas empresas privadas ven esto con muy buenos ojos. Ya se lo dijimos al presidente del Gobierno cuando 60 científicos firmamos una carta pidiendo que la app de rastreo COVID-19 no se convierta en una forma de control. Los gobiernos tienen que ver que hay ciudadanos que no se quedan con los brazos cruzados.

Has denunciado que los jóvenes utilizan su cara para alimentar algoritmos…

Sí, por eso es necesario llegar a ellos. Son los más vulnerables porque la autoestima es normal que esté baja a esa edad adolescente, cuando se busca aceptación. Una manera es sobreexponerse en las redes sociales para obtener la aceptación pública. Si las personas que ellos admiran son los que más se exponen, eso ya es un problema, y si la medición del éxito a esa edad tiene que ver con la cantidad de reacciones en redes sociales, tenemos un gran problema.

Y luego vemos como en Silicon Valley los creadores de nuevas tecnologías no se las dejan usar a sus propios hijos…

Hay que ser mala persona para crear algo malo para los demás que te lucre de una forma desproporcionada y después no se lo recomiendes ni a tus propios hijos. Estoy tan indignada… es la definición de maldad.

Hasta los propios empleados de estas grandes tecnológicas se han enfrentado a sus directivos.

Creo que eso sí les afecta. En cierta elite científica, Silicon Valley ya no significa un sitio tan atractivo. Los gobiernos ya no van allí de excursión, ya no todo el mundo quiere ser como ellos.