Uno de los grandes desafíos de las redes sociales en materia de ciberseguridad es saber cómo atajar las imágenes de desnudos no deseadas y el material de abuso sexual a menores. A este respecto, las plataformas mayoritarias cuentan con sistemas para erradicar estos contenidos, pero parece ser que algunas ponen más empeño que otras.
El problema de Twitter para frenar la explotación sexual infantil
Twitter es, entre las grandes redes sociales masivas, la más permisivacon el contenido de carácter íntimo. Tanto es así que trazó esta pasada primavera un plan para comenzar a monetizar la pornografía.
Básicamente los usuarios que comparten este tipo de contenido podrían cobrar a quienes quisieran acceder a él, quedándose Twitter con parte del porcentaje de ingresos. Una estrategia que ya le funciona a Only Fans.
Pero sus planes, que en cualquier caso habrían desatado la polémica entre usuarios y anunciantes, tuvieron que frenar en seco. El medio The Verge ha informado de que Twitter creó un “Red Team” (Equipo Rojo) para asegurar la seguridad y responsabilidad del proyecto.
Por contra, el informe del Equipo Rojo al que ha tenido acceso la citada publicación desveló que Twitter no tiene la capacidad suficiente para asegurar que no se comparte contenido sexual dañino en su plataforma. Esto incluye desnudez no consentida y explotación sexual infantil. Asimismo, la empresa no dispone de herramientas para verificar la mayoría de edad de los creadores de contenido, ni tampoco de los consumidores.
Además del Equipo Rojo, otros documentos internos a los que ha accedido The Verge evidencian que Twitter tiene una brecha de seguridad en este sentido y que es necesaria una asignación inmediata de recursos para solucionarla. Un informe del equipo de Salud de la compañía, fechado en 2021, exponía que la cantidad de contenido sobre explotación sexual infantil ha crecido exponencialmente, pero la inversión de Twitter en tecnologías para detectarlo y administrarlo no lo ha hecho.
Instagram prepara una herramienta para censurar desnudos en los chats
Por su parte, Instagram –propiedad de Meta– sigue afinando sus controles para censurar el contenido íntimo. La red social ya cuenta con sistemas que eliminan imágenes sexuales e incluso borra fotos en las que aparezcan pezones femeninos.
Ahora da un paso más allá y, según ha desvelado el experto Alessandro Paluzzi, Instagram trabaja en una herramienta para vetar las fotografías de desnudos no deseadas enviadas en los chats privados. El usuario tendría que activar este control, que emite un aviso cubriendo la imagen recibida y alertando de que contiene desnudos. Entonces, el receptor podrá escoger verla o eliminarla.
#Instagram is working on nudity protection for chats 👀
ℹ️ Technology on your device covers photos that may contain nudity in chats. Instagram CAN'T access photos. pic.twitter.com/iA4wO89DFd
— Alessandro Paluzzi (@alex193a) September 19, 2022