Si hay algo que caracteriza a TikTok es la amalgama de contenido que puedes ver en esta red social con tan solo hacer scroll en tu página de ‘Para ti’. Una selección de vídeos que se ajusta a tus gustos, pero que para que te aparezca en la pantalla ha atravesado una serie de filtros, y alguien lo ha validado entre miles de publicaciones.

Ese alguien tiene nombre: el moderador de contenido. Y se pasa horas mirando a la pantalla todo tipo de materiales audiovisuales, sin censura alguna. Entre los bailes de moda y los vídeos de recetas se cuelan imágenes perturbadoras que está obligado a ver, y que tras una exposición constante, pueden llegar a dañar su salud mental.

En concreto, el último informe de TikTok desvela que durante el tercer trimestre de 2021 los moderadores de contenido eliminaron de la plataforma 91 millones de videos. Es decir, un 1 % de todo el contenido que se publicó en la aplicación. La red social cuenta con unas normas de uso muy estrictas y su censura es incluso mayor que la de Instagram o Facebook.

Una fuente interna de TikTok ha explicado a Levanta la Cabeza que, debido a su gran volumen de contenido, las grandes tecnológicas delegan la moderación de los primeros filtros de su contenido a empresas subcontratadas –normalmente localizadas en países en vías de desarrollo–, aunque ahora también han comenzado a hacerlo en Europa.

Aunque trabajen para la red social, no son sus trabajadores directos. Por tanto, las condiciones laborales de estas decenas de miles de moderadores están supeditadas a la de las empresas externas y “no son culpa de TikTok”, subraya la fuente.

Una de estas empresas subcontratadas es Telus Internacional, que destaca en un informe la importancia de la moderación de contenido y asegura que un 50 % del millar de americanos encuestados por la compañía reportaron haber visto contenido inapropiado o inexacto en internet.

Una empleada de Telus Internacional, Candie Frazier, denunció el pasado mes de diciembre a TikTok y a su empresa matriz, ByteDance, ante el Tribunal Federal de Los Ángeles (EE.UU.) alegando “estrés postraumático, problemas para dormir y pesadillas horribles” tras moderar contenido para la red social.

En concreto, según cuentan los abogados de Frazier en la denuncia, a los moderadores de contenido deben ver de tres a diez videos simultáneamente y no más de 25 segundos por publicación. Todo esto desde 2018, durante 12 horas diarias, con descansos mínimos para comer y almorzar.

Gracias a este ritmo frenético de los moderadores de contenido es posible la rápida actuación de la red social a la hora de eliminar el contenido presente para sus usuarios. El 93,9 % de los vídeos que infringían las normas de TikTok se eliminaron en las 24 horas posteriores a su publicación.

“En mi posición no veo ningún contenido que sea superperturbador ni que me afecte psicológicamente”, comenta la fuente de TikTok, que añade que sus condiciones son “muy buenas” y que la compañía le proporciona un servicio de atención psicológica 24 horas.

En esta misma línea, el responsable de Confianza y Seguridad de TikTok, Cormac Keenan, anunció la pasada semana en un comunicado nuevos cambios con el objetivo de mejorar las políticas de seguridad de la red social y regular el tipo de contenido que aparece en ella incluso más que ahora.

Entre las medidas anunciadas por la aplicación se encuentra la prohibición del uso de la plataforma con fines delictivos, así como el compromiso de TikTok para eliminar contenido que promocione trastornos alimentarios, que divulgue engaños sobre el suicidio o infunda odio a colectivos concretos, entre otras.