TikTok continúa estando en el ojo del huracán. La red social no solo se enfrenta a peticiones para prohibir su uso en Estados Unidos y numerosas demandas por filtrar datos personales, sino a un debate inagotable sobre su papel en la salud mental de los menores. A las voces que alertan del efecto adverso que juegan las redes sociales en la autopercepción de los más jóvenes, se suma la preocupación sobre el funcionamiento de su algoritmo, que muestra a los adolescentes contenidos relacionados con el suicidio y los desórdenes alimentarios.

A esta conclusión ha llegado un estudio reciente liderado por The Center for Countering Digital Hate, una organización sin ánimo de lucro que busca detener la propagación de odio y desinformación en Internet. Los investigadores crearon ocho cuentas falsas pertenecientes a niños y niñas ficticios con la edad mínima que permite TikTok, 13 años. Estas cuentas se detenían brevemente en vídeos sobre imagen corporal y salud mental y les daban ‘me gusta’. “Lo que encontramos fue profundamente perturbador”, afirma Imran Ahmed, CEO de The Center for Countering Digital Hate. Cada 39 segundos, TikTok recomendaba vídeos sobre suicidio, trastornos alimentarios, imagen corporal y autolesiones.

Para el CEO, los resultados son “la pesadilla de cualquier padre: feeds bombardeados con contenidos dañinos que pueden tener un impacto significativo en su comprensión del mundo que les rodea y en su salud física y mental”. Tras la publicación de sus hallazgos, muchos de los vídeos señalados en el estudio desaparecieron de TikTok, aunque las cuentas que los compartieron continúan activas.

TikTok ha implementado medidas, pero no están teniendo efecto

Ya en 2021, una investigación del Wall Street Journal descubrió que TikTok dirige a los espectadores hacia contenidos peligrosos, y otra del mismo año reportaba sobre los adolescentes que desarrollaban tics influidos por los vídeos de personas con el síndrome de Tourette en redes sociales. A pesar de que la propia aplicación ha implementado medidas para fomentar el bienestar de los adolescentes y sus familias y que la empresa ha afirmado tener más de 40.000 personas moderando contenido en la app, poco ha cambiado desde el momento en el que se publicaron esos reportajes hasta el actual.

TikTok cuenta con unas normas de la comunidad y retira los contenidos que violan claramente sus directrices, por ejemplo, los que glorifican o promueven el suicidio, pero no aquellos contenidos educativos o de recuperación sobre el tema.

Aun así, los usuarios encuentran atajos para publicar vídeos que la plataforma es susceptible de restringir. En su versión estadounidense, quienes comparten contenido en TikTok hacen referencia al suicidio de manera creativa, como usando sonidos similares o escribiendo “intento [de suicidio]” y dejando el resto a la imaginación.

Tal y como apunta la periodista Julie Jargon, los vídeos en los que la gente describe sus propios sentimientos suicidas son entendidos de otra manera por la propia red social. Sus directivos han afirmado, según reporta The Wall Street Journal, que la plataforma puede ser un lugar donde compartir sentimientos sobre experiencias duras, y cita a expertos que apoyan la idea de que afrontar las emociones difíciles en la app puede ser útil tanto para los usuarios como para los creadores.

Sea como sea, este tipo de vídeos afecta a la salud mental de los jóvenes y no tan jóvenes. La propia periodista del Wall Street Journal, Julie Jargon, que escribe sobre tecnología y familia, estuvo horas consumiendo los vídeos estudiados por el informe de The Center for Countering Digital Hate y reconoce que, después de unas horas, tuvo que dejarlo. “Si la rápida sucesión de vídeos tristes me hacía sentir mal, ¿cómo se sentiría una niña de 14 años después de ver este tipo de contenidos día tras día?”, reflexiona.