Las redes sociales ya no son lo que eran. Lo que a inicios de los 2000 se concebía como un espacio digital donde compartir el primer helado del verano, una foto de tu mascota o la última salida con amigos, se ha convertido en un lugar en línea con superpoblación de influencers, un sinfín de publicidad y las preguntas: ¿Dónde están las publicaciones de mis amigos? ¿Por qué paso dos horas haciendo scroll sin pausa? ¿Puedo dejar de compararme con las estrellas de las redes?

Su transformación hacia un contenido algorítmico, publicitario y controvertido las ha dejado en una situación delicada, al menos en Estados Unidos. Solo en el país se han presentado 211 demandas hasta el 17 de abril de 2023 por parte de distritos escolares, particulares y fiscales generales, según el Washington Post.

Los motivos: se acusa a plataformas como Meta, propietaria de Facebook e Instagram, Snapchat o TikTok de “dirigirse a niños y niñas en busca de beneficios a pesar de que los estudios académicos y médicos muestran que este público es especialmente vulnerable a los efectos adictivos de sus plataformas mientras sus cuerpos y mentes aún se están desarrollando”, explica el medio estadounidense.

Son los casos de una chica de 16 años de Utah que se obsesionó tanto con la imagen de su cuerpo tras engancharse a Instagram que desarrolló anorexia y bulimia, la experiencia de un niño menor de 10 años de Michigan que pasa tantas noches viendo vídeos de YouTube, TikTok y Snapchat que acabó por subir una foto desnudo que se viralizó; y el suicidio de una niña de 11 años de Connecticut frente a la espiral de insomnio y depresión que vivió después de lidiar con una adicción extrema a las redes sociales. Todos ellos, relatados por Bloombergy compartidos por El País, llegan a los tribunales en busca de una mayor y mejor regulación del contenido compartido en estas plataformas.

Las redes sociales son conscientes de sus puntos flacos cuando se trata de la influencia negativa que ejercen sobre los menores. En 2021, Frances Haugen, ex trabajadora de Facebook, demandó a la empresa donde trabajaba y filtró documentos internos que demostraban que Meta conocía el efecto nocivo que producían sus aplicaciones en los jóvenes, concretamente en chicas que ya tenían problemas de imagen corporal.

Por otro lado, TikTok ha sido demandada en varias ocasiones por filtrar datos personales de menores y sus retos virales han causado la muerte de algunos niños y jóvenes. Es el caso del blackout challenge, vinculado a la muerte de al menos 15 niños de 12 años o menores hasta finales de 2022, según reporta Bloomberg. Además, de acuerdo con el Washington Post, ByteDance, la matriz china de TikTok, sabe que los jóvenes son más susceptibles de intentar acrobacias peligrosas o retos incluso mortales que ven en la plataforma, porque su capacidad de sopesar el riesgo no está completamente formada, con el fin de ganar atención e impresionar a los usuarios de la red.

Así, la difícil regulación y monitorización de los contenidos compartidos en las redes sociales ha desembocado en la presentación de demandas que amenazan con desestabilizar el monopolio de las plataformas. Como, por ejemplo, la derivada de losatentados de París de 2015, la de la escuela pública del estado de Seattle, que demanda a las redes sociales por atacar la salud mental de los más jóvenes, o la reciente class-action lawsuit, similar a una demanda colectiva, presentada en el Distrito del Norte de California.

Ante esto, las empresas propietarias de las redes sociales han comenzado a tomar medidas para paliar las consecuencias adversas de su uso, como la depresión, la adicción u otros problemas de salud mental, que provocan en los menores de edad. TikTok, por ejemplo, anunció unlímite de una hora diaria en la utilización de la app para fomentar el bienestar de adolescentes y sus familias, aunque un estudio concluía que este tipo de limitaciones pueden ser contraproducentes.

Pero, ¿es esto suficiente? ¿Estamos un paso más cerca de regular las redes sociales? De momento las empresas se escudan en la sección 230 de la Ley de Decencia en las Comunicaciones, que permite a las compañías tecnológicas moderar el contenido de sus usuarios, pero sin asumir responsabilidades por él, y cuya revocación se está debatiendo en el Tribunal Supremo de Estados Unidos. Aun así, y de acuerdo con el Washington Post, hay otros factores que entran en juego: como demostrar que el uso de las redes sociales es el único culpable de los problemas de salud mental que sufren los menores o la prohibición de algunos estados en EEUU de demandar por “daños puramente emocionales” cuando no se han sufrido lesiones físicas.