Nohemi González tenía 20 años cuando murió asesinada en París el 13 de noviembre de 2015. Se encontraba celebrando el cumpleaños de uno de sus amigos en la terraza de “La Petit Cambodge”, un bistró de barrio cercano a la plaza de Bastilla cuando, frente al establecimiento, se detuvo un vehículo negro del que se apearon tres terroristas armados con fusiles de asalto. Dispararon a discreción. Nohemi, una estudiante estadounidense de origen mexicano, fue una de las trece personas que perdieron la vida en aquel bar de París.

La decisión que el Tribunal Supremo estadounidense va a tener que tomar en los próximos meses nace del dolor y la determinación de la familia de Nohemi González. En junio de 2016, Reynaldo González, padre de la víctima, demandó a Twitter, Facebook y a Google -en su calidad de propietario de YouTube- por haber permitido la proliferación de cuentas y contenidos de propaganda terrorista sin tomar medida alguna para contener este tsunami de odio. Según la demanda, las plataformas tecnológicas han aportado “con conocimiento de causa (…) un apoyo material clave para el auge del grupo terrorista Estado Islámico”, algo que habría facilitado a los yihadistas la organización de numerosos atentados como los vividos en París en la noche del 13 de noviembre de 2015.

Las alegaciones de la demanda de la familia de Nohemi González encontraron además un sustento científico que fue aportado a la causa: un informe del centro de investigaciones Brooking Institute sobre la presencia de Estado Islámico en las redes sociales. El estudio contabilizó 70.000 cuentas de Twitter de las cuales 80 eran descritas como “oficiales”. La organización terrorista usó sus perfiles para “atraer a nuevos miembros e inspirar atentados de lobos solitarios”, concluye el trabajo.

Han pasado seis años desde que la familia de la joven interpuso esa demanda, cuyo estudio adquiere ahora tintes históricos porque tanto los legisladores, como los ciudadanos, la clase política y las propias plataformas tecnológicas han constatado, en todo este periodo de tiempo, que de las redes sociales emergen disfunciones que son funestas para la convivencia y la paz en las sociedades: desinformación incontrolable y discursos de odio que se extienden y se transforman en acciones reales, como demuestran los asaltos al Capitolio estadounidense en 2021 y a las máximas instituciones de Brasil en enero de este mismo año.

Para comprender esta importante batalla legal en Estados Unidos hay que retener una palabra y un número: Sección 230. Se trata de una disposición legislativa anexa a la Ley de Telecomunicaciones que fue aprobada en 1996, cuando las plataformas tecnológicas empezaban a despuntar. Esta norma libera a las redes sociales y otros actores de internet de cualquier responsabilidad por el contenido que publican. En su momento los legisladores trataban así de empujar a un sector emergente. Como recuerda en una columna de opinión publicada en New York Times la experta en tecnología Julia Angwin esta ley “fue creada cuando el número de sitios web podían contarse por miles, fue diseñada para proteger a las primeras empresas de Internet y de las demandas por difamación cuando sus usuarios inevitablemente se calumniaban unos a otros en los tablones de anuncios o salas de chat online”.

La realidad de Internet se ha transformado profundamente desde entonces. Decenas de estudios han demostrado cómo los algoritmos de recomendación impulsan preferentemente los contenidos más extremos y polarizantes, aquellos con mayor carga emocional. La normativa incluida en la “sección 230” ha operado como una barrera de contención para las plataformas tecnológicas que han invocado este principio legal para luchar, con éxito, contra las denuncias individuales y colectivas que han tenido que afrontar. Como explica la defensa de Google en la demanda que empieza a estudiar el Tribunal Supremo estadounidense, la Sección 230 les protege de la responsabilidad legal por los vídeos que muestran sus algoritmos de recomendación. Dicha inmunidad, sostienen, es esencial para que las empresas tecnológicas puedan brindar contenido útil a sus usuarios. Tocar este artículo, se alarman, es “debilitar una pieza central del Internet moderno” (…) “Permitir que las plataformas sean perseguidas judiciales por las recomendaciones (del algoritmo) las expondría a denuncias sobre el contenido de terceros absolutamente todo el tiempo”.

Google y el resto de gigantes tecnológicos tienen razón para estar preocupados. Hasta ahora los tribunales habían desestimado la demanda de la familia de Nohemi González. El Tribunal Supremo quiere escuchar sus argumentos antes de pronunciarse sobre la cuestión antes del mes de julio. Al admitir a trámite la demanda, los magistrados americanos podrían estar sugiriendo que ha llegado el momento de adaptar la jurisprudencia al complejo universo Internet de 2023.

El caso “Google contra González” no es el único. La corte estadounidense examina una segunda demanda que enfrenta a Twitter con la familia del jordano Nawras Alassaf, víctima de un atentado de Estado Islámico en Estambul (Turquía) en 2017. La familia de Alassaf acusa a Twitter, Google y Facebook de indolencia a la hora de controlar el contenido terrorista. Esta demanda plantea una interesante cuestión: ¿podría aplicarse la ley antiterrorista americana a las plataformas tecnológicas si la sección 230 no las hubiera protegido? Los magistrados estadounidenses tienen la palabra.