Nuestra sociedad y nuestra economía dependen de los servicios digitales. La crisis que ha llegado de la mano de la pandemia ha puesto de manifiesto que estamos viviendo una transformación donde las tecnologías digitales tienen su importancia en todos los aspectos de la vida moderna. Cuando se adoptó la Directiva sobre el comercio electrónico (2000/31/CE), se abrió camino a que apareciesen nuevos e innovadores servicios digitales que han transformado la vida cotidiana de los ciudadanos de la Unión Europea. Y con esto han llegado ventajas y riesgos que han surgido por el funcionamiento de estos servicios. En su momento, la Comisión Europea se comprometió a actualizar las normas que definen las responsabilidades y obligaciones de los prestadores de servicios digitales, y en especial en las plataformas en línea.
Así es como llegó la Ley de Servicios Digitales (DSA, en su siglas en inglés). En diciembre de 2020, se escribió en más de 200 páginas el borrador del futuro de internet en Europa, que incluye un firme llamamiento para proteger los derechos fundamentales en el entorno digital, así como el anonimato en línea siempre que sea posible. Además, también establecen obligaciones de transparencia e información para los prestadores de servicios digitales, y abogan por la imposición de obligaciones para actuar contra el contenido ilícito en línea. Esta propuesta pretende garantizar las mejores condiciones para la prestación de servicios digitales innovadores en el mercado, además de contribuir en la seguridad en línea, y establecer una estructura de gobernanza robusta y duradera.
En vigor en 2023
Según las previsiones de la Comisión, la DSA entrará en vigor en 2023 y, aunque en un principio parece un paquete legislativo lógico para combatir la manipulación, los abusos y la difusión de bulos y desinformación, han surgido muchas dudas sobre cómo afectará esta ley a la libertad de expresión en internet. Para debatir todo esto, la Plataforma en Defensa de la Libertad de Información (PDLI), junto a la Universidad de Valencia, celebraron el pasado martes un encuentro con eurodiputados y expertos. “Cuando se apruebe esta norma, los gobiernos tendrán que adaptar sus correspondientes legislaciones. El impacto nos va a afectar de manera inmediata”, explicaba Yolanda Quintana, co-fundadora y secretaria general de la PDLI.
Se pusieron sobre la mesa distintos artículos de este borrador para recalcar que el debate va más allá de la Unión Europea. Hay tres áreas que son especialmente relevantes sobre el impacto de la DSA en el derecho de la libertad de expresión:
Artículo 8. Órdenes de actuación contra contenidos ilícitos.
“1. Los prestadores de servicios intermediarios, cuando reciban una orden de actuación contra un elemento concreto de contenido ilícito, dictada por las autoridades judiciales o administrativas nacionales pertinentes, en virtud del Derecho de la Unión o nacional aplicable, de conformidad con el Derecho de la Unión, informarán a la autoridad que haya dictado la orden, sin dilaciones indebidas, acerca de su aplicación y especificarán las actuaciones realizadas y el momento en el que se realizaron.
2. Los Estados miembros velarán por las órdenes que se refiere el apartado 1.
3. El coordinador de servicios digitales del Estado miembro de la autoridad judicial o administrativa que dicte la orden transmitirá, sin dilaciones indebidas, una copia de las órdenes a que se refiere el apartado 1 a todos los demás coordinadores de servicios digitales a través del sistema establecido de conformidad con el artículo 67.
4. Las condiciones y los requisitos estipulados en el presente artículo se entenderán sin perjuicio de los requisitos establecidos en el Derecho procesal penal nacional de conformidad con el Derecho de la Unión”.
Con este artículo se plantea el posible efecto extraterritorial que algunas órdenes de las autoridades nacionales en el marco de la DSA pudieran lanzar. Según palabras de Joan Barata, experto internacional en materia de libertad de expresión y regulación de medios PLI, “las autoridades nacionales interpretan la ley nacional. Pueden tener un efecto enorme, extraterritorial y pueden ir más allá de las fronteras de la UE. No hay duda de que esto puede tener un impacto en la forma en que las plataformas regulan el contenido”. A lo que añadía Lorenzo Cotino, catedrático de Derecho Constitucional de la Universidad de Valencia: “Se debe concretar más la obligación que tienen las plataformas de cumplir las órdenes que reciben de los estados”.
Artículo 14. Mecanismos de notificación y acción.
“1. Los prestadores de servicios de alojamiento de datos establecerán mecanismos que permitan que cualquier persona física o entidad les notifique la presencia en su servicio de elementos de información concretos que esa persona física o entidad considere contenidos ilícitos. Dichos mecanismos serán de fácil acceso y manejo, y permitirán el envío de avisos exclusivamente por vía electrónica.
2. Los mecanismos mencionados en el apartado 1 serán tales que faciliten el envío de avisos suficientemente precisos y adecuadamente fundamentos, de acuerdo con los cuales un operador económico diligente pueda determinar la ilicitud del contenido en cuestión.”
El artículo plantea la posibilidad de solicitar o informar a las plataformas que un contenido puede ser ilegal. “Queda trabajo por hacer en la redacción de este artículo. Es necesario garantizar que antes de adoptar cualquier decisión sobre deshabilitar el acceso o eliminar contenido, los proveedores de alojamiento tienen derecho y están obligados a hacer su propia valoración de buena fe sobre la base de los principios de legalidad, necesidad y proporcionalidad”, comentaba Barata. Joao Pedro Quintais, profesor en la Universidad de Amsterdam también comentaba que con este artículo “se plantean ciertos problemas en cuanto a qué es el contenido ilegal. Es un punto muy amplio que se puede complementar con el artículo 43 que habla del conocimiento efectivo”.
Artículo 26. Evaluación de riesgos.
“Las plataformas en línea de muy gran tamaño detectarán, analizarán y evaluarán desde la fecha de aplicación a que se refiere el artículo 25, apartado 4, párrafo segundo, y al menos una vez al año a partir de entonces, cualquier riesgo sistémico significativo que se derive del funcionamiento y uso que haga de sus servicios en la Unión: la difusión de contenido ilícito a través de sus servicios; cualquier efecto negativo para el ejercicio de los derechos fundamentales; la manipulación deliberada de su servicio”.
Artículo 27. Reducción de riesgos.
“Las plataformas en línea de muy gran tamaño aplicarán medidas de reducción de riesgos razonables, proporcionadas y efectivas, adaptadas a los riesgos sistémicos específicos detectados de conformidad con el artículo 26”.
“Aunque estos artículos se aplican solo a las plataformas muy grandes (con más de 45 millones de usuarios), estas provisiones incluyen una serie de obligaciones y se plantea un riesgo según la forma en la que una plataforma opera o está constituida. Puede tener un impacto innecesario y desproporcionado en el derecho a la libertad de expresión”, explicaba Barata. “En tal contexto, la adecuada introducción y aplicación de principios y salvaguardias en materia de protección de los derechos humanos como libertad de expresión se convierte en un requisito ineludible”.
Adrián Vázquez Lázara, miembro del Parlamento Europeo y presidente de la comisión Asuntos Jurídicos en la Comisión Europea también quiso insistir en que aún queda un trabajo duro de consenso y mejora en esta ley. “Hay que acotar mejor y saber hasta dónde las plataformas pueden intervenir. Necesitamos que las plataformas identifiquen e internalicen los riesgos de su actividad y debemos de garantizar que todo lo que es ilícito offline, también lo sea online. Es imprescindible aclarar los mecanismos idóneos para retirar contenido ilegal de manera casi automática, pero también se plantean retos legislativos y técnicos”.
Por su parte, Irene Roche Laguna, jefa de unidad de la implementación del marco regulador de las telecomunicaciones en la Comisión Europea y profesora en College of Europe, también declaró que “la intención de la Comisión cuando se elabora una propuesta puede diferir de la publicación final que aprobará el Parlamento. Con esta Ley la intención es que se cree un instrumento del mercado interno que queremos armonizar, y queremos permitir la gestión y el control de los derechos fundamentales en el marco online. Necesitamos construir normas que se aplique de forma proporcionada según el impacto, el tamaño y el alcance de estos servicios”.