InicioNoticiasEuropa aprueba nuevas medidas para frenar la difusión de contenidos ilegales o...

Europa aprueba nuevas medidas para frenar la difusión de contenidos ilegales o desinformación en las redes sociales

Las medidas, además de proteger a los usuarios y solicitar más transparencia a las redes sociales, otorgan a la Comisión y Estados miembros el derecho a censurar o restringir cierta información en caso de situaciones críticas

El Parlamento Europeo y el Consejo Europeo llegan a un acuerdo para aprobar las medidas recogidas en la Ley de Servicios Digitales (DSA, por sus siglas en inglés) dirigidas a sujetar a las grandes tecnológicas a una mayor responsabilidad por el contenido ilegal que se difunda en sus plataformas y servicios.
La aprobación ha concluido en la madrugada del sábado en Bruselas tras más de 16 horas de debate sobre las medidas recogidas en la DSA. Esta ley es pionera, pues está dirigida expresamente a las grandes compañías de Internet que hacen de intermediarios. A su vez, permite que los Gobiernos supervisen y controlen lo que suceda o pueda suceder en ellas.
«Estas nuevas normas protegerán a los usuarios de Internet», ha dicho Ursula von der Leyen, presidente de la Comisión Europea (CE), celebrando el acuerdo. «Lo que es ilegal fuera de la red será ilegal también dentro de ella en Europa».
Responsabilidad para los servicios intermediarios
La DSA se compone de varias medidas dirigidas a proteger la privacidad de sus usuarios, aumentar la transparencia de los algoritmos de las redes sociales, proteger a los menores, y, como novedad más significativa, dotar a la Unión Europea y a todos los estados miembros la posibilidad de supervisar tanto el funcionamiento de las redes sociales como el contenido que en éstas se difunde.
La Unión Europea tendrá acceso a los algoritmos que emplean las grandes plataformas online (La DSA considera como gran plataforma online a aquella que cuenten con más de 45 millones de usuarios activos al mes). Es decir, todos los Estados miembros de la UE podrán conocer con exactitud cómo funcionan los algoritmos que emplean para servir contenido que aumente el tiempo del usuario dentro de la aplicación.
Tanto Facebook como Google y similares estarán obligadas a ofrecer sistemas claros, rápidos y concisos que promuevan que los usuarios informen de contenido ilegal dentro de la plataforma. Tendrán que eliminarlo rápidamente, o se enfrentarán a multas récord, ya que su cuantía estará basada en el porcentaje de ganancias globales de la empresa, y no sólo de sus negocios en Europa.
Las víctimas de ciberviolencia estarán especialmente protegidas frente a la difusión de contenido sin su permiso (lo que se conoce como revenge porn), y las redes sociales tendrán que eliminarlo de forma inmediata. Esta inmediatez requerirá de una mayor inversión en equipos de moderación, ya que los algoritmos de inteligencia artificial no pueden saber si las fotografías o vídeos se han difundido con el consentimiento de la persona que sale en éstos.
Más transparencia para los usuarios… y para los Gobiernos
Cualquier servicio o red social de gran tamaño que emplee un sistema de recomendación de contenido o lo ordene por preferencias del usuario deberá ofrecer a su vez una opción que no tenga en cuenta sus preferencias. Es decir, Instagram tendrá que recomendarte cosas que podrían gustarte sin poderte preguntar qué es lo que te gusta. Sería como ir a pedir al librero que te recomiende un libro pero sin decirle qué te gusta o qué libros disfrutaste leyendo; te quedas callado y exiges que te recomiende algo bueno con ayuda de la ciencia infusa. Todo esto no tiene ningún sentido. Así que, a efectos prácticos, las redes sociales recurrirán a ofrecer sistemas de ordenamiento cronológico junto a los algoritmos de aprendizaje automático que emplean actualmente. La clave es que habrá la opción de evitar el algoritmo; pero en redes sociales como TikTok esto vuelve a carecer de sentido: atenta contra el propósito mismo del servicio.
Comenta con tu Facebook!

Subidas Recientes

Compra tu hosting ya!