DSA: Comienza la moderación en plataformas como TikTok, Google y Facebook bajo nueva Ley de la UE

/

rrss esa

A partir de este viernes, un total de 19 destacadas compañías que prestan servicios en plataformas digitales, incluyendo nombres como Google, TikTok, Instagram y Facebook, se embarcan en la tarea de moderar sus contenidos según las disposiciones de la recientemente implementada Ley de Servicios Digitales (DSA, por sus siglas en inglés) de la Unión Europea (UE). Aunque algunos podrían temer que esta medida implique censura, las autoridades aseguran que busca proteger la libertad de expresión y salvaguardar los derechos de los ciudadanos.

La medida fue puesta en vigor el 16 de noviembre del año pasado, pero es desde este 25 de agosto cuando las 19 gigantes compañías deberán ajustarse a sus regulaciones. Cabe mencionar que la DSA aplica a aquellas plataformas con al menos 45 millones de usuarios activos mensuales.

¿Qué Plataformas están Afectadas por la DSA?

Las plataformas afectadas incluyen a algunas de las más populares y utilizadas a nivel mundial, como TikTok, X (antes conocida como Twitter), Google, Facebook, Instagram, Wikipedia, Zalando, AliExpress, Amazon, la AppStore de Apple, Bing, Booking, LinkedIn, Pinterest, Snapchat y YouTube. Estas empresas se ven ahora en la obligación de cumplir con los nuevos requisitos de transparencia en el contenido online y la protección de los menores.

Según las palabras del comisario europeo de Mercado Interior, Thierry Breton, «la moderación del contenido no significa censura. En Europa no habrá un Ministerio de la Verdad. Lo que habrá será transparencia. En procesos algorítmicos, bots y anuncios personalizados».

Noticias Relacionadas
  • detención pdi robo veterinaria

    Detienen a sujetos que ofrecían por RRSS especies robadas desde clínica veterinaria en Maipú

Objetivos y Alcance de la Ley

La DSA demanda que las plataformas eliminen de manera rápida cualquier contenido ilegal presente en sus sitios web, siempre y cuando tengan conocimiento de su existencia. Además, los sistemas de inteligencia artificial utilizados por estas plataformas deberán indicar si los contenidos, especialmente videos o imágenes, son falsos y suponen un riesgo para la salud física o mental.

La protección de los menores y la lucha contra la desinformación, incluida la propaganda prorrusa, se erigen como prioridades bajo esta nueva legislación. La ley prohíbe el uso de «patrones oscuros» diseñados para manipular a los consumidores y también exige que las empresas presenten informes anuales para asegurar el cumplimiento de estos requisitos.

Sanciones y Supervisión

En caso de incumplimiento de los requisitos, la ley contempla multas que pueden llegar hasta el 6% de la facturación anual global de las plataformas. Además, la Comisión Europea ha establecido el Centro Europeo por la Transparencia Algorítmica (ECAT) para analizar técnicamente los algoritmos y evaluar si las plataformas están cumpliendo con las regulaciones.

Síguenos en:
Suscríbete en:
«
»