Bruselas acusa a TikTok y Meta de incumplir normas de transparencia

  • La Comisión Europea concluye de forma preliminar que TikTok y Meta dificultan el acceso de investigadores a datos pĆŗblicos exigido por la DSA.
  • Meta, ademĆ”s, no ofrecerĆ­a mecanismos sencillos de aviso y acción ni vĆ­as de apelación eficaces; se seƱalan tambiĆ©n posibles patrones oscuros.
  • Si se confirman las infracciones, las multas podrĆ­an alcanzar el 6% de la facturación mundial y contemplarse multas coercitivas.
  • Las plataformas pueden responder a las conclusiones; el acto delegado sobre acceso a datos no pĆŗblicos entra en vigor el 29 de octubre.

Investigación europea sobre transparencia en plataformas digitales

La Comisión Europea ha dado a conocer unas conclusiones preliminares que apuntan a que TikTok y Meta no estarían cumpliendo las obligaciones de transparencia de la Ley de Servicios Digitales (DSA), al poner trabas al acceso de investigadores acreditados a datos públicos. De confirmarse, estas prÔcticas podrían conllevar multas de hasta el 6% de su facturación global.

En paralelo, Bruselas señala que Facebook e Instagram (Meta) no ofrecerían un mecanismo sencillo de «aviso y acción» para denunciar contenidos ilícitos ni un sistema de recursos eficaz, y que ademÔs podrían estar empleando patrones oscuros en sus interfaces. Estos hallazgos, según el Ejecutivo comunitario, complican el escrutinio público y la protección de los usuarios, especialmente de los menores.

QuƩ investiga Bruselas y por quƩ ahora

Procedimiento formal de la Comisión Europea bajo la DSA

Las pesquisas forman parte de los procedimientos formales abiertos en virtud de la DSA contra las dos plataformas, con un foco claro: el acceso de investigadores a datos públicos y, en el caso de Meta, la eficacia de las herramientas para denunciar y recurrir decisiones de moderación. Según Bruselas, Facebook, Instagram y TikTok habrían establecido procedimientos gravosos que desembocan en información parcial o poco fiable.

Las compañías podrÔn examinar los expedientes y responder por escrito a las conclusiones preliminares. La Comisión recuerda que, si persisten las dudas, podría dictar una decisión de incumplimiento e imponer sanciones, incluyendo multas coercitivas para forzar el cumplimiento.

La vicepresidenta ejecutiva Henna Virkkunen subraya que las plataformas deben empoderar a los usuarios, respetar sus derechos y abrir sus sistemas al escrutinio. No es una opción, insiste, sino una exigencia legal de la DSA para garantizar la rendición de cuentas.

Este impulso regulatorio se refuerza con el acto delegado que entra en vigor el 29 de octubre, el cual concederÔ a los investigadores acreditados acceso a datos no públicos de plataformas de muy gran tamaño con el fin de detectar riesgos sistémicos y elevar la transparencia.

  DeepSeek presenta nuevos modelos de IA de razonamiento avanzado

Acceso a datos y transparencia bajo la DSA

Transparencia y acceso a datos para investigadores

La DSA convierte el acceso a datos en una pieza clave para evaluar riesgos como la desinformación, el impacto de los algoritmos o la exposición de menores a contenidos dañinos. Según las conclusiones preliminares, los sistemas actuales de Meta y TikTok entorpecen las solicitudes de investigadores, dejando a menudo información incompleta.

Bruselas recuerda que las grandes plataformas con mÔs de 45 millones de usuarios en la UE deben abrir sus sistemas al escrutinio público. Negar o dificultar este acceso mina la transparencia y limita la capacidad de expertos independientes para analizar cómo se moderan contenidos y cómo operan las recomendaciones algorítmicas.

Permitir ese escrutinio no solo favorece la investigación académica, sino que aporta seguridad jurídica a las propias plataformas y fortalece la confianza de los usuarios, un objetivo central de la regulación europea.

El Ejecutivo comunitario insiste en que la transparencia no depende de la buena voluntad de las tecnológicas: es una obligación legal que busca prevenir daños y elevar los estÔndares de responsabilidad en todo el ecosistema digital.

Meta: aviso y acción, apelaciones y patrones oscuros

Mecanismos de denuncia y apelación en Facebook e Instagram

AdemÔs del acceso a datos, la Comisión pone el acento en los mecanismos de notificación de contenido ilícito de Meta. Los sistemas actuales en Facebook e Instagram impondrían pasos innecesarios y exigencias adicionales, dificultando la denuncia de material como abuso sexual infantil o contenidos terroristas.

Bruselas también aprecia el uso de patrones oscuros (diseños de interfaz que confunden o disuaden) en procesos de aviso y acción, lo que podría mermar la eficacia de la retirada de contenidos ilícitos. Para la UE, estas prÔcticas pueden resultar confusas y disuasorias para los usuarios.

  Nvidia invierte 2.000 millones en Synopsys para reforzar su apuesta por la IA

En materia de recursos, los procedimientos de apelación de Facebook e Instagram no permitirían aportar explicaciones o pruebas de apoyo, limitando el derecho de defensa frente a decisiones de moderación. Según datos citados por el Ejecutivo comunitario, desde abril de 2024 Meta adoptó en Europa mÔs de 918 millones de decisiones de moderación; 68 millones fueron recurridas y en torno al 31% se restituyó el contenido.

Meta ha rechazado las acusaciones y asegura haber introducido cambios en la UE para adaptar sus sistemas de denuncia, apelación y acceso a datos a la DSA. La compañía sostiene que sus soluciones se ajustan a la ley y se declara dispuesta a cooperar con la Comisión.

TikTok: obstƔculos al escrutinio y riesgos para menores

Evaluación de TikTok bajo la Ley de Servicios Digitales

En el caso de TikTok (ByteDance), Bruselas señala procedimientos excesivamente complejos para que investigadores externos soliciten acceso a datos públicos, lo que genera conjuntos de datos incompletos o poco fiables. Este punto preocupa especialmente dada la elevada presencia de público joven en la plataforma.

La Comisión sostiene que estas barreras impiden evaluar con rigor los riesgos sistémicos vinculados a algoritmos y sistemas de recomendación. TikTok afirma estar comprometida con la transparencia y haber facilitado acceso a equipos de investigación, aunque advierte de posibles tensiones entre la DSA y el RGPD que, a su juicio, requerirían aclaraciones regulatorias.

Ambas plataformas disponen ahora de un plazo para responder por escrito y proponer medidas correctivas. Si la Comisión confirma las infracciones, podrÔ dictar una decisión de incumplimiento e imponer sanciones de hasta el 6% del volumen de negocio mundial, así como multas periódicas hasta lograr el cumplimiento efectivo.

Desde Bruselas se insiste en que la DSA protege la libertad de expresión y dota a los ciudadanos de herramientas para impugnar decisiones unilaterales de moderación, según ha remarcado también el portavoz digital europeo Thomas Regnier. La prioridad, recalca el Ejecutivo, es elevar la responsabilidad y la transparencia del entorno digital en Europa.

  Las filtraciones falsas de GTA 6 hechas con IA que han confundido a millones

La fotografía que dibuja este expediente es clara: investigación en curso, compañías con margen para corregir y una UE dispuesta a hacer valer la DSA. Si Meta y TikTok responden con soluciones solventes, podrÔn evitar sanciones y reforzar la confianza; si no, el marco sancionador y el nuevo acceso a datos marcarÔn el paso de una transparencia mÔs exigente en las grandes plataformas.

ArtĆ­culo relacionado:
¿Qué es la GDPR y como nos afecta como consumidores?