La Comisión Europea ha dado a conocer unas conclusiones preliminares que apuntan a que TikTok y Meta no estarĆan cumpliendo las obligaciones de transparencia de la Ley de Servicios Digitales (DSA), al poner trabas al acceso de investigadores acreditados a datos pĆŗblicos. De confirmarse, estas prĆ”cticas podrĆan conllevar multas de hasta el 6% de su facturación global.
En paralelo, Bruselas seƱala que Facebook e Instagram (Meta) no ofrecerĆan un mecanismo sencillo de Ā«aviso y acciónĀ» para denunciar contenidos ilĆcitos ni un sistema de recursos eficaz, y que ademĆ”s podrĆan estar empleando patrones oscuros en sus interfaces. Estos hallazgos, segĆŗn el Ejecutivo comunitario, complican el escrutinio pĆŗblico y la protección de los usuarios, especialmente de los menores.
QuƩ investiga Bruselas y por quƩ ahora

Las pesquisas forman parte de los procedimientos formales abiertos en virtud de la DSA contra las dos plataformas, con un foco claro: el acceso de investigadores a datos pĆŗblicos y, en el caso de Meta, la eficacia de las herramientas para denunciar y recurrir decisiones de moderación. SegĆŗn Bruselas, Facebook, Instagram y TikTok habrĆan establecido procedimientos gravosos que desembocan en información parcial o poco fiable.
Las compaƱĆas podrĆ”n examinar los expedientes y responder por escrito a las conclusiones preliminares. La Comisión recuerda que, si persisten las dudas, podrĆa dictar una decisión de incumplimiento e imponer sanciones, incluyendo multas coercitivas para forzar el cumplimiento.
La vicepresidenta ejecutiva Henna Virkkunen subraya que las plataformas deben empoderar a los usuarios, respetar sus derechos y abrir sus sistemas al escrutinio. No es una opción, insiste, sino una exigencia legal de la DSA para garantizar la rendición de cuentas.
Este impulso regulatorio se refuerza con el acto delegado que entra en vigor el 29 de octubre, el cual concederÔ a los investigadores acreditados acceso a datos no públicos de plataformas de muy gran tamaño con el fin de detectar riesgos sistémicos y elevar la transparencia.
Acceso a datos y transparencia bajo la DSA

La DSA convierte el acceso a datos en una pieza clave para evaluar riesgos como la desinformación, el impacto de los algoritmos o la exposición de menores a contenidos dañinos. Según las conclusiones preliminares, los sistemas actuales de Meta y TikTok entorpecen las solicitudes de investigadores, dejando a menudo información incompleta.
Bruselas recuerda que las grandes plataformas con mĆ”s de 45 millones de usuarios en la UE deben abrir sus sistemas al escrutinio pĆŗblico. Negar o dificultar este acceso mina la transparencia y limita la capacidad de expertos independientes para analizar cómo se moderan contenidos y cómo operan las recomendaciones algorĆtmicas.
Permitir ese escrutinio no solo favorece la investigación acadĆ©mica, sino que aporta seguridad jurĆdica a las propias plataformas y fortalece la confianza de los usuarios, un objetivo central de la regulación europea.
El Ejecutivo comunitario insiste en que la transparencia no depende de la buena voluntad de las tecnológicas: es una obligación legal que busca prevenir daños y elevar los estÔndares de responsabilidad en todo el ecosistema digital.
Meta: aviso y acción, apelaciones y patrones oscuros

AdemĆ”s del acceso a datos, la Comisión pone el acento en los mecanismos de notificación de contenido ilĆcito de Meta. Los sistemas actuales en Facebook e Instagram impondrĆan pasos innecesarios y exigencias adicionales, dificultando la denuncia de material como abuso sexual infantil o contenidos terroristas.
Bruselas tambiĆ©n aprecia el uso de patrones oscuros (diseƱos de interfaz que confunden o disuaden) en procesos de aviso y acción, lo que podrĆa mermar la eficacia de la retirada de contenidos ilĆcitos. Para la UE, estas prĆ”cticas pueden resultar confusas y disuasorias para los usuarios.
En materia de recursos, los procedimientos de apelación de Facebook e Instagram no permitirĆan aportar explicaciones o pruebas de apoyo, limitando el derecho de defensa frente a decisiones de moderación. SegĆŗn datos citados por el Ejecutivo comunitario, desde abril de 2024 Meta adoptó en Europa mĆ”s de 918 millones de decisiones de moderación; 68 millones fueron recurridas y en torno al 31% se restituyó el contenido.
Meta ha rechazado las acusaciones y asegura haber introducido cambios en la UE para adaptar sus sistemas de denuncia, apelación y acceso a datos a la DSA. La compaƱĆa sostiene que sus soluciones se ajustan a la ley y se declara dispuesta a cooperar con la Comisión.
TikTok: obstƔculos al escrutinio y riesgos para menores

En el caso de TikTok (ByteDance), Bruselas señala procedimientos excesivamente complejos para que investigadores externos soliciten acceso a datos públicos, lo que genera conjuntos de datos incompletos o poco fiables. Este punto preocupa especialmente dada la elevada presencia de público joven en la plataforma.
La Comisión sostiene que estas barreras impiden evaluar con rigor los riesgos sistĆ©micos vinculados a algoritmos y sistemas de recomendación. TikTok afirma estar comprometida con la transparencia y haber facilitado acceso a equipos de investigación, aunque advierte de posibles tensiones entre la DSA y el RGPD que, a su juicio, requerirĆan aclaraciones regulatorias.
Ambas plataformas disponen ahora de un plazo para responder por escrito y proponer medidas correctivas. Si la Comisión confirma las infracciones, podrÔ dictar una decisión de incumplimiento e imponer sanciones de hasta el 6% del volumen de negocio mundial, asà como multas periódicas hasta lograr el cumplimiento efectivo.
Desde Bruselas se insiste en que la DSA protege la libertad de expresión y dota a los ciudadanos de herramientas para impugnar decisiones unilaterales de moderación, según ha remarcado también el portavoz digital europeo Thomas Regnier. La prioridad, recalca el Ejecutivo, es elevar la responsabilidad y la transparencia del entorno digital en Europa.
La fotografĆa que dibuja este expediente es clara: investigación en curso, compaƱĆas con margen para corregir y una UE dispuesta a hacer valer la DSA. Si Meta y TikTok responden con soluciones solventes, podrĆ”n evitar sanciones y reforzar la confianza; si no, el marco sancionador y el nuevo acceso a datos marcarĆ”n el paso de una transparencia mĆ”s exigente en las grandes plataformas.