En ese país, el sorpresivo ascenso del candidato Călin Georgescu encendió todas las alarmas de las autoridades locales. El Servicio Rumano de Inteligencia (SRI) confirmó que su campaña estuvo respaldada por una operación de injerencia “con el modo de actuar de un actor estatal”, sin mencionar directamente a Rusia. Documentos desclasificados por orden del presidente Klaus Iohannis revelaron una red coordinada de 25,000 cuentas de TikTok —muchas creadas desde 2016 pero activadas justo dos semanas antes de la primera vuelta del 24 de noviembre de 2024— que impulsaron masivamente al candidato. A través de Telegram, una red paralela organizó y dirigió la difusión de contenidos prorrusos en TikTok, Facebook y YouTube.
El informe de inteligencia detalló que esta maquinaria de desinformación incluyó financiamiento externo de al menos un millón de euros no declarado. TikTok reconoció pagos por 381,000 dólares en un solo mes, canalizados a través de la plataforma FameUP, que ofrecía hasta 1,000 euros por cada video publicado por ‘influencers’. Una cuenta identificada como “bogpr”, vinculada a un ciudadano rumano relacionado con empresas tecnológicas y criptográficas, coordinó parte de esta operación. La estrategia fue cuidadosamente diseñada para eludir las políticas de seguridad de TikTok y evitar la detección de patrones automatizados.
Un problema estructural: investigadores sin acceso
Paradójicamente, mientras los servicios de inteligencia rumanos lograron rastrear esta campaña de injerencia, investigadores civiles independientes se toparon con un muro: la propia API de TikTok bajo el marco de la DSA les negó el acceso a metadatos esenciales. Según el informe académico mencionado, aunque TikTok puso a disposición una API de investigación en marzo de 2024, las barreras técnicas, legales y logísticas continúan impidiendo el acceso efectivo a datos como atributos demográficos, tipo de cuenta o métricas detalladas sobre visualización y amplificación de contenido.
En particular, el documento señala que, para el caso de Rumania, los investigadores no pudieron obtener los datos necesarios para estudiar cómo se propagó el contenido político en TikTok durante la campaña. La falta de transparencia no fue exclusiva de TikTok: Instagram y YouTube también ofrecen datos limitados, y la mayoría de las veces, el acceso requiere aprobaciones internas de las plataformas, lo que compromete la independencia del proceso.
Ciberataques y una red sofisticada
La operación no se limitó al ámbito digital. Los documentos del Consejo Supremo de Defensa del País (CSAT) indican que se registraron más de 85,000 ciberataques atribuidos a Rusia contra infraestructuras electorales rumanas. Según la televisión Digi24, estos ataques buscaron “dividir a la sociedad” y “amplificar narrativas antioccidentales”. Georgescu, que pasó del 6 % al 23 % en la primera vuelta gracias al impulso en redes, se enfrentará en segunda ronda a la candidata europeísta Elena Lasconi.
El SRI también señaló la participación de una empresa de marketing digital especializada en campañas de manipulación en redes sociales, lo que revela la complejidad y profesionalización de estas operaciones.
Transparencia prometida… pero no cumplida
Lo que comenzó como una promesa sin precedentes de acceso a datos para combatir riesgos sistémicos en plataformas digitales se ha convertido en una trampa burocrática para académicos, periodistas y defensores de la transparencia. El Reglamento de DSA, pieza clave de la legislación tecnológica europea, introdujo el artículo 40 para obligar a las grandes plataformas a compartir datos con investigadores autorizados. Sin embargo, a un año de su entrada en vigor, el acceso a esos datos sigue prácticamente bloqueado.
El callejón sin salida
El DSA exige que las plataformas designadas como Very Large Online Platforms (VLOPs) —como Google, Meta o TikTok— permitan el acceso a sus datos internos a investigadores “acreditados”, con el fin de estudiar riesgos sistémicos que afecten a ciudadanos europeos. Pero el mecanismo ha demostrado ser inoperante por dos razones fundamentales.
Primero, la ley solo permite acceso a datos relacionados con riesgos sistémicos, una categoría jurídica aún difusa. Segundo, y más crítico: las plataformas exigen que los investigadores sean específicos sobre los datos que solicitan, pero estos no pueden saber qué datos existen realmente, porque esa información también está cerrada al público. “Es una paradoja”, señalan los autores del estudio: “se exige especificidad sin posibilidad de conocimiento previo”.
Los académicos señalan que la investigación científica sobre manipulación electoral digital requiere acceso a información que revele cómo se difunden los contenidos, cómo se segmentan los usuarios, y qué parámetros usa el algoritmo para amplificar ciertos discursos. Sin embargo, este tipo de información suele considerarse estratégica o comercialmente sensible por parte de las plataformas, lo que limita su disponibilidad incluso bajo regulaciones como el DSA.
Implicaciones para la libertad de prensa y la rendición de cuentas
Este punto muerto regulatorio no solo afecta a la academia. Las limitaciones de acceso también impactan a periodistas de investigación que intentan exponer cómo se usan las plataformas para influir en elecciones, promover discursos de odio o manipular la opinión pública. Aunque el DSA fue diseñado con un espíritu de transparencia, la ejecución práctica ha favorecido a las plataformas, que controlan el acceso y delimitan los márgenes de lo que puede conocerse.
En el taller «OSINT + IA para periodistas» analizaremos estas problemáticas y presentaremos algunas opciones que pueden contribuir a combatir el cierre y la opacidad de las plataformas digitales.