← Editorial

Ciberputis: la fábrica invisible que reta a la verdad democrática

La factoria: organización, ritmos y objetivos

Editorial HDLGP·

El Kremlin ha profesionalizado la guerra política en Internet y ha construido una industria de desinformación que mezcla bots, cuentas pagadas y narrativas recicladas para corroer la confianza pública y doblar el relato democrático. Sus técnicas no son amateurismo: son ingeniería social aplicada a gran escala.

En la guerra por la atención la munición ya no son balas sino mensajes: millones de micropropagandas que repiten, amplifican y contaminan la realidad hasta convertirla en un río lodoso donde nada flota con seguridad.

La factoria: organización, ritmos y objetivos

Desde los informes que desvelaron la actividad de la llamada Internet Research Agency de San Petersburgo hasta las filtraciones del propio aparato del Kremlin sobre campañas millonarias, hay un patrón recurrente: esto no es un activismo disperso sino una industria. Empleados que cumplían turnos de horas interminables y cuotas de centenares de impactos diarios han contado cómo se organizan las operaciones —crear cuentas, preparar guiones, fijar “anclas” informativas y lanzar oleadas coordinadas— para saturar debates y condicionar la agenda pública RFE/RL. La finalidad es dual: amplificar mensajes favorables a Moscú y, sobre todo, erosionar la creencia en hechos verificables y en las instituciones que los avalan.

Esa industria combina recursos humanos y automatización: cuentas humanas que trabajan por turnos, microtrabajadores de países remotos y “troll farms” que cuentan con infraestructura técnica para rotar IPs, saltarse bloqueos y multiplicar apariencias de apoyo. El objetivo operativo no es tanto convencer masivamente como crear marea: que una afirmación llegue repetida, fragmentada y contradicha lo suficiente como para que el ciudadano desista de buscar la verdad. En ese proceso emergen figuras que en la jerga del campo son las “ciberputis”: cuentas —a veces personas pagadas, otras automatismos— dedicadas a sembrar ruido, polarizar y enganchar audiencias.

La inversión es real y estratégica. Documentos filtrados recogidos por medios como France24 muestran planes de propaganda a gran escala con millones de euros destinados a cine, series y producción mediática para moldear percepciones sobre Rusia y su papel internacional France24. Cuando una operación tiene continuidad en el tiempo, deja de ser un timo local para convertirse en un vector político con retornos palpables: apoyo a partidos, normalización de discursos y desgaste de adversarios.

Técnicas de guerra narrativa: mezcla, anclaje y saturación

La táctica central de estas campañas no es inventar siempre la mentira más espectacular, sino mezclar verdades, medias verdades y falsedades con una intencionalidad precisa. Esta es la estrategia del “mezclar churras con merinas”: una cifra real aquí, una foto sacada de contexto allá, un testimonio anclado como prueba, y a continuación la reapropiación del debate por completo. El efecto es doble: quien busca refutar se ve arrastrado a desmontar piezas aisladas, mientras el público general queda confuso y escéptico.

Existe un procedimiento psicológico repetido: el anclaje. Se inserta una afirmación parcialmente cierta —un titular, un dato— que sirve de palanca para introducir falsedades más dañinas. Cuando la realidad posterior corrige la pieza falsa, la impresión de duda ya ha calado; un resto de sospecha permanece y se convierte en capital narrativo: “si no todo es mentira, ¿cómo fiarnos de lo demás?”. Estudios académicos sobre control reflexivo y construcción mediada de la realidad han mostrado cómo estas interacciones online pueden “reconstruir” marcos de sentido útiles para quien financia la campaña SAGE.

A esto hay que añadir la saturación: el objetivo no es un debate limpio sino ruido blanco. Cientos o miles de posts, réplicas, vídeos y memes que impiden la elaboración de discursos complejos y dejan paso a consignas sencillas y emocionalmente cargadas. Al fenómeno se suman los “oswaldos” —conspiranoicos, negacionistas y activistas radicales que actúan como multiplicadores— que, por afinidad ideológica o por interés, amplifican narrativas sin exigir verificación. El resultado es la laminación de la confianza social: instituciones y medios quedan bajo sospecha permanente, y la discrepancia racional se sustituye por versiones contrapuestas que se anulan entre sí.

Los mensajes que repiten las máquinas y por qué funcionan

Las campañas pro-Kremlin no carecen de repertorio temático; repiten una serie de narrativas concretas que han mostrado eficacia para polarizar y debilitar apoyos occidentales. Entre ellas aparecen de forma recurrente: 1) “Occidente está corrupto y es hipócrita”, 2) “La UE es decadente e incapaz”, 3) “La OTAN provoca y amplía conflictos”, 4) “Ucrania es corrupta o directamente ‘nazi’/artificio político” y 5) “Rusia actúa en defensa propia o como alternativa de orden frente al caos liberal”. Cada una de estas frases funciona como eslogan‑ancla: simple, emocional y fácil de amplificar en audio, vídeo o texto corto.

La técnica del “versionado” contribuye a su viabilidad: una pieza informativa legítima —por ejemplo, una investigación o una filtración real— se reutiliza para sostener otra muy distinta. Así se pueden presentar documentos adulterados o testimonios fuera de contexto como prueba de conspiraciones mayores; luego, cuando se demuestra el fraude, el daño está hecho: el relato alternativo ya tiene ecos en grupos y medios afines. Los casos en que se han difundido documentos alterados —y su identificación pública posterior— ilustran cómo la desinformación puede jugar con la apariencia de autenticidad para sembrar dudas duraderas.

El objetivo político último es la deslegitimación: socavar el apoyo a Ucrania, fracturar consensos europeos, erosionar políticas de sanción, y alimentar a actores políticos domésticos que convergen con estas narrativas. Esa convergencia no es siempre por pago directo: hay alianzas tácticas entre ideologías —populistas de derecha, segmentos de la izquierda posmoderna, activistas anti‑sistema— que encuentran en los mensajes pror rusos un terreno común. La propaganda, por tanto, explota afinidades preexistentes y las refuerza con músculo técnico.

De las granjas al telediario: cadena de transmisión y cómplices involuntarios

Una parte esencial del esquema es la canalización: los mensajes no quedan en burbujas oscuras, sino que escalan hacia medios más “respetables” a través de intermediarios. Existen ejemplos documentados en los que perfiles y cuentas con agenda prorrusa han sido identificados y ligados a actores concretos, incluidos ex militares y periodistas que, por dinero o por convicción, han reproducido consignas que luego circulan en espacios de mayor audiencia. El caso de cuentas que difundieron narrativas sobre Ucrania y fueron rastreadas hasta identidades profesionales en Estados Unidos ilustra ese cruce entre lo profesional y lo propagandístico.

En paralelo, grandes plataformas mediáticas han servido como amplificadores. La querella judicial contra determinados medios y los correos internos revelados durante litigios (por ejemplo en el caso de grandes cadenas) han mostrado cómo piezas de desinformación pueden encontrar cobertura o al menos difusión indirecta en canales de masas Washington Post sobre el caso Dominion y cobertura mediática. No todas las apariciones en medios se explican por complicidad consciente: hay periodistas y tertulianos que repiten talking points sin verificar, atraídos por la novedad o por la polarización que genera audiencia. Pero también hay colaboradores que actúan como vectores conscientes, y es en la convivencia de ambos fenómenos donde la propaganda gana terreno.

Ese tránsito —de granja a divulgador, de divulgador a tertulia— es la puerta por la que teorías alimentadas por Moscú se normalizan. A menudo, un mensaje “ensayado” en redes parece luego legítimo porque aparece citado en un programa de televisión o en una columna: la reputación del medio transfiere credibilidad al contenido, aunque su origen sea manufacturado. De ahí la importancia de romper la cadena en los primeros eslabones, detectando y señalando operaciones coordinadas antes de que lleguen al mainstream.

Financiamiento, estructuras y actores estatales

Los documentos filtrados y las investigaciones periodísticas han puesto sobre la mesa la magnitud y la planificación estatal de estas campañas. Informes periodísticos recientes han descrito esfuerzos millonarios del Kremlin para construir una industria cultural y mediática que sostenga narrativas favorables al régimen y erosione la posición occidental en múltiples frentes France24 sobre operaciones millonarias del Kremlin. Además, la reutilización de estructuras mercenarias —por ejemplo, la absorción o cooptación de redes como las relacionadas con grupos mercenarios o sus recursos mediáticos— sugiere que la línea entre acción militar y ofensiva informativa es deliberadamente borrosa.

No todo es centralizado: hay actores estatales (servicios de inteligencia), actores semi‑privados (agencias de contenido y consultoras digitales), y operadores descentralizados (grupos de voluntarios, influencers pagados, redes de simpatizantes). El mix ofrece resiliencia: si un nodo cae, otro toma el relevo. Al mismo tiempo, la inyección de recursos permite profesionalizar operaciones que antaño podían haber parecido amateur; hoy funcionan como campañas de marketing político pagadas, con objetivos de influencia electoral y social.

La respuesta occidental no ha sido pasiva, pero ha sido tardía y fragmentaria: desde herramientas tecnológicas para identificar contenidos verificablemente falsos hasta iniciativas estatales que buscan monitorizar y contrarrestar campañas de desinformación. Estados Unidos ha desarrollado incluso herramientas basadas en IA para agregar y señalar desinformación relacionada con la guerra en Ucrania The Defense Post sobre el proyecto estadounidense. Sin embargo, la escala del problema demuestra que la solución no es sólo técnica, sino política y social.

Contraataque democrático: qué funciona y qué no

La experiencia de los últimos años enseña que las contramedidas tienen que ser holísticas. El bloqueo de cuentas y la moderación algorítmica funcionan hasta cierto punto, pero también producen efectos colaterales y pueden ser explotados por quienes denuncian “censura”. La transparencia en algoritmos y financiación, la divulgación pública de operaciones coordinadas y el fortalecimiento de medios independientes son herramientas necesarias. Además, iniciativas institucionales como las agencias de vigilancia de la desinformación en varios países —y la acción judicial contra plataformas cuando facilitan la amplificación de contenido ilegal— han demostrado que el Estado puede intervenir sin caer en censura arbitraria Telecinco sobre decisiones judiciales relativas a plataformas.

La resiliencia democrática exige también alfabetización informativa: ciudadanos capaces de identificar técnicas básicas —anclaje, mezcla, relato emocional, cuentas sincronizadas— y medios que expliquen no sólo qué es falso sino cómo y por qué se intenta fabricar esa falsedad. Organizaciones como ISW y think tanks especializados han puesto en evidencia la dimensión estratégica de estas campañas y han ofrecido marcos de análisis —por ejemplo, cómo ciertos mensajes buscan convertir la paz en rendición o presentar la resistencia como inútil— que ayudan a entender la intención detrás de la propaganda.

No hay solución única: la tarea combina regulación, presión sobre la financiación opaca de medios y campañas, responsabilidad profesional de periodistas y editoriales, y educación cívica. Sin reforzar todos estos frentes, la maquinaria de desinformación —con sus “ciberputis”, sus granjas y sus cómplices— seguirá encontrando huecos por donde colar relatos que desgastan la cohesión social.

La guerra por la realidad

La guerra por la información ya no es un apéndice de los conflictos militares: es su primera fase. Rusia ha invertido tiempo y recursos en construir una capacidad que explota debilidades sociales y tecnológicas para sembrar duda y fractura. Reconocer la existencia de esa industria no basta; hay que desactivar sus nodos de amplificación y blindar los espacios públicos con mejores prácticas periodísticas, transparencia en la financiación y ciudadanía educada. La democracia que no defiende su sentido de la realidad está dejando la puerta abierta a narrativas que terminan por devorar sus propias condiciones de existencia.

Fuentes y referencias seleccionadas: reportajes e investigaciones consultadas durante la elaboración de este texto incluyen trabajos y filtraciones sobre la Internet Research Agency y la maquinaria de trolls (RFE/RL), análisis sobre la inversión propagandística del Kremlin (France24), iniciativas y herramientas para contrarrestar desinformación (The Defense Post), estudios académicos sobre construcción mediada de la realidad (SAGE) y trabajos científicos sobre difusión de noticias falsas (Nature). También se han tenido en cuenta alertas de organizaciones internacionales sobre libertad de prensa y campañas coordinadas (RSF) y noticias judiciales y regulatorias relacionadas con plataformas (Telecinco). Nota metodológica: además de estas fuentes públicas, el diagnóstico se apoya en la recopilación y análisis de patrones de operación y tácticas documentadas en múltiples investigaciones periodísticas y académicas.

Este artículo se basa en una discusión del foro .