Désinformation russe : comment le GRU a pesé sur l’Europe en 2025

Russie et désinformation

En 2025, la désinformation liée au GRU vise l’opinion européenne : deepfakes, faux médias, piratages et relais politiques. Voici les méthodes et leurs effets.

En résumé

En 2025, la Russie a traité l’espace informationnel européen comme un terrain d’opérations. Le rôle du GRU se voit surtout quand l’action combine intrusion, collecte de données et exploitation politique. En Allemagne, avant le scrutin de février, des réseaux ont diffusé de fausses alertes terroristes et des vidéos truquées, avec des centaines de comptes et des millions d’interactions observées. En France, l’attribution publique d’activités liées à APT28 rappelle que le cyber sert aussi l’influence : voler, choisir le bon moment, puis contaminer le débat. Le rapport VIGINUM sur Storm-1516 décrit une chaîne de diffusion en plusieurs temps : primo-diffusion, blanchiment, amplification, reprises opportunistes. Le basculement majeur est industriel : l’IA baisse le coût de production de contenus et accélère les variations. L’objectif devient l’usure : polariser, saturer, et installer l’idée que tout est manipulé. Au final, l’impact le plus constant n’est pas le vote, mais la défiance et la fatigue.

Le périmètre réel du renseignement militaire russe dans la guerre informationnelle

Parler « du GRU » comme d’un unique cerveau est pratique, mais trompeur. La Russie mène des opérations d’influence via un écosystème. Il inclut des services, des relais médiatiques, des structures paraétatiques et des sous-traitants. En 2025, la question pertinente n’est donc pas « le GRU fait-il tout ? », mais « dans quels segments du cycle l’empreinte GRU est-elle plausible et documentée ? ».

Le GRU se distingue surtout sur deux points. D’abord, sa capacité à produire du renseignement par intrusion : boîtes mail, agendas, documents de travail, carnets d’adresses. Ensuite, sa capacité à coupler ce renseignement à des actions actives : diffusion sélective, manipulation de contexte, et mise en scène de “preuves”. Dans ce schéma, l’influence n’est pas un supplément. C’est un mode d’exploitation.

La prudence s’impose sur l’attribution. Beaucoup de campagnes pro-russes en Europe en 2025 sont attribuées à des acteurs “liés à la Russie” sans précision de service. Mais il existe des signaux plus solides quand une autorité étatique attribue formellement, ou quand une agence documente des chaînes techniques cohérentes. C’est là que l’analyse devient utile, parce qu’elle sépare la conviction politique des éléments observables.

Les opérations visibles en Europe en 2025

La séquence allemande, un test grandeur nature avant et après le vote

La campagne de février 2025 en Allemagne a concentré l’attention parce qu’elle coche toutes les cases : cible sensible, temporalité électorale, narratifs anxiogènes, et diffusion à grande vitesse. Des réseaux ont diffusé des vidéos se présentant comme des médias ou des services de renseignement. Le contenu mettait en avant des menaces d’attentats et des avertissements fictifs. La logique n’est pas subtile : une société inquiète devient plus perméable aux récits autoritaires, et plus encline à douter des procédures démocratiques.

Les chiffres donnent une idée de l’échelle. Une base de messages analysée a cumulé environ 2,5 millions d’interactions. Des chercheurs ont aussi identifié un réseau de plus de 700 comptes inauthentiques apparus ou réactivés sur la fin de campagne. Les autorités ont publiquement mis en garde contre une campagne associée à Storm-1516, avec des pseudo-médias et des comptes “dormants” activés au moment opportun.

Le plus important n’est pas un détail technique. C’est la mécanique sociale. Le récit initial n’a pas besoin d’être cru. Il suffit qu’il déclenche une chaîne de reprises : capture d’écran, réaction outrée, débunk, contre-débunk. À l’arrivée, l’attention collective est consommée, et l’agenda médiatique est déformé. C’est une manière de faire “payer” la démocratie en temps et en énergie, exactement ce qu’une puissance hostile cherche quand elle n’a pas besoin de gagner, mais de fatiguer.

La pression continue sur la France via le couple cyber-influence

La France est un cas intéressant parce qu’elle a choisi, en 2025, de nommer publiquement la menace. Une déclaration officielle a attribué à la Russie, via le GRU, l’usage d’un groupe d’attaque associé à APT28 pour viser ou compromettre une douzaine d’entités françaises depuis 2021. Ce point est essentiel : il ne s’agit pas d’un incident isolé, mais d’une campagne inscrite dans la durée, avec un objectif clair de collecte et de pression.

Le lien avec la désinformation est rarement “direct” au sens narratif. Il est fonctionnel. Quand une intrusion touche une organisation, elle peut alimenter plusieurs effets d’influence : voler des informations et les diffuser à un moment choisi, fabriquer des faux à partir de vrais documents, ou simplement créer un climat d’insécurité propice aux rumeurs. C’est le chaînage qui compte : cyber pour accéder, influence pour exploiter.

En 2025, cette approche “hybride” est mieux comprise par les autorités européennes. Une cyberattaque n’est plus seulement un vol. C’est un levier politique quand elle vise des institutions visibles, des infrastructures sensibles, ou des périodes où la société est déjà sous tension.

La Pologne, le Portugal et la Moldavie, des terrains de friction à forte valeur politique

En Pologne, l’année 2025 a été marquée par l’attention portée aux tentatives d’influencer la présidentielle. Des analyses ont décrit des opérations de type Doppelgänger cherchant à imiter des médias et à pousser des narratifs sur la guerre, l’Ukraine, l’immigration, ou la “soumission” à Bruxelles. Dans le contexte polonais, ces narratifs rencontrent une résistance forte sur les enjeux de défense. Cela limite l’effet direct sur le vote. Mais cela peut accroître les tensions internes, durcir la défiance envers l’Union européenne, et nourrir une polarisation qui complique la gouvernance.

Au Portugal, un exemple chiffré illustre le recours à l’inauthenticité à grande échelle. Un brief institutionnel a relayé une analyse montrant que 58 % des comptes commentant sur X autour de Chega étaient des comptes considérés comme faux, avec des niveaux importants sur d’autres partis. L’élément clé est moins “qui contrôle” chaque compte que le fait suivant : simuler une majorité devient bon marché. Et sur des sujets sensibles, une majorité simulée peut influencer les médias, donc influencer les perceptions, donc influencer les comportements.

La Moldavie, enfin, reste en 2025 une cible récurrente de campagnes pro-russes, notamment en période électorale, avec un usage de vidéos truquées et de récits visant à affaiblir les forces pro-européennes. Là encore, l’enjeu n’est pas seulement un vote. C’est l’orientation stratégique d’un pays charnière, et le signal envoyé à tous les voisins : “l’Europe ne protège pas ses frontières cognitives”.

Les techniques qui ont réellement changé en 2025

La production industrielle et la baisse du coût marginal

Le tournant n’est pas le mensonge. Il a toujours existé. Le tournant est la capacité à produire, tester, corriger et relancer, presque comme une chaîne de contenu. Les campagnes associées à Matryoshka / Operation Overload ont illustré cette dynamique. Des chercheurs ont comptabilisé 587 contenus uniques générés ou assistés par IA entre septembre 2024 et mai 2025, contre 230 sur la période comparable précédente. Des contenus ont franchi plusieurs millions de vues avant modération sur certaines plateformes.

Cette logique favorise des contenus “suffisamment plausibles” plutôt que parfaits. Une vidéo peut être grossière et quand même utile, si elle circule dans des communautés déjà convaincues, ou si elle force les médias à en parler pour la démentir. Le système repose sur un arbitrage cynique : chaque démenti consomme du temps humain, et le temps humain est la ressource rare.

La chaîne de diffusion en plusieurs temps, un savoir-faire assumé

Les opérations ne se résument plus à poster et espérer. Elles suivent une séquence. Des autorités françaises ont décrit un dispositif mature reposant sur des phases distinctes : primo-diffusion par comptes jetables, blanchiment via des relais, amplification par des réseaux, puis reprises opportunistes. Ce schéma explique pourquoi une intox peut “sortir” d’un cercle marginal et finir citée par des personnalités publiques.

C’est aussi ce schéma qui rend l’attribution difficile. La source initiale est éphémère. Le relais est parfois un média tiers. L’amplification passe par des influenceurs qui n’ont pas forcément conscience de l’origine. Au bout de la chaîne, la “preuve” devient sociale : tout le monde en parle, donc “il doit bien y avoir quelque chose”.

Cette architecture s’accompagne d’une tactique simple : faire porter le coût à l’adversaire. Un service public, une rédaction ou une plateforme doit mobiliser des équipes pour vérifier, contrer, signaler. L’attaquant, lui, réplique avec une variante. C’est une stratégie d’usure.

La confusion des labels et la fabrique d’une zone grise

En 2025, le débat s’est aussi brouillé par la multiplication des labels : tel groupe est nommé d’une manière par une administration, autrement par une entreprise privée, et encore autrement par un média. Ce n’est pas un détail. Cette diversité sert l’attaquant, car elle fragmente la réponse. Elle nourrit aussi des procès en “propagande” dès qu’une attribution est avancée.

Un rapport technique français sur Storm-1516 va plus loin : il évoque des éléments conduisant à envisager une coordination par un service russe, et mentionne un individu présenté comme potentiellement lié à l’unité 29155 du GRU, accusé publiquement d’avoir financé et coordonné le mode opératoire. Ici, on touche un point sensible : l’influence n’est pas seulement l’affaire de communicants. Elle peut être organisée comme une opération clandestine, avec financement, coordination et compartimentation.

Les effets observables sur les opinions publiques

La polarisation sans “magie” électorale

Il faut être franc : la plupart des campagnes de désinformation ne font pas basculer une élection à elles seules. Les analyses disponibles sur l’Allemagne en 2025 suggèrent plutôt une capacité à perturber, à polariser, et à “salir” l’environnement cognitif, qu’à convertir massivement des électeurs. C’est une réalité qui gêne les discours catastrophistes, mais qui ne doit pas rassurer à tort.

L’effet principal est cumulatif. Chaque campagne ajoute une couche de suspicion. Au bout d’un moment, une partie du public ne cherche plus le vrai. Elle cherche un récit qui conforte son camp. La démocratie devient alors une guerre de tribus, et la vérité, une variable d’ajustement.

La peur comme levier et la tentation du retrait civique

Les campagnes autour de menaces d’attentats en Allemagne illustrent un mécanisme particulier : l’activation de la peur. Ce n’est pas seulement du sensationnel. C’est une manière de pousser des comportements : éviter les rassemblements, se méfier des bureaux de vote, privilégier le vote par correspondance, ou croire à l’idée d’une fraude “préparée”. Cet effet de peur est un multiplicateur parce qu’il mobilise des réflexes, pas des arguments.

Quand ce type de récits se répète, le résultat n’est pas seulement la colère. C’est la fatigue. Le citoyen se retire. Il partage moins. Il s’informe par fragments. Et il devient plus dépendant de figures d’autorité informelles : influenceurs, “lanceurs d’alerte”, chaînes communautaires.

La guerre en Ukraine comme matrice narrative durable

En 2025, une large part des opérations reste structurée par la guerre en Ukraine. Les narratifs récurrents cherchent à présenter l’aide occidentale comme vaine, corrompue ou dangereuse. Les dirigeants ukrainiens sont ciblés, mais l’objectif réel est européen : affaiblir l’acceptabilité sociale de l’effort de soutien. Des autorités françaises ont documenté 77 opérations jusqu’au 5 mars 2025, dont 35 visant l’image de l’Ukraine et 42 ciblant des intérêts occidentaux, souvent autour de périodes électorales.

Ce cadrage est efficace parce qu’il exploite des tensions existantes : inflation, fatigue de guerre, craintes migratoires, divisions sur l’élargissement européen. L’attaquant n’invente pas tout. Il agrège, accentue, et met en scène.

Russie et désinformation

Les réponses européennes qui ont montré des résultats

La diplomatie d’exposition, utile mais insuffisante

La France et l’Allemagne ont, en 2025, donné un signal clair : elles acceptent de nommer certains acteurs, et d’assumer une réponse politique. Cette stratégie a un avantage. Elle réduit la zone grise. Elle informe le public. Elle soutient aussi les plateformes et les chercheurs qui, sinon, portent seuls le risque juridique et réputationnel.

Mais l’attribution n’est pas une solution en soi. Elle fonctionne seulement si elle s’accompagne d’actes : sanctions, coopération judiciaire, soutien aux médias, et protection des cibles. Sans cela, elle devient un communiqué de plus dans un flux déjà saturé.

La défense technique et la réduction du rendement opérationnel

La réponse la plus efficace reste souvent la plus ingrate : casser la chaîne de diffusion. Cela passe par des équipes de confiance et sécurité, des systèmes de détection de clones, et une réaction rapide sur les comptes “dormants”. Les rapports montrent que certaines plateformes réagissent, d’autres beaucoup moins. Ce décalage crée des zones franches.

Au niveau institutionnel, la coopération progresse. Les structures européennes et les agences nationales partagent des signaux. Des advisories communs visent des tactiques connues. Le but est simple : réduire le rendement. Si une tactique coûte plus cher et dure moins longtemps, elle perd en intérêt.

La culture de la preuve, sans morale ni leçon

Le point le plus délicat est le public. La réponse ne peut pas être “croyez-nous”. Elle doit être “voici comment on sait”. Une démocratie qui veut résister doit apprendre à penser en preuves, pas en impressions. Cela implique des outils simples : rechercher l’origine d’une vidéo, vérifier une image, identifier un compte récent, et repérer un pseudo-média. Cette hygiène n’empêche pas la manipulation. Mais elle réduit l’exposition.

Surtout, il faut accepter une idée inconfortable : la bataille se joue aussi sur l’attention. Quand l’espace public est saturé, même les faits vrais n’atteignent plus leur cible. C’est le brouillard informationnel : une situation où l’excès d’informations devient une arme.

La trajectoire probable après 2025, si rien ne change vraiment

La tendance de fond est double. D’un côté, les outils de création et de diffusion deviennent plus accessibles. Les deepfakes vont gagner en qualité et en personnalisation. De l’autre, les sociétés européennes restent divisées sur la réponse, entre liberté d’expression, souveraineté numérique, et compétition politique interne.

Le risque le plus sérieux n’est pas un mensonge isolé. C’est l’installation d’une norme : « tout est manipulé ». À partir de là, il devient rationnel de ne plus croire à rien, ou de croire uniquement son camp. Pour une puissance hostile, c’est un succès stratégique, même sans victoire électorale visible.

La meilleure nouvelle est paradoxale : ces opérations ont des limites. Elles échouent souvent à convaincre au-delà des publics déjà acquis. Elles laissent des traces techniques. Elles obligent l’attaquant à recycler des narratifs. Et elles peuvent être contrées quand les États, les plateformes, les médias et la société civile cessent de travailler en silos.

Mais la condition est claire : traiter la désinformation comme un enjeu de sécurité, sans en faire un prétexte pour censurer. C’est un équilibre difficile. C’est aussi le seul qui vaille, si l’Europe veut rester une démocratie qui se défend sans se renier.

Sources

  • VIGINUM (SGDSN), Rapport technique Storm-1516, 7 mai 2025.
  • Ministère de l’Europe et des Affaires étrangères, Attribution d’APT28 au renseignement militaire russe, 29 avril 2025.
  • CERT-FR / ANSSI, Note CTI sur APT28 (CERTFR-2025-CTI-007), 29 avril 2025.
  • Reuters, Campagne de bots et fausses alertes avant le vote allemand, 12 février 2025.
  • Reuters, Alerte officielle allemande sur Storm-1516 et vidéos truquées, 21 février 2025.
  • CERT-EU, Cyber Brief 25-06 (références à campagnes et à APT28), 2025.
  • EDMO, Analyse des tentatives d’influence russe sur l’élection polonaise de 2025, 19 juin 2025.
  • Wired, Intensification d’Operation Overload/Matryoshka via outils d’IA, 1 juillet 2025.
  • RUSI, Russia, AI and the Future of Disinformation Warfare, 19 juin 2025.

Avion-Chasse.fr est un site d’information indépendant.

A propos de admin 2225 Articles
Avion-Chasse.fr est un site d'information indépendant dont l'équipe éditoriale est composée de journalistes aéronautiques et de pilotes professionnels.