« On est envahis par les étrangers » : derrière cette phrase, une machine de guerre informationnelle

[current_page_url]

« On est envahis par les étrangers. » Cette phrase ou son équivalence tombe parfois au détour d’un entretien, dans une salle d’attente, à l’occasion d’une demande d’aide dans un permanence de travailleurs social. Ce n’est pas nouveau et cela m’est arrivé. Mais depuis quelques temps les choses ont changé. Cette phrase peut surgir comme une évidence pour la personne qui la prononce, comme une explication simple à une vie devenue compliquée. Elle peut aussi être chargée d’inquiétude, de colère, de fatigue, ou d’un sentiment d’abandon.

Ce qui est moins visible, c’est l’arrière-plan. Cette phrase n’est pas seulement une opinion « sortie de nulle part ». Elle circule dans un environnement numérique où des contenus trompeurs, orientés, amplifiés artificiellement, peuvent être produits à grande échelle et distribués avec une efficacité redoutable. Les documents institutionnels et journalistiques consultés ici décrivent précisément comment des opérations d’ingérence et de manipulation informationnelle visent à « saper » le lien de confiance entre citoyens et institutions.

Regardez la photo de cette info. Elle a été fabriqué par une intelligence artificielle. Rien de plus simple pour réaliser une fausse photo (ici avec Qwen Chat). C’est gratuit, simple et quasi instantané. Pourquoi voudriez-vous que les promoteurs de fausses informations comme celle-ci s’en dispensent ?

De la rumeur “artisanale” à l’infrastructure industrielle

Un article de « Solutions Numériques » nous décrit une pratique qui met au jour un changement d’échelle : la découverte d’une « ferme de téléphones » de plus de 1000 smartphones, utilisée pour piloter « des centaines de comptes de réseaux sociaux générés par IA ». Le dispositif est conçu pour « contourner les mécanismes de détection des plateformes en simulant le comportement d’utilisateurs réels », chaque appareil est associé à des comptes,  et des tâches orchestrées par une intelligence artificielle.

​Cela veut dire que quand vous êtes sur un réseau social ou même si vous lisez des contributions de lecteurs dans la presse généraliste, vous ne pouvez savoir ce qu’il y a derrière. Bien sûr ce qui est mis en place ne concerne pas directement le travail social. Mais il documente un fait essentiel pour comprendre l’époque : l’industrialisation du faux.

Dans l’article, la journaliste Charlotte Rabatel reprend les propos du spécialiste Damien Van Achter. Il résume ce basculement par une formule : « On ne parle plus d’astroturfing artisanal, mais d’une infrastructure professionnelle, financée, scalable ». Traditionnellement l’astroturfing désigne une technique de manipulation qui consiste à fabriquer artificiellement un mouvement d’opinion présenté comme spontané et populaire, alors qu’il est en réalité orchestré par des acteurs organisés (entreprises, groupes politiques, lobbys…). Mais ici le procédé est devenu industriel. l’illusion d’un débat public “spontané” peut désormais être fabriquée comme un produit. Et ce produit, plus il est performant, plus il devient tentant de l’utiliser pour peser sur des représentations collectives, sur des colères, sur des votes.

Ce que dit l’État : la menace informationnelle en ligne n’est pas un bruit de fond

Il faut connaitre alors le guide du SGDSN/Viginum intitulé « Protéger le débat public numérique en contexte électoral ». Ce guide pour les candidats  aux prochaines élections municipales définit la « menace informationnelle en ligne ». C’est une composante des menaces dites « hybrides ». Elle est  explicitement reliées aux « opérations d’ingérences numériques étrangères ». Ces actions visent à « porter atteinte au fonctionnement des processus démocratiques », à « nuire aux intérêts » d’une entité ou « promouvoir les revendications d’un acteur hostile ». Le texte insiste sur l’idée que ces manœuvres cherchent à « créer et/ou amplifier des contenus malveillants » et à « exacerber des divisions sociétales autour de thématiques clivantes ».

Cette définition nous emmène vers cette scène ordinaire qui survient lors d’un entretien : une personne arrive avec une « évidence » construite ailleurs, parfois nourrie d’images sorties de leur contexte, de slogans ou encore de “preuves” qui telles les fausses vidéos circulent en boucle. Ces personnes ne font que relayer ce qu’elles ont vu ailleurs. Elles ont été manipulées.

Le guide rappelle que les élections, « symbole de la démocratie », sont une « cible de choix ». Des acteurs – notamment étrangers – cherchent « à saper, voire à rompre le lien de confiance entre les citoyens et les institutions chargées de les représenter ». Ce lien de confiance, est déjà fortement entamé évidemment. Il est la conséquence d’un travail de sape en profondeur et qui dure. Mais le lien de confiance c’est aussi ce que les travailleurs sociaux tentent patiemment de reconstruire quand une personne ne croit plus aux droits, aux institutions ou encore aux médiations possibles et aux voies de recours.

Municipales 2026 : la cible locale comme terrain “efficace”

La Banque des Territoires dans un article sur les municipales 2026 résume toutes les menaces présentées par la Viginum « à quelques mois des élections municipales des 15 et 22 mars 2026 ». Le point important, c’est l’affirmation selon laquelle les élections locales « ne sont pas du tout immunisées » contre les tentatives de déstabilisation. Le texte précise que des acteurs étrangers, « essentiellement la Russie et l’Iran », chercheraient, en s’attaquant aux municipales, à « décrédibiliser la procédure électorale », « polariser le débat », « délégitimer les médias » ou « nuire à la réputation des candidats ».

Cette focalisation sur l’échelon local n’a rien d’anecdotique. Un texte publié sur le site de l’Institut Français des Relations Internationales (IFRI) reprend une analyse attribuée à Julien Nocetti (chercheur associé). Il souligne que « les médias locaux sont intéressants parce qu’ils permettent d’aller au-delà des publics plutôt aisés vivant dans les capitales et les grandes métropoles, pour aller toucher un autre électorat ». Il ajoute que, dans des contextes marqués par « un chômage plus important », des « fermetures d’usines ou d’administrations », l’appareil de désinformation peut exploiter « multiples points d’appui » et relayer des narratifs selon lesquels « nos gouvernants ne seraient pas capables de résoudre les crises ».

Ce passage mérite d’être lu lentement. Il décrit des territoires et des vécus sociaux que les travailleurs sociaux connaissent bien. Les “points d’appui” mentionnés, ce sont les fragilités structurelles de certains territoires et les expériences concrètes d’insécurité sociale que vivent nombre de nos concitoyens. L’ingérence, ici, ne crée pas la souffrance ; elle s’y branche.

Les stratégies : discrédit, polarisation, défiance, atteinte réputationnelle

Le guide du SGDSN/Viginum synthétise plusieurs stratégies par lesquelles la menace informationnelle peut « déstabiliser le processus démocratique ». Il mentionne la « décrédibilisation de la procédure électorale », quand le processus est présenté comme « faussé », « insincère », « inutile » ou « manipulé ». Il décrit la « polarisation du débat politique autour de thématiques clivantes », en instrumentalisant des sujets « susceptibles d’influencer les décisions des électeurs ». Les étrangers et les MNA en font partie.  Il insiste aussi sur la « défiance vis-à-vis des médias d’information », qui vise à « semer la confusion » et à pousser les citoyens vers des « sources d’informations alternatives » pouvant être manipulées. Enfin, il évoque « l’exposition réputationnelle » d’un candidat ou d’un parti.

Comprendre cela est utile pour les travailleurs sociaux. le guide est à prendre comme une grille de lecture du climat social. Quand un usager affirme que « tout est truqué » ou qu’« on ne peut plus croire personne », il n’exprime pas seulement un ressentiment : il peut, parfois, répercuter une stratégie de discrédit engagée ailleurs. Le débat se réduit alors à des oppositions binaires. La réalité sociale est ramenée à un ennemi unique (par exemple les étrangers). la polarisation n’est pas qu’un mot : elle devient une expérience relationnelle. Elle s’invite dans les familles, dans les quartiers, les accueils de jour, et les permanences sociale.

Là où les travailleurs sociaux se retrouvent en première ligne

Il n’existe pas de guide ni d’analyses visant à conseiller les travailleurs sociaux lorsqu’ils font face à des propos complotistes ou tout simplement clivants. Rien ne fait référence à ce qui se passe lors d’un entretien social, dans la relation d’aide. Rien n’est indiqué sur la manière de répondre à un usager qui relaie une infox. Il n’y a pas de “bonnes phrases” pour répondre à ce que dit un usager qui manifestement relaie des opinions extrêmes. Il n’existe pas de protocoles d’intervention agir de façon adaptée et efficace.

Pourtant, le lien avec le travail social apparaît dès qu’il est question de confiance. La crise économique, de guerre en Ukraine, la crise climatique etc. sont autant de réalités citées comme points d’appui possibles d’une désinformation “localisée”. Les travailleurs sociaux travaillent précisément sur un terrain qui est déjà miné : la « fatigue » des démarches, les droits difficiles à faire valoir, l’humiliation parfois, le sentiment d’être invisible. Quand l’IFRI cite l’idée que les narratifs répètent que les injustices sont permanentes, il devient plus facile de comprendre pourquoi certains usagers arrivent déjà convaincus que l’aide sociale est une mise en scène, que les règles ne valent plus, et que “tout est arrangé” à l’avance.

Dans ce contexte, la parole professionnelle n’est pas seulement une réponse technique. Elle devient un repère. Elle peut, sans dogmatisme, réintroduire de la nuance et de la vérification.

Ce que les sources recommandent de faire face à une fausse information, et ce qui reste à construire

Sur la réponse à apporter, les documents du SGDSN/Viginum  ne disent rien sur l’entretien social. Ils ne disent pas ce qu’un travailleur social doit dire à une personne, ni comment réagir face à l’adhésion à une rumeur sans humilier ni rompre le lien. La construction de cette posture nécessite d’autres références, notamment des écrits professionnels et scientifiques en travail social, que les documents fournis ici ne contiennent pas.

Ce que ces documents permettent toutefois d’établir, c’est un principe : la lutte contre les infox n’est pas une querelle d’opinions, c’est une question d’intégrité du débat public et de confiance sociale. À partir de là, le travail social peut se reconnaître dans un enjeu de société qui le dépasse et pourtant le concerne directement : protéger les conditions minimales d’un dialogue, y compris quand le dialogue est abîmé.

Une éthique de la discussion : rester dans le lien sans valider le faux

Le piratage raconté par Solutions Numériques nous décrit une infrastructure capable de simuler des “utilisateurs réels” et de faire croire à une popularité de telle ou telle idée clivante. Le guide du SGDSN/Viginum décrit quant à lui des opérations visant à faire passer des contenus « manifestement inexacts ou trompeurs » pour des informations crédibles. Cela fait appel à l’usurpation de sites établis et la fabrication de faux reportages. L’IA est très utile pour ce type de pratiques. La Banque des Territoires insiste sur le fait que ces méthodes servent à polariser et à délégitimer qui que ce soit. L’IFRI rappelle l’importance stratégique que représentent les médias locaux et leurs  vulnérabilités.

Il nous faut savoir, dans ce contexte, faire preuve d’une exigence éthique pour éviter de  formuler nos réponses en termes moraux : il nous faut clairement distinguer l’écoute de la validation. Un travailleur social peut entendre une peur, une colère, une fatigue, sans valider la cause fausse qui lui est associée. Il peut reconnaître une difficulté vécue sans reprendre la rumeur comme explication générale. Cette distinction est au cœur du soin et de l’accompagnement.

Ce n’est pas un combat contre des personnes ; c’est un effort pour empêcher que des personnes déjà fragilisées deviennent les relais involontaires d’opérations conçues pour fragmenter la société.

Pour conclure : défendre le débat, c’est aussi défendre le social

Le récit d’une ferme de téléphones pilotée par IA et les documents de Viginum, nous montrent que la désinformation n’est plus seulement un “mensonge” isolé. Elle peut être issue d’une organisation s’appuyant sur techniques « industrielles ». Tout cela nous montre l’ingérence est en train de devenir systémique. L’IFRI nous rappelle  que l’échelle locale et les fragilités sociales constituent un terrain d’influence recherché, précisément parce que la confiance y est un enjeu politique au sens le plus concret : celui de la vie quotidienne.

La démocratie ne se joue pas uniquement dans l’isoloir. Elle se joue aussi dans la possibilité de partager un minimum de réalité commune. Il s’agit de ne pas être enfermé dans des récits fabriqués. Il nous faut pouvoir contester ce que nous trouvons injuste sans être manipulé.  Il est possible d’émettre des doutes sans être aspiré par la suspicion généralisée. Lorsque cette possibilité se rétrécit, la pratique du travail social devient encore plus difficile. Parce qu’il repose sur des institutions, des droits et des récits collectifs qui supposent un minimum de confiance.

​C’est pourquoi il me semble important que ce sujet soit abordé dans les équipes et dans nos institutions. Si nous voulons répondre efficacement  à cette épidémie de fausses informations à venir prochainemen, il faut que nous y soyons préparé(e)s. Et pour cela construire collectivement des réponses adaptées en fonction des expériences de chacun.

Sources

 

 


La photo est issue d’une Intelligence artificielle (Qwent.ai). Pour cela je lui ai demandé « génère une image qui dénonce la fausse information suivante : « En France, on est envahi par des étrangers » pour attirer le regard du lecteur »

Articles liés :

Une réponse

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.