Les moteurs de recherche via l’intelligence artificielle (IA) sont aujourd’hui une dangereuse illusion. Plusieurs études sérieuses nous le prouvent. Cet article tente de vous alerter et de vous dire pourquoi, il faut absolument vous méfier des résultats produits par l’IA lorsque vous l’utilisez en tant que moteur de recherche.
Vous le savez, l’intelligence artificielle se développe rapidement dans tous les domaines. Le secteur de l’éducation et de l’information n’y échappent pas, loin de là. L’IA s’est immiscée dans nos vies numériques avec la promesse de révolutionner l’accès au savoir.
Pourtant, derrière cette façade de modernité se cache une réalité beaucoup plus inquiétante : les moteurs de recherche IA menacent les fondements mêmes de l’éducation. Ils commencent à propager des fake-news à grande échelle et vont en toute logique déstabiliser l’écosystème médiatique.
La désinformation industrielle : une machine à fabriquer l’ignorance
Les outils comme ChatGPT ou Gemini ne se contentent pas de répondre aux requêtes des utilisateurs – ils fabriquent une nouvelle réalité. Une étude de Google et de l’université Duke nous apprend que 60 % des images générées par IA référencées dans les résultats de recherche sont des manipulations.
Des « faussaires numériques » ont produit des photos de nues mettant en scène des célébrités mais aussi des particuliers, dupant jusqu’à leurs proches. Ainsi, à titre d’exemple, deux collégiens du bassin de Riom ont été convoqués devant la justice après la diffusion de « nudes » sur le réseau Snapchat. Nul n’est désormais à l’abri de telles manipulations.
Une autre forme de manipulation est apparue. Les tweets générés par GPT-3 seraient 20 % plus convaincants que ceux écrits par des humains, même lorsqu’ils contiennent des fausses informations.
Les informations inexactes , la désinformation et les escroqueries en ligne augmentent à un rythme alarmant à mesure que l’IA générative explose dans l’utilisation. Les conséquences sont palpables comme l’indique un article du Monde : « des contenus générés par IA, et notamment des deepfakes, sont de plus en plus utilisés à des fins malveillantes, comme la fraude par usurpation d’identité, pour des deepfakes pornographiques, de la sextorsion et d’autres escroqueries ».
Les élèves et les étudiants, premières victimes d’un système défaillant
Il y a urgence dans les salles de classe. Aux États-Unis, 40 % des enseignants américains utilisent des détecteurs d’IA pour traquer les travaux plagiés, selon le Center for Democracy & Technology.
Même les détecteurs de fraudes se trompent au point que l’on ne sait plus vraiment à qui ou à quoi se fier. Ils se trompent dans 15 % des cas, accusant à tort notamment les élèves d’origine étrangère ou en situation de handicap. Une fausse accusation peut détruire une carrière étudiante.
37 à 94% d’erreurs

Une étude du Tow Center for Digital Journalism montre que 37 % à 94 % des réponses des chatbots contiennent des erreurs. Imaginez un étudiant en médecine apprenant sur ChatGPT Search que « les vaccins peuvent développer l’autisme » – une fake news déjà propagée par des IA. Les conséquences sur la formation des futurs professionnels pourraient être catastrophiques.
Les moteurs de recherche classiques redirigent les utilisateurs vers les sites des éditeurs de contenu. Par contre, les outils génératifs d’IA synthétisent et reformulent les informations trouvées en ligne sans donner leurs sources. Une réponse vous est fournie, mais vous ne savez pas d’où elle vient ! Le processus de réponse coupe souvent le lien entre l’utilisateur et la source originale de la réponse. Il prive les auteurs de trafic sur leurs sites.
De plus, ces outils présentent fréquemment des réponses erronées ou spéculatives avec une assurance déconcertante. L’étude révèle que plus de 60 % des réponses fournies par ces chatbots étaient incorrectes.
Parmi les huit outils testés, certains comme Grok 3 appartenant à Elon Musk, ont montré un taux d’erreur de 94 % ! D’autres comme Perplexity se sont trompés dans 37 % des cas. Ce qui est encore plus troublant, c’est que ces erreurs sont généralement présentées avec une grande confiance, sans phrases nuancées telles que « il semble » ou « il est possible ». Cette attitude renforce une illusion de fiabilité qui a pour conséquence d’induire les utilisateurs en erreur.
C’est simple : si vous êtes compétent dans un domaine, vous serez méfiants car vous verrez les erreurs. Par contre, ceux qui n’y connaissent rien acceptent la fausse information sans aucun problème. Ils sont les cibles faciles des fake news. Le degré de confiance envers l’IA varie en fonction de nos niveaux de connaissance.
Les modèles payants : un faux gage de qualité
On pourrait s’attendre à ce que les versions payantes des moteurs IA soient plus fiables que leurs homologues gratuits. Il n’en est rien ! L’étude montre que ces modèles dits « premium » – comme Perplexity Pro (20 $/mois) ou Grok 3 (40 $/mois) – sont paradoxalement plus enclins à fournir des réponses erronées avec assurance. Cette contradiction s’explique par leur tendance à répondre de manière définitive plutôt qu’à admettre leurs limites.
Cette confiance injustifiée pose un problème majeur : elle rend difficile pour les utilisateurs de distinguer le vrai du faux. Dans un contexte où l’information erronée peut avoir des conséquences graves, cette caractéristique représente un danger réel pour la crédibilité du journalisme et la qualité du débat public. Vous imaginez combien des Etats – je pense à la Russie – qui souhaitent déstabiliser des gouvernements peuvent inonder les pays démocratiques de fake news en vue de faire élire leurs candidats. Ce qui s’est passé en Roumanie peut vite arriver ici.
Des citations inexactes et des liens fictifs
L’un des aspects les plus troublants relevés par l’étude est la tendance des moteurs IA à mal attribuer les sources ou à fournir des liens incorrects. Par exemple, DeepSeek a attribué incorrectement 115 extraits sur 200 à de mauvaises sources. De plus, certains chatbots ont dirigé les utilisateurs vers des versions piratées ou non autorisées d’articles au lieu d’aller vers les publications originales.
Dans certains cas, ces outils ont même fabriqué des URL inexistantes ou brisées. Gemini et Grok 3 sont particulièrement performants dans ce domaine : plus de la moitié de leurs réponses contenaient des liens erronés menant à des pages d’erreur. Cette pratique nuit non seulement à la crédibilité des éditeurs cités, mais aussi à celle du chatbot lui-même.
L’effondrement silencieux du journalisme
Google a introduit ses « AI Overviews » en 2024. C’est un système qui résume les informations directement dans les résultats de recherche. Conséquence : Les éditeurs traditionnels ont enregistré une chute de 18 % à 64 % du trafic vers leurs sites.
Les moteurs IA ignorent souvent les directives qui limitent leur accès aux informations payantes. Les exemples de pillages d’articles se multiplient. Les IA volent littéralement des contenus protégés comme celui du National Geographic.
L’éducation personnalisée via l’IA reste pour l’instant un miroir aux alouettes
Les promoteurs de l’IA vantent des parcours pédagogiques sur mesure. Mais la réalité est plus sombre : toujours aux Etats-Uni il a été prouvé que les étudiants défavorisés ont moins accès aux outils IA que les autres.
Ce n’est pas grave diront certains. En effet, les versions payantes des chatbots comme Perplexity Pro affichant paradoxalement plus d’erreurs que les versions gratuites, ce sont les étudiants les plus aisés qui en pâtissent. Cette façon d’utiliser l’IA transforme l’éducation en marché de dupes.
L’étude de Northwestern University nous met en garde : l’automatisation des tâches cognitives risque d’appauvrir l’esprit critique des étudiants alors que certains n’en ont pas ou très peu. L’IA ne doit pas remplacer le travail d’investigation humaine », insiste Nicholas Diakopoulos, professeur en journalisme numérique.
L’urgence d’une résistance éthique
Face à ce tsunami technologique, les travailleurs sociaux, les formateurs et doivent devenir des remparts. Trois types d’actions concrètes s’imposent :
- Former au doute méthodique : enseigner aux étudiants à croiser systématiquement les sources, utiliser des outils en ligne pour vérifier les informations. Je vous recommande à ce sujet le livre de Laurent Puech « Manuel du travailleur social sceptique« . Vous en trouverez une analyse ici.
- Valoriser les savoir-faire humains : privilégier les exercices en classe sans accès internet, développer l’analyse critique de textes générés par IA.
- S’allier avec les médias locaux et des professionnels de l’information : collaborer avec des journalistes pour organiser des ateliers de décryptage de l’information ou toute autre action permettant de prendre de la distance et d’évaluer les informations que nous recevons.
Conclusion : reprenons le contrôle grâce à notre intelligence collective
Les chiffres parlent d’eux-mêmes : il est déjà constaté une baisse de 30 % de trafic pour les sites éducatifs, 94 % d’erreurs apparaissent sur certaines requêtes, 400.000 vues pour une vidéo IA montrant de fausses rues parisiennes jonchées de détritus (cette vidéo Tik-Tok a été retirée, mais il y en a toujours de nouvelles qui apparaissent). Des milliers de données créent un paysage où la vérité devient une denrée rare.
Aux travailleurs sociaux et formateurs et à la communauté éducative de sonner l’alarme : organisons des « ateliers de désintoxication numérique », intégrons des modules sur les biais algorithmiques dans les formations.
Comme l’écrivait Victor Hugo : « Aucune armée ne peut arrêter une idée dont l’heure est venue. » L’idée à défendre aujourd’hui ? L’intelligence humaine est irremplaçable, car elle est la gardienne du réel.
Sources :
- L’étude Tow Center sur les erreurs des chatbots : « AI Search Has A Citation Problem | CJR
- IA Misinformation: comment ça marche et comment la repérer : AI Misinformation: How It Works and Ways to Spot It | CNET
- Comment l’IA muscle les arnaques et la propagande en ligne : pas de tsunami mais des risques croissants | Le Monde
- La recherche de Google montre l’augmentation rapide de la désinformation générée par l’IA | CBC Canada
- More Teachers Are Using AI-Detection Tools. Here’s Why That Might Be a Problem | Education Week

Une réponse