Savez-vous que 72% des adolescents américains (de 13 à 17 ans) ont déjà essayé un compagnon IA. Je ne parle pas d’un robot qui fait leurs devoirs ou génère des images pour Instagram. Je parle de ces chatbots conçus pour tenir des conversations personnelles, voire intimes. Character.AI, Replika, ou même ChatGPT détourné en confident virtuel… Bienvenue dans l’ère où l’intelligence artificielle devient le nouveau meilleur ami de nos jeunes.
Une étude menée par Common Sense Media entre avril et mai 2025 auprès de 1060 adolescents américains révèle une tendance qui devrait tous nous interpeller. Que l’on soit professionnel du social ou aussi parent. Et croyez-moi, certains chiffres donnent le tournis. Certes, cela se passe aux États-Unis, mais il est quasi certain que ce phénomène va déferler en France et en Europe.
Des confidents numériques toujours disponibles
52% des ados utilisent régulièrement ces compagnons IA. Parmi eux, 13% chattent quotidiennement avec leur ami virtuel, et 21% plusieurs fois par semaine. Autant dire qu’ils ont trouvé un interlocuteur disponible 24h/24, qui ne juge jamais, ne se lasse pas et répond instantanément.
Quand on leur demande pourquoi ils se tournent vers ces outils, les réponses sont à double sens : divertissement (30%), curiosité technologique (28%), ce qui fait une grosse majorité. Mais il y a aussi – et c’est là que ça devient sérieux – le but d’obtenir des conseils (18%) et parce que « c’est toujours disponible » (17%).
Cette disponibilité permanente, n’est-ce pas justement ce qui manque dans nos dispositifs d’accompagnement des jeunes ? Combien de fois entend-on dans les services « le prochain rendez-vous est dans trois semaines », ou pire, « nous n’avons plus de places disponibles » ? Or, vous le savez, les jeunes n’ont pas pour caractéristiques d’être patients ni de savoir différer leurs questions.
Entre méfiance et fascination
Paradoxe intéressant : la moitié des jeunes (50%) déclarent ne pas toujours faire confiance aux informations fournies par ces IA. Ils ne sont donc pas tous dupes. Mieux encore, les plus âgés (15-17 ans) sont encore plus méfiants que les 13-14 ans. Il y a là une forme de lucidité rassurante.
Mais voilà le hic : un tiers d’entre eux trouve ces conversations plus satisfaisantes que celles avec leurs amis réels. Un tiers ! Certes, les deux tiers préfèrent encore l’humain, mais cette proportion devrait nous questionner sur la qualité des interactions que vivent les jeunes au quotidien. En outre les évolutions dans les pratuques sont si rapide que l’on voit mal comment tout cela va évoluer.
Un terrain d’entraînement social ?
Il y a aussi des surprises positives dans cette étude : 39% des ados utilisent ces conversations comme un laboratoire pour leurs interactions réelles. Ils testent des compétences sociales (39%), des accroches de conversation (18%), apprennent à donner des conseils (14%) ou à exprimer leurs émotions (13%).
De nombreux jeunes utilisent l’IA comme un espace d’expérimentation sans risque. Un peu comme on répète devant son miroir avant un entretien important. Sauf que le miroir, aujourd’hui, répond et propose des alternatives. Il y a eut-être là une forme de résilience créative face au manque de lieux sécurisés pour s’exercer aux relations humaines.
Le problème est que Chat GPT, pour ne parler que de lui, capte vos données et les réutilisent. Open AI ne respecte pas la législation européenne et a été condamné à ce sujet. Pourtant des millions de personnes l’utilisent au plus grand bénéfice des multimilliardaires de la Silicon Valley.
Les signaux d’alerte qu’on ne peut ignorer.
Il faut être clair : le côté obscur du « chat sympa » avec l’IA est bien là. Les poursuites judiciaires contre Character.AI suite au suicide d’un adolescent en Floride et la mort d’un homme de 35 ans tué par la police nous rappellent brutalement les dangers de l’IA non maîtrisée. Cela concerne courent jeune, mais plus largement toutes celles et ceux qui sont psychologiquement fragiles. Ces outils ne sont ni des thérapeutes, ni des éducateurs, ni des travailleurs sociaux.
Le problème ? les IA peuvent faire croire qu’elles suffisent pour accompagner un jeune ou une personne en difficulté. Et quand un jeune en détresse cherche de l’aide à 3h du matin, que trouve-t-il ? Ce ne sera pas une ligne d’écoute ni un service d’urgence, mais un chatbot disponible, rassurant, qui lui dit exactement ce qu’il a envie d’entendre.
C’est aussi là le problème : l’IA vous répond comme une amie, mais n’est rien d’autre qu’un miroir. Elle analyse votre structure de langage et vous la renvoie. Cela vous donne l’impression de n’avoir jamais été aussi bien compris. Le vrai souci, c’est qu’elle reformule tout. L’illusion est réelle. Le jeune ne se confronte plus à une autre personne susceptible de la contredire, il se confronte à lui-même dans une vision idéalisée à l’image des filtres photos Instagram susceptibles de donner une meilleure image de vous.
Mais que peuvent faire les professionnels ?
Voilà l’exacte question que je me pose. Face à cette déferlante technologique, avons-nous la possibilité de faire l’autruche et d’agir comme si cela n’existait pas ? Je ne le crois pas. Plusieurs pistes me semblent intéressantes à explorer :
Comprendre avant de juger. Les jeunes ne sont pas tous des naïfs tombés dans le panneau digital. Ils cherchent des réponses à des besoins réels : écoute, disponibilité, non-jugement, espace d’expérimentation. Il nous faut être disponibles et les écouter au sujet de leurs pratiques numériques.
C’est une façon d’intégrer cette réalité dans nos pratiques. Plutôt que de diaboliser l’IA, pourquoi ne pas discuter avec les jeunes de leur usage ? « Tu discutes avec ChatGPT ? Qu’est-ce que tu cherches ? Qu’est-ce que ça t’apporte ? » Voilà des questions qui ouvrent le dialogue plutôt que de le fermer.
Repenser notre disponibilité. Si l’argument principal est « c’est toujours disponible », interrogeons nos modes d’organisation. Comment être plus accessibles, plus réactifs, sans pour autant sombrer dans l’épuisement professionnel et le travail sans fin ?
Former et sensibiliser. De nombreux jeunes ne perçoivent pas les limites et les dangers de ces outils. Il y a nécessité de développer l’éducation aux médias numériques. Comment ? il s’agit d’abord de promouvoir un esprit critique face à l’IA, avec par exemple des explications permettant de comprendre ce que sont les biais algorithmiques…
L’humain reste irremplaçable (enfin, pour l’instant)
Finissons sur une note d’optimisme. L’étude révèle que 80% des utilisateurs d’IA passent toujours plus de temps avec leurs vrais amis qu’avec leurs chatbots. Seulement 6% privilégient l’artificiel au réel.
L’humain résiste. La relation authentique, avec ses imperfections, ses silences pouvant être gênants, ses malentendus, mais aussi ses bons moments (fous rires, regards complices, expression d’émotions…), tout cela garde une valeur irremplaçable.
Notre rôle, en tant que professionnels du social, n’est donc pas de lutter contre la technologie, mais de promouvoir ce qui fait l’essence de notre métier : la relation humaine, avec toute sa complexité, sa richesse, et aussi ses imperfections.
Parce qu’au fond, un algorithme reste un simulateur. Il peut simuler l’empathie, mais il ne pourra jamais vraiment ressentir la détresse d’un jeune ni partager sa joie. Il ne peut croire en son potentiel avec cette intensité qui fait que vous marquez le jeune dans sa trajectoire de vie tout simplement parce que vous vous êtes intéressé(e) à lui et avez passé du temps pour le comprendre.
Et ça, aucune IA, aussi sophistiquée soit-elle, ne pourra jamais le remplacer.
Et vous, qu’en pensez-vous ? Avez-vous observé ce phénomène dans votre pratique professionnelle ? Vos retours sont toujours précieux pour enrichir notre réflexion collective.
Source :
Photo : Victority sur depositphotos 



Une réponse
Maurice Blanchot a écrit « la réponse est le malheur de la demande « oui il faut rencontrer les adolescents, être à leur côté pour être témoins de leur demande et qu’ils soient moins seuls à entendre ces réponses robotisées.