« L’IA ne remplace pas l’intelligence du travailleur social, elle la met à l’épreuve » : entretien avec Adrien Guionie

[current_page_url]
L’intelligence artificielle s’invite désormais dans les services sociaux, « à bas bruit », comme j’ai pu l’écrire dans la préface de l’ouvrage d’Adrien Guionie. Face à cette réalité qui s’impose, deux écueils guettent : le rejet systématique ou l’enthousiasme naïf. Entre ces deux extrêmes, Adrien Guionie, assistant de service social en protection de l’enfance, trace une troisième voie : celle du discernement. Son livre, L’IA, un outil pour le travail social ? (Erès), se veut un « manuel pratique et éthique » pour accompagner les professionnels dans cette mutation. Je l’ai interrogé afin qu’il puisse préciser sa pensée.
En effet, Adrien Guionie fait partie de ces précurseurs qui posent des questions qui peuvent déranger. Il est aussi un « travailleur social chercheur » qui s’appuie sur la pratique quotidienne pour contribuer à faire avancer notre réflexion sur un sujet certes à la mode, mais majeur pour la décennie qui vient.
Didier Dubasque : Adrien, pourquoi écrire ce livre maintenant ? L’IA dans le travail social, est-ce vraiment une urgence ?
Adrien Guionie : L’urgence, elle est là, oui. Pas parce qu’il faudrait courir après chaque nouvel outil, mais parce que les pratiques se développent déjà, souvent en silence. De nombreux collègues utilisent l’IA générative pour structurer des rapports, relire des écrits professionnels, cartographier des ressources locales… sans toujours en parler à leur hiérarchie. Or, si les institutions tardent à se saisir du sujet, la responsabilité juridique et éthique, elle, incombe immédiatement au professionnel. Mon objectif était d’offrir un cadre pour expérimenter sans culpabilité, pour interroger sans être paralysé. Comme je l’ai dit par ailleurs : il ne s’agit pas de subir la transformation, mais de la penser, de la comprendre, afin de mieux la maîtriser.
DD : Vous insistez beaucoup sur la nécessité de démystifier l’IA. Qu’est-ce qu’elle est réellement, pour un travailleur social ?
AG : C’est fondamental de partir de là : l’IA n’est pas une conscience artificielle. C’est un système de calcul statistique qui apprend à partir de données. Et si ces données contiennent les biais de notre société tels les discriminations, les stéréotypes, ou encore les inégalités structurelles, l’IA les reproduira, voire les amplifiera. Elle peut inventer des faits, modifier discrètement des résultats, prendre des décisions opaques. Un travailleur social qui ignorerait cela risquerait de produire des injustices en les revêtant de la légitimité trompeuse de l’« objectivité technologique ». C’est pourquoi j’insiste : il faut lutter contre ces dérives, et cela commence par une formation qui ne se limite pas aux savoir-faire techniques, mais qui cultive l’analyse critique. En effet il faut favoriser et permettre de débattre dans les services sociaux pour comprendre les rouages de cette technologie. Cela permettra d’éviter la sur-confiance dans l’appareil et donc de savoir faire face aux risques juridique, éthique et déontologique. Une réalité qui incombe à notre profession.
DD : Concrètement, quels usages pertinents identifiez-vous aujourd’hui ?
AG : Plusieurs départements expérimentent l’usage d’IA génératives pour structurer et relire des rapports. D’autres y ont recours pour identifier des dispositifs adaptés à la situation d’un usager ou cartographier les ressources locales. L’IA apporte un gain de temps indéniable et peut permettre aux écrits de gagner en clarté. Mais au-delà de l’efficacité, elle offre aussi « une dimension réflexive ». En étudiant les textes produits par la machine, le professionnel peut questionner les siens, analyser ses propres biais, ses automatismes, les zones d’ombre de son écriture ou de son analyse sociale. L’IA devient alors un « miroir de nos pratiques ». Paradoxalement, la « machine » peut nous aider à devenir plus conscients, plus réflexifs. Or, la réflexivité professionnelle est au cœur du travail social.
DD : Mais ce « miroir » ne risque-t-il pas de déformer la réalité ? Vous mettez en garde contre la standardisation des rapports…
AG : Exactement. Le risque de standardisation est réel. Les synthèses automatisées peuvent faire perdre « la nuance émotionnelle du moment vécu » : les silences, les hésitations, les gestes, tout ce qui fait la densité d’un entretien. Prenons un exemple concret : face à un jeune en rupture scolaire, seul le travailleur social, en échangeant avec lui et sa famille, peut comprendre que le refus de l’école traduit une peur de l’échec, une blessure identitaire ou une expérience de harcèlement. Une IA, elle, ne verra que des motifs statistiques. C’est pourquoi j’affirme : « L’humain doit garder la main sur le sens, et ne pas confondre justesse statistique et pertinence sociale. » Ce n’est pas une formule, c’est un principe d’action.
DD : Vous évoquez aussi les risques juridiques. Quels sont les points de vigilance absolus ?
AG : Le cadre éthique et réglementaire n’est pas négociable. Les risques sont nombreux : violation du secret professionnel, non-respect de la protection des données, diffusion de fausses informations, violation du droit d’auteur… La responsabilité professionnelle est, en de nombreux cas, engagée. Un travailleur social qui utiliserait l’IA pour partager des données confidentielles sans protection adéquate ne commettrait pas une simple « maladresse technologique » : il violerait les droits des personnes accompagnées et engagerait sa responsabilité pénale. C’est pourquoi j’invite à privilégier des solutions « souveraines », hébergées en Europe, comme Mistral, qui offrent des garanties sur la gestion des données et le respect du cadre juridique de l’IA de l’Union européenne. OpenAI et ChatGPT, largement utilisés, sont parmi les moins conformes à la réglementation et ont déjà fait l’objet de sanctions dans plusieurs États. D’autres options existent : des modèles libres, ou des IA intégrées à des messageries chiffrées comme ProtonMail.
DD : Vous parlez aussi de « gouvernance partagée ». Qu’entendez-vous par là ?
AG : Que la réponse technique seule ne suffit pas. Il faut des humains pour résoudre les difficultés humaines. Le solutionnisme technologique rencontre vite ses limites. L’IA sera ce que nous déciderons collectivement si nous prenons part à la décision. Elle restera le produit des algorithmes des grandes entreprises technologiques, si nous restons passifs. Nous avons trop souvent laissé le marché développer ce qui l’arrange, sans que les professionnels de terrain, qui en subissent les effets, aient voix au chapitre. Il faut éviter cela. Créer des espaces de réflexion partagée où les praticiens peuvent explorer ce que signifie travailler avec ces nouveaux outils, sans renier les valeurs fondamentales du travail social : c’est l’enjeu collectif de cette décennie.
DD : Quel message adressez-vous aux formateurs et responsables pédagogiques ?
AG : Intégrez l’IA dans les formations, oui, mais pour cultiver un esprit critique dès la formation initiale. L’objectif est de sensibiliser les futurs professionnels aux enjeux éthiques avant qu’ils ne les rencontrent « en vraie grandeur » dans leur quotidien. Les étudiants sont de toute manière les premiers utilisateurs de l’IA générative. Il faut donc les conduire à réfléchir sur ce qu’ils font avec cette technologie. Les futurs professionnel(le)s ont besoin d’une formation réfléchie, et non d’une formation purement technique à des outils qui évoluent sans cesse. Le manuel que je propose se veut d’ailleurs une ressource pour cela : études concrètes de situations, repères juridiques, questions issues du terrain… Tout est pensé pour alimenter les débats d’équipe et structurer les formations internes.
DD : Pour conclure, quel est, selon vous, le cœur battant du travail social à l’ère de l’IA ?
AG : C’est à mon avis ce que vous écrivez dans votre préface : chaque donnée traitée représente un être humain  parfois fragile : un enfant en danger, une personne en quête d’emploi, une famille en détresse… Toutes ces personnes doivent pouvoir compter sur notre vigilance éthique pour être protégées ou plus simplement soutenues. Cette protection ne pourra jamais être automatisée ; elle constitue le cœur battant du travail social, ce qui le distingue de toute autre forme d’intervention. L’intelligence artificielle ne remplace pas l’intelligence du travailleur social ; elle la met à l’épreuve, l’interroge et l’invite à se dépasser. À condition de rester maître de la technologie et en refusant de se laisser emporter par elle.
DD Merci.


Note : Je connaissais Adrien Guionie avant cet entretien.  J’ai en effet rédigé la préface de son ouvrage
Photo : capture d’écran de la vidéo Erès

Articles liés :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.