L’accélération technologique bouleverse le quotidien des professionnels du travail social. Elle les invite à se confronter avec lucidité et inventivité à l’essor de l’intelligence artificielle (IA). Pascal Plantard, professeur en sciences de l’éducation et spécialiste du numérique éducatif discerne trois phases dans la rencontre humaine avec la technologie : d’abord la soumission, marquée par la fascination ou la résistance initiale ; puis la maîtrise progressive et critique ; enfin, le jeu, qui traduit la capacité à s’emparer de l’outil pour en faire émerger de nouveaux usages. Cette analyse, développée dans ses travaux sur la fracture numérique et les usages sociaux du numérique, montre que « penser les machines en dehors des humains ne mène pas très loin », car les technologies s’articulent fondamentalement à notre humanité. Je pense qu’avec l’IA nous en sommes encore à la soumission marquée par la fascination. Pourquoi ? Parce que tout va trop vite.
Hartmut Rosa, sociologue allemand nous avait alerté sur les aspects de l’accéleration qu’elle soit technologique ou sociale. Elle s’accompagne d’un sentiment d’injonction permanente. Nous sommes alors face à une difficulté croissante à s’arrêter pour penser. Dans son ouvrage majeur « Accélération » (La Découverte, 2013), il nous explique que l’accélération intégre trois dimensions : l’innovation technique, l’accélération des changements sociaux et l’accélération du rythme de vie. Ici l’IA contribue à accelerer nons seulement les changements sociaux (nos comportements) mais aussi notre rythme de vie au travail.
Penser l’IA avant de l’adopter
Le travail social ne saurait assimiler l’IA à une nouvelle panacée sans interroger en profondeur ses conséquences sur les valeurs fondamentales qui structurent la profession. C’est pourquoi il faut à la source de ce sujet : Paul Ricœur, invite avec rigueur à distinguer morale — ordre de l’obligation, code de conduite collectif — et éthique — visée du bien, souci d’autrui et de justice dans l’institution. Pour le philosophe, « l’éthique vise une vie accomplie sous le signe des actions estimées bonnes, tandis que la morale concerne le côté obligatoire, marqué par des normes, des obligations, des interdictions caractérisées par une exigence d’universalité et un effet de contrainte ».
La réflexion éthique, loin d’être un artifice, doit précéder tout acte. Elle guide l’adoption ou la réticence à l’intégration d’outils algorithmiques dans la pratique. Les professionnels, notamment les assistants de service social, s’appuient de leur côté sur le code de déontologie de l’ANAS qui est en quelque sorte une morale professionnelle qui fixe des limites. Ils savent que la dignité humaine, trop souvent menacée par la pauvreté ou l’exclusion, suppose une vigilance constante face aux mutations technologiques.
C’est le sens de l’article 6 de ce code rédigé dès 1994 : « L’introduction et le développement des technologies modernes de recueil et de traitement des informations, imposent à l’Assistant de Service Social de se préoccuper, dès la phase de conception d’un projet, des règles de conservation et de recoupements, au regard du respect de la vie privée des individus et des familles ». Cet article est complètement d’actualité avec l’arrivée de l’IA dans notre secteur. Toutefois, ce code « n’a pas une portée comparable à celle de codes similaires tels que ceux des médecins ou des avocats » car l’ANAS n’est pas un ordre professionnel et son code n’est pas juridiquement opposable à ses adhérents. De plus il ne concerne pas tous les travailleurs sociaux.
La Commission Nationale Informatique et Liberté (CNIL) rappelle que le respect du RGPD est toujours valable en matière d’IA. Dans ses dernières recommandations publiées en juillet 2025, L’autorité indépendante estime que « les systèmes d’IA appliqués aux services publics ne sauraient être dissociés des exigences du Règlement Général de Protection des Données (RGPD), ni de l’ambition de garantir intact le pouvoir d’agir des personnes ». Cet éclairage réglementaire récent souligne l’importance de l’articulation entre innovation technologique et respect scrupuleux de la vie privée.
Quand les applications issues de l’IA met à l’épreuve la vie privée
L’émergence rapide des technologies numériques, et notamment de l’IA générative ou prédictive, pose aux travailleurs sociaux une série de questions à la fois inédites et déterminantes. Le cas emblématique de Clearview AI illustre parfaitement les défis éthiques. Cette start-up américaine, spécialisée dans la reconnaissance faciale depuis 2017, a constitué une base de données totalisant plus de 20 milliards de clichés « moissonnés » sur internet et les réseaux sociaux sans consentement des personnes concernées. Condamnée par plusieurs autorités européennes de protection des données – la CNIL (20 millions d’euros d’amende), les autorités britanniques (8,9 millions d’euros), italiennes et grecques – l’entreprise continue allègrement de piller les données personnelles des internautes arguant qu’elle relève du droit américain. Après elle, pourquoi pas d’autres ?
Rappelons que « la mort de la vie privée » a été défendue dès 2013 par Vinton Cerf, l’un des pères fondateurs du Web, alors « chef évangéliste de l’Internet » chez Google. Dès 2021 l’ONU demandait un moratoire sur certains systèmes d’IA face aux risques d’atteinte à la vie privée qu’ils représentent. Peut-on éthiquement accepter d’utiliser ces systèmes qui n’apportent aucune garantie de condentialité ? Peut-on accepter de nourrir des IA en leur fournissant les textes de nos rapports et autres écrits professionnels. Non bien sûr direz-vous. C’est pourtant ce qui se passe lorsque nous utilisons sans recul Chat GPT et autre sytème qui se veut gratuit. Si c’est gratuit, ce sont les données que vous transmettez qui est votre paiement.
Prendre soin de la relation à l’autre
Cette aliénation par la machine n’a pas d’avenir. Le travail social, par essence, repose sur la co-construction de la relation d’aide, sur la reconnaissance de l’autre dans sa complexité et sa capacité d’agir. L’« alliance » entre travailleur social et personne accompagnée, fondée sur l’écoute, la confiance, la co-évaluation mais aussi le partage des décisions quand cela est possible, ne peut être dissoute dans une logique utilitariste ou managériale pilotée par la donnée. Cette réalité est aussi l’une des origines du malaise actuel dans nos professions.
C’est pourquoi Il faut saluer l’étude participative lancée par la Direction générale de la cohésion sociale (DGCS) et le LaborIA, sous la direction scientifique de Yann Ferguson, sociologue à l’Inria. Elle nous montre la voie. Réflechir avant d’agir. Remettre le sens au coeur du travail et réfléchir collectivement à l’impact de l’IA sur les pratiques professionnelles. Cette recherche action qui s’étale sur un an et a débuté en février de cette année, est une approche collaborative particulièrement pertinente pour l’ensembled des professionnel(le)s. Elle implique les travailleurs sociaux, les responsables de structures et les usagers dans un processus de co-conception. Bref, elle répond aux attentes de nos professions en repectant ses pratiques.
Notons aussi cet autre enjeu, martelé par la commission éthique du Haut Conseil du travail social dans son avis « Travail social et intelligence artificielle » de 2023. Il réside dans l’idée qu’il faut défendre la capacité de chacun à dire non. Nous avons le droit de nous exprimer sur le sens et les modalités du recueil des données recueillies pour alimenter l’IA. Sinon c’est du vol, voire du pillage. La participation des usagers, instiutuée par la loi 2002-2, devrait aussi se traduire dans toute procédure impliquant l’IA : information préalable, consentement éclairé, implication effective dans la co-construction des décisions d’utiliser l’IA et d’en comprendre le fonctionnement et ses effets.
Les risques réels de l’IA : opacité, biais, et déshumanisation
Les professionnels du travail social ne peuvent ignorer la « boîte noire » que constitue l’IA telle qu’elle est proposée actuellement. À la différence des algorithmes traditionnels, dont les règles peuvent être facilement rendues transparentes, la logique de l’IA, apprenante et évolutive, échappe à la compréhension même de ses concepteurs. Les recherches récentes sur les biais algorithmiques révèlent des discriminations systémiques préoccupantes. Sans parler des « hallucinations » que parfois elle produit.
La Défenseure des droits, dans son rapport « Algorithmes : prévenir l’automatisation des discriminations » (2020), va dans le même sens. Elle rappelle que « les biais discriminatoires intégrés par un algorithme s’appliquent de manière automatique et pourraient systématiser les discriminations ». L’institution met en garde contre le risque de « renforcer les discriminations en leur donnant une apparence d’objectivité ». Des études spécialisées confirment ces préoccupations : « les populations afro-américaines étaient plus souvent pénalisées par les décisions de justice qui s’appuient sur le recours aux algorithmes » aux États-Unis, et « des taux d’erreur plus importants pour les femmes, les personnes noires ou en situation de handicap » sont constatés dans les systèmes de reconnaissance faciale.
L’Institut Montaigne, dans son rapport « Algorithmes : contrôle des biais SVP », précise que « les biais algorithmiques conduisant à des discriminations sont rarement dus à un code erroné de l’algorithme. C’est bien là aussi le problème. Ces biais sont la conséquence des données, incomplètes, de mauvaise qualité qui sont fournies à l’IA. Ainsi par exemple « Grok » l’IA née de la vision d’Elon Musk qui en est le propriétaire puise ses données dans X le réseau social dont les fake-news sont majoritaires. Cette IA sera un outil de construction de « réalités alternatives » reflétant les volontés de son concepteur. Les biais présents dans la société, sont bien plus souvent à l’origine des errements de l’IA. Cette observation tout simplement technique rejoint les préoccupations éthiques du secteur social qui tente de lutter contre ces biais en reconnaissant que chaque être humain a une valeur à part entière.
L’empreinte environnementale et Sociale : L’IA n’est pas neutre là non plus
Les débats publics, relayés et analysés par la CNIL, mettent en avant une évidence trop souvent occultée : l’IA possède une empreinte écologique de plus en plus préoccupante. Le magazine Science et Avenir nous indique que les IA nécessitent des capacités de calcul colossales pour s’entraîner sur des milliards de données. Cela implique des serveurs puissants et énergivores. Comparée à un moteur de recherche qui extrait des informations, ces IA « génèrent de nouvelles informations », ce qui rend le processus « beaucoup plus énergivore » consommation énergétique massive liée aux infrastructures de calcul et aux centres de données. Il n’est plus possible de séparer innovation technique et responsabilité écologique.
La séduction technologique recèle également une dimension insidieuse : l’illusion que la machine pensera à notre place ou, pire, saura mieux que le professionnel et la personne ce qui est « bon » pour elle. Les générateurs de texte, capables d’« halluciner » des sources et des faits inexistants, posent le problème aigu de la fiabilité de l’information diffusée aux publics. Accepterons nous ainsi de prendre de tels risques en utilisant des IA prédictives censées fixer des priorités d’interventions ?
Les principes éthiques : des remparts face aux dérives qui ne manqueront pas de survenir
C’est dans ce contexte un peu délétère où le techno-solutionisme peut enthousiasmer certains dirigeant qu’il est essentiel de rappeler une série de principes éthiques. L’équité, la loyauté, la non-discrimination, la transparence, le consentement éclairé, la réflexivité et la vigilance sont autant de garde-fous rappelés tant par la CNIL que par les professionnels de l’action sociale qui ont étudié ce sujet. Ces principes trouvent une traduction concrète dans la « charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires » qui énonce cinq principes : respect des droits fondamentaux, non-discrimination, qualité et sécurité, transparence et intégrité intellectuelle, maîtrise par l’utilisateur. Il faut absolument étendre cette charte au secteur du travail social.
La transparence des traitements, l’explicabilité des recommandations produites par l’IA, la possibilité d’une intervention humaine significative, sont des exigences qui doivent structurer la conception et la mise en œuvre de projets sociaux ou médico-sociaux numériques. La CNIL rappelle dans ses recommandations 2025 que « l’IA affiche l’ambition de modéliser certaines facultés mentales de l’être humain » mais reste fondamentalement distincte de l’intelligence humaine. Il faut le rappeler car les promoteurs de l’IA l’oublie complètement.
Un engagement clair des institutions : former, réguler et évaluer
La CNIL, forte de ses dernières recommandations publiées en juillet 2025, incite explicitement à la formation éthique de tous les intervenants de la chaîne algorithmique, de la conception à l’usage. L’objectif est de permettre à chaque professionnel, et en particulier aux travailleurs sociaux, de maîtriser les enjeux, les limites et les potentialités de l’IA. Cette exigence se concrétise notamment par le projet PANAME (Partenariat pour l’Audit de la confidentialité des Modèles d’IA), lancé en juin 2025 par la CNIL, l’ANSSI et le PEReN, qui vise à « développer un outil pour auditer la confidentialité des modèles d’IA ». Ce travail est en cours et non finalisé.
On ne pourra s’en sortir que si nos institutioins, nos employeurs et nos dirigeants se penchent eux aussi sérieusement sur ce sujet. Pour cela il leur faudra prendre une certaine distance avec les cabinets de conseils qui tous mettent en avant la nécessité d’utiliser l’IA dans leurs services pour ne pas manquer le train de la modernité. Ces arguments ne tiennent pas : il faut les interroger sur les résultats des usages de l’IA quand on voit que son utilisation est fortement controversée et que ses bénéfices tardent à venir dans notre secteur. L’exemple du Japon n’est pas là non plus pour les rassurer.
L’avis du Haut Conseil du travail social souligne que la responsabilité relève à la fois de l’individu — chaque professionnel demeurant garant des choix posés — et des institutions, entreprises ou autorités régulatrices. Ce sont elles qui encadrent la conception et l’utilisation des outils numériques. Ainsi par exemple, l’Université Dauphine-PSL propose désormais une formation « IA & dialogue social ». Elles sont destinée aux partenaires sociaux de tous niveaux, aux représentants du personnel et aux décideurs RH pour « acquérir une compréhension approfondie des implications de l’IA ».
De nouvelles exigences pour les usages professionnels de l’IA et pour la protection des données
La conformité au RGPD est indispensable, tout comme la protection stricte de toute donnée nominative ou sensible dans tout écrit professionnel. Les recommandations 2025 de la CNIL précisent les « conditions d’applicabilité du RGPD aux modèles » et les « impératifs de sécurité » spécifiques aux systèmes d’IA. L’exemple de Mistral, entreprise française respectueuse des normes européennes, dessine les contours d’une pratique vertueuse — mais exigeante. En tout cas si vous souhaitez utiliser l’IA faites le avec Mistral et non avec Chat-GPT qui malgré ses affirmations lénifiantes, se moque littéralement de la protection des donnée. « Quand on s’inscrit sur ChatGPT, [on donne] déjà toutes nos informations personnelles, et ensuite, l’historique et le contenu de notre conversation deviennent eux aussi des renseignements personnels », résume d’emblée Anne-Sophie Hulin, professeure adjointe à la Faculté de droit de l’Université de Sherbrooke.
L’écriture en travail social implique une responsabilité plus forte encore : chaque rapport, chaque inscription dans un dossier doit être pensé dans la perspective de la lecture possible par la personne concernée elle-même. Nous sommes loin des pratiques des IA pour qui la co-construction de l’écrit n’a pas de sens.
Pour conclure : une invitation à la réflexion et à l’action
Face à cette situation qui rappelons-le s’impose à nous alors que nous n’avons initialement rien demandé, chacun, professionnel de l’aide, usager, décideur, est appelé à exercer son discernement et à exiger des garanties, non seulement techniques mais humanistes. L’IA ne sera jamais neutre ni totalement objective. Nous ne le sommes pas non plus d’ailleurs. Mais il faut bien comprendre que les usages de l’IA dans le domaine social procédera toujours d’un choix éthique, jamais d’une fatalité. Ce constat permet de reaffirmer la mission du travail social à l’ère numérique : réinventer continuellement l’art d’accompagner sans jamais céder la main, ni la pensée, à la machine.
Les professionnels du travail social, sont déjà souvent confrontés en première ligne à l’opacité des systèmes d’information. Ils doivent être outillés, formés, et associés à chaque étape de conception et d’évaluation des outils numériques. Leur engagement, leur expertise de la relation, leur culture du doute et leur souci inlassable du bien commun sont les meilleures garanties d’une transition technologique respectueuse des personnes.
Il est nécessaire que les professionnel(le) acceptent de se réunir pour rédiger des chartes, siéger dans les comités éthiques, dialoguer avec les développeurs d’algorithmes… Il leur faut investir les instances de régulation, participer à d’autres études collaboratives comme celle lancée par le LaborIA : tels sont les nouveaux gestes professionnels à cultiver, au-delà de la technique, pour pouvoir maintenir une éthique de l’action sociale renouvelée par l’ère numérique.
Le travail social est à la croisée des chemins : il ne s’agit pas de refuser la technologie ni de s’y soumettre, mais d’en faire un outil partagé, critiqué et surtout domestiqué. Un outil capable, enfin, de renforcer le pouvoir d’agir des personnes et la communauté humaine tout entière. L’horizon de la réflexion éthique, loin de ralentir l’innovation, lui confère sa profondeur, et sa légitimité. L’intelligence artificielle ne sera, en définitive, que ce que l’humain — professionnel de l’aide en première ligne — saura en faire ou laissera faire.
Pour aller plus loin :
- IA : la CNIL finalise ses recommandations sur le développement des systèmes d’IA et annonce ses futurs travaux (22 juillet 2025)
- Avis de la commission éthique du HCTS « Travail social et intelligence artificielle » (2023)
- « Accélération », d’Hartmut Rosa : la fuite en avant de la modernité (15 avril 2010) | Le Monde (abonnés)
- « Lectures 1 » Paul Ricœur sur éthique et morale | questionsenpartage (sans date)
- Vers une convention professionnelle « Intelligence artificielle et Travail Social » et visionner le webinaire du 20 juin 2025 (contact : laboria-travailsocialetia@inria.fr)
- Ressources du Défenseur des droits sur les biais algorithmiques (1er février 2024)| DDD
- Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires (decembre 2018) | COE
- Travail social et intelligence artificielle – Avis de la commission éthique et déontologie du travail social (juin 2019)
Image issue de Freepik
 
															

