L’irruption de l’intelligence artificielle dans le quotidien des travailleurs sociaux n’est plus un phénomène marginal, mais une réalité qui interroge profondément les pratiques, les compétences et l’éthique du métier. Cette réalité nous oblige à adopter une posture à la fois pragmatique et critique. Il nous faut refuser aussi bien un angélisme technologique tout comme un rejet systématique. Bien qu’étant très critique sur les usages actuels de cette technologie, je pense qu’il nous faut la considérer comme un allié potentiel, à condition de l’intégrer avec discernement et responsabilité. Pour l’instant, on en est encore loin.
Quatre cadres pour penser l’écriture à l’ère de l’IA
il nous faut distinguer quatre façons d’aborder l’écriture numérique. Cela permet de saisir la diversité des usages de l’intelligence artificielle dans la rédaction professionnelle.
L’écrit numérique stocké ouvre la voie à une gestion électronique des documents. Ce système facilite l’archivage et le partage. L’IA y est peu présente. Ce sont surtout des algorithmes qui sont à l’œuvre.
L’écriture pour la machine concerne la saisie de données sur des plateformes. Cela correspond à ce que rédigent les travailleurs sociaux, par exemple à l’issue de leurs interventions pour alimenter des bases ou des logiciels métiers permettant de produire des statistiques.
Mais il y a aussi « l’écriture par la machine ». Elle est incarnée par les chatbots et autres générateurs automatiques de textes qui apportent des réponses en fonction des questions posées.
Enfin, plus courant désormais, il y a l’écriture avec la machine. Cela concerne des outils d’aide à la rédaction, des modèles ou des correcteurs intégrés. Ils « accompagnent » le professionnel dans la structuration ou la reformulation de ses écrits.
Quelles opportunités concrètes pour les professionnel(le)s ?
Au-delà de cette typologie, l’intelligence artificielle offre de réelles possibilités pour les travailleurs sociaux. mais c’est à la condition qu’ils maitrisent leurs outils, en connaissent les limites et s’inscrivent dans une démarche éthique. L’I.A. permet de structurer, synthétiser ou reformuler des passages, facilitant la rédaction de documents parfois longs et complexes.
Elle propose des corrections linguistiques et stylistiques pour améliorer la clarté et la lisibilité des rapports. Elle peut aussi générer des plans ou des brouillons à partir de consignes précises, ce qui fait gagner un temps précieux sur la mise en forme initiale. Dans la pratique, des professionnels témoignent de l’utilité de l’IA pour synthétiser des idées, organiser des projets ou rédiger des synthèses, tout en clarifiant leur pensée.
Les risques et limites de l’IA dans la pratique professionnelle
Mais ces avancées ne doivent pas occulter les risques ni les limites de ces outils. Le respect du RGPD et de la confidentialité reste une exigence absolue, car toutes les IA ne respectent pas la législation européenne sur la protection des données. Il est essentiel de choisir des outils conformes et d’anonymiser les informations sensibles avant toute utilisation. POur ma part je préconise un apprentissage à travers l’IA française Mistral en utilisant une plateforme issue du monde des logiciels libres duck.ai :
En utilisant cette plate-forme, vous pouvez tester plusieurs modèles d’IA sans risques. La navigation est anonyme et l’IA ne pourra pas stocker vos écrits initiaux.
Il y a une autre question que pose un usage systématique de l’IA dans notre champ professionnel. Il ne faut pas minimiser le fait qu’un usage excessif de l’IA peut conduire à une dépendance technologique. cela peut aller jusqu’à une perte de compétences rédactionnelles et à une standardisation de vos écrits, au détriment de la singularité des situations et des personnes accompagnées.
La qualité et la pertinence des réponses générées par l’IA sont généralement très normatives. Elles sont parfois inadaptées au contexte du travail social, voire erronées ou « hallucinées ». Enfin, seuls les professionnel(le)s qui maitrisent bien le sujet décèlent les erreurs. D’autres, peu regardant(e)s peuvent se laisser influencer par les réponses. En effet l’IA apporte ses réponses de façon péremptoire, même quand elle se trompe. Ele n’est jamais en proie au doute contrairement aux travailleurs sociaux qui s’appuient sur de multiples hypothèses.
L’IA ne remplace pas la réflexion humaine
C’est une évidence, mais il est nécessaire de le rappeler : L’intelligence artificielle ne peut en aucun cas remplacer la réflexion, l’analyse éthique et la prise de recul du professionnel.
Il s’agit de ne pas déléguer sa pensée à la machine, mais de l’utiliser avec discernement et sens critique. L’humain doit rester garant du sens, de l’éthique et de la qualité de l’écrit. Il ne faut jamais confier à l’IA l’analyse ou la décision. L’IA doit être privilégiée pour la correction, la reformulation ou l’organisation du texte, mais jamais pour la rédaction intégrale de documents professionnels.
Construire un cadre collectif et éthique d’utilisation
Il est également essentiel de débattre collectivement de ces usages au sein des équipes. Il s’agit de pouvoir construire un cadre partagé et éthique. Cette démarche collective permet de maîtriser les risques et de garantir que la technologie reste au service de l’humain.
Dans mon guide sur les écrits professionnel en travail social, j’insiste sur la nécessité de toujours vérifier et retravailler les propositions générées par l’IA. Mais il est tout autant nécessaire d’ouvrir un débat professionnel sur ces nouveaux outils. Les institutions employeurs ont une responsabilité à ce sujet. Il ne faut pas que l’IA soit utilisée « à bas bruit » sans une véritable formation et réflexion sur ce que provoque son usage, notamment auprès de la population aidée.
Dans la pratique, un(e) assistant(e) social(e) peut utiliser l’outil pour synthétiser la partie conclusion de ses rapports dans le but de clarifier ses idées et de « gagner » du temps. Un éducateur spécialisé peut s’en servir pour structurer des pistes de travail avec un enfant, en s’appuyant sur des modèles adaptés à ses besoins.
L’IA peut aussi être mobilisée avec les personnes accompagnées. par exemple pour rédiger des courriers ou construire des projets d’orientation.
Une autre dimension, soulignée par une collègue du Morbihan qui se reconnaitra, consiste à échanger avec les usagers sur leurs propres pratiques de l’IA. En effet, nombreux sont ceux qui l’utilisent déjà pour être conseillé. Certaines personnes les utilisent comme si elles étaient des « amies » à qui se confier. Cela crée une dépendance psychologique à terme très problématique.
Les écueils à éviter absolument
Ce qu’il ne faut surtout pas faire, c’est utiliser des outils non conformes au RGPD, au risque d’exposer la vie privée des usagers à des dangers majeurs. Il est donc recommandé de n’utiliser que des données anonymisées. À charge pour vous de finaliser votre écrit en apportant les éléments d’identification après l’utilisation de l’IA.
N’oubliez pas non plus qu’il ne faut jamais déléguer l’analyse ou la décision à l’IA. Cela reviendrait à abandonner votre responsabilité professionnelle et éthique.
Il est également impératif de ne jamais accepter sans vérification les propositions de l’IA. Elles peuvent contenir des erreurs ou des formulations inadaptées. Elles ne sont pas exemptes de biais.
La standardisation des écrits, sous prétexte d’efficacité, doit être évitée pour préserver la singularité de chaque situation. Chaque personne accompagnée devrait être informée de la façon dont l’IA est utilisée dans l’écrit qui la concerne. Enfin, on ne pas négliger la formation et la sensibilisation des équipes, afin que chacun s’approprie ces outils de manière réfléchie et collective.
Il y a là aussi une responsabilité des directions qui doivent avoir une visibilité sur la manière dont l’IA est utilisée dans leur service. Ce n’est pas au travailleur social d’utiliser des outils comme chat-GPT qui n’assurent pas la confidentialité des données et leur stockage. (Pour Chat-GPT les données sont ensuite entrainées aux États-Unis dont la législation sur le traitement de l’information est très permissive. Toujours au bénéfice des entreprises de la tech.
Pour une appropriation réfléchie de l’IA
L’intelligence artificielle n’est donc ni une solution miracle, ni une menace existentielle, mais un outil à intégrer avec discernement. Elle doit rester au service de l’humain et de la singularité des situations accompagnées. Je vous invite à développer une réflexion professionnelle approfondie sur ces outils, afin de maîtriser les risques et de garantir que la technologie reste un allié, jamais un maître.
Conclusion : écrire avec responsabilité et humanité
L’écrit professionnel, au fond, demeure un acte engagé. Il reflète votre positionnement éthique et votre volonté d’accompagner au mieux les personnes concernées. L’IA peut y contribuer, à condition de ne jamais perdre de vue l’humain et la singularité de chaque situation.
La formation, la réflexion collective et la construction d’un cadre éthique partagé sont des enjeux majeurs pour les années à venir. Ainsi, l’intelligence artificielle pourra devenir un levier pour améliorer la qualité des écrits, sans jamais se substituer à la responsabilité et à l’humanité de votre travail.
lire aussi
- Écrits professionnels et numérique : entre éthique, responsabilité et transformation des pratiques
- Écrire pour agir : les clés de l’écrit professionnel en travail social
- L’intelligence artificielle dans le secteur social : un outil à manier avec précaution
- Comment l’intelligence artificielle (IA) peut-elle vous aider à rédiger un rapport social ?
Photo : Depositphotos