Rechercher
Fermer ce champ de recherche.

Comment l’intelligence artificielle (IA) peut vous aider à rédiger un rapport social ?

L’intégration de l’intelligence artificielle (IA) dans le secteur du travail social représente une avancée significative, notamment dans la rédaction des rapports. C’est une tâche essentielle, mais souvent chronophage qui demande une certaine habileté dans l’écriture. L’IA, par ses capacités d’analyse de données et de traitement automatique du langage naturel, peut offrir un soutien vous permettant de vous concentrer davantage sur votre mission première : l’accompagnement du public auprès de qui vous intervenez.

Évidemment, l’usage de l’IA doit être bien encadré et il est important que vous en connaissiez les limites. L’un de ses principaux avantages est sa capacité à structurer et à synthétiser vos informations. Dans le cadre votre travail, cela se traduit par exemple par la possibilité de vous proposer un plan pour présenter vos notes écrites « au kilomètre ».

L’outil peut aussi, à l’image d’un correcteur orthographique, vous proposer des corrections qui vont plus loin que le simple respect de l’orthographe et de la grammaire. Il peut reformuler des paragraphes que vous avez rédigés, mais que vous trouvez un peu confus ou mal organisés. Dans ce cas, il vous faut bien comprendre que vous ne devez le faire travailler qu’à partir d’un texte que vous avez déjà rédigé.

La première règle éthique est de NE JAMAIS proposer à l’IA des textes qui intègrent des noms et des informations permettant d’identifier une personne ou une famille. Il vous faut anonymiser votre texte afin qu’aucun élément d’identification apparaisse. En effet, les modèles d’IA tel Chat-GPT, Bard ou autre recueillent les données pour pouvoir les réutiliser plus tard. Cette règle est essentielle et ce serait une forme de levée de secret professionnel si vous confiez ces données à un tel outil.

Il est essentiel de souligner l’importance d’une utilisation éthique et responsable de l’IA dans le travail social. Les professionnels doivent veiller à ce que le recours à ces technologies respecte non seulement la confidentialité, mais aussi la dignité des personnes accompagnées. Toute  éventuelle suggestion de l’IA au sujet d’un texte que vous avez initialement rédigé doit toujours être soumises à votre jugement critique.

Avant de passer à un petit exercice, voyons ce que l’IA peut faire et ce qu’elle ne peut pas faire. Pour cela je prends référence Chat-GPT un outil que je commence à connaitre, car il m’arrive d’utiliser pour ce blog pour gagner un peu de temps quand mes paragraphes sont décousus.

Ce que l’IA peut faire : ses potentialités

De la génération de texte : ChatGPT peut produire des brouillons de texte basés sur des directives fournies, aidant ainsi à structurer et à rédiger les premières versions des rapports. Cela peut considérablement réduire le temps consacré à la rédaction et vous permettre de vous concentrer davantage sur l’analyse et l’interprétation des informations. Chat-GPT peut le faire, mais franchement le résultat n’est pas très satisfaisant. Les réponses sont normatives et s’appuient majoritairement sur des pratiques de travail social anglo-saxonnes, assez différentes de ce qui se pratique en France. Personnellement, je ne suis pas un adepte de cette forme d’utilisation. Je préfère générer mon texte et demander ensuite à Chat GPT de me corriger, ce qu’il fait plutôt bien.

Du traitement du langage naturel (NLP) : L’IA peut analyser et synthétiser de grandes quantités d’informations textuelles, telles que vos notes de réunion ou des transcriptions d’entretiens, pour en extraire des éléments clés pertinents pour un rapport. Cette capacité peut aider à identifier rapidement les informations importantes et à les intégrer de manière cohérente dans le rapport. Là j’ai pu constater que cela fonctionne dès lors que la commande qui lui est faite est claire et sans ambiguïtés.

De la correction linguistique et stylistique : c’est une assistance pour la correction orthographique, grammaticale et sur la forme, le style de votre écrit. En ce sens l’IA peut contribuer à améliorer la qualité et la professionnalité de vos rapports. Cette fonctionnalité est particulièrement utile pour garantir la clarté et la précision du langage utilisé.

Ce que l’IA ne peut pas faire : ses limites

L’IA ne comprend rien ! Malgré ses avancées, l’IA comme ChatGPT ne possède pas une véritable compréhension des situations complexes et des nuances humaines que les travailleurs sociaux savent interpréter. Elle ne peut pas remplacer le jugement professionnel, le regard d’empathie et votre expérience qui sont essentiels pour interpréter correctement les situations des personnes que vous accompagnez.

Elle ne sait pas gérer les données sensibles ! Elle doit être utilisée avec prudence lorsqu’elle traite des données personnelles et sensibles. En fait, la seule solution acceptable est d’anonymiser systématiquement les textes que vous lui soumettez. Bien évidemment, cela limite son application dans certains contextes. Il faut l’accepter

Il y a de sérieux risques de biais : Les algorithmes d’IA peuvent perpétuer ou même amplifier les biais existants dans les données sur lesquelles ils sont entraînés. Les travailleurs sociaux doivent être vigilants et critiquer les résultats générés par l’IA pour éviter de reproduire des stéréotypes ou des préjugés dans leurs rapports. On le voit bien à travers quelques questions qui lui sont posées

Un petit exercice sur les stéréotypes intégrés de l’IA

À la question « qu’est-ce qu’un homme fort ? » Voici le premier paragraphe de la réponse de Chat-GPT :

« La notion d' »homme fort » dans le contexte politique ou social fait généralement référence à un leader qui exerce un pouvoir autoritaire ou autocratique, souvent en concentrant une grande partie du pouvoir exécutif entre ses mains. Ce type de dirigeant est caractérisé par une prise de décision unilatérale, minimisant ou éliminant l’opposition et les contre-pouvoirs, tels que les médias indépendants, les institutions judiciaires autonomes, ou les assemblées législatives démocratiquement élues. L’image de l’homme fort est souvent associée à une promesse de stabilité, de sécurité et d’ordre, parfois en réponse à des périodes de chaos, de crise ou d’insécurité perçue ».

L’homme fort, vous l’avez compris, est un homme de pouvoir. Cette qualité selon Chat-GPT est celle d’un dirigeant autoritaire pour ne pas dire plus.

À la question « Qu’est-ce qu’une femme forte ? » Voici ce que répond Chat-GPT :

« Une femme forte est souvent perçue comme une personne qui possède une résilience remarquable face aux défis de la vie. Elle est capable de surmonter les obstacles et les adversités grâce à sa détermination, son courage et sa capacité à rester positive même dans les situations les plus difficiles. Une femme forte n’est pas nécessairement inébranlable en tout temps, mais elle sait comment se relever après une chute et apprendre de ses expériences ».

Il n’y a pas besoin de grands développements pour que vous puissiez voir la différence notable des représentations de l’IA entre un homme et une femme. La femme forte est résiliente et se relève après avoir « chuté ». L’homme fort, lui, ne chute pas. Il porte les attributs du pouvoir. L’IA se nourrit de ce qu’il trouve sur Internet. Vous le savez, il y a sur le web le meilleur qui côtoie le pire. Les stéréotypes sont bien présents. Or en tant que travailleurs social, nous savons qu’il est nécessaire de lutter contre les représentations et stéréotypes qui ne peuvent représenter les situations que vous rencontrez. C’est pourquoi, il me parait peu approprié de demander à l’IA de générer un texte à partir d’indications limitées.

 


Note : Si cet article vous a intéressé et que vous souhaitez aller plus loin sur ce sujet, merci à vous de me le préciser dans les commentaires. Si vous êtes plusieurs à l’indiquer, je peux rédiger d’autres articles sur l’art et la manière de faire appel à l’IA dans le champ du travail social.

 

Photo : Freepik.com

Partager

Articles liés :

4 Responses

  1. Il faut vivre avec son temps( soupir…)…L’école était là pour nous apprendre à manier notre belle langue, à mettre des majuscules en début de phrase et des points à la fin, à faire des paragraphes…et on a survécu. Plus la peine de faire des efforts : l’ordi le fera pour nous et pour quel gain de temps?
    Je ne suis pas convaincue du bien fondé de l’IA

  2. Je découvre votre article que je vais m’empresser de partager avec une jeune fille engagée dans un cursus en carrières sociales, mais qui a des difficultés à l’écrit.
    Je pense effectivement que cela ne devrait pas freiner les vocations, mais les enjeux de l’IA sont effectivement compliqués à expliquer aux jeunes (et même moins jeunes).
    Merci à vous.

  3. Sujet intéressant et essentiel dans le travail social. J’aimerais avoir un approfondissement notamment les divers types d’utilisation de l’IA pour un assistant de service social et sur ce qu’il pourrait en faire.
    Merci

    1. Bonjour,

      Merci pour cet article. Effectivement, tous conseils permettant de restreindre l’aspect administratif et chronophage dans le travail social me parrait aujourd hui intéressant (écrire éthiquement via l’IA).
      Je suis éducateur en protection de l’enfance depuis 20 ans et jette aujourd’hui l’éponge pour aller travailler en CHRS; pour des raisons d’épuisement et d’insatisfactions : ‘j adore mon métier mais commence à détester mon travail à l’ASE ».
      Depuis plusieurs années, je vous lis tous les matins et voulait vous remercier pour vos articles ressourçants, que je transmets souvent à mes collègues 😉
      Amicalement,

      Etienne

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.