L’intelligence artificielle (IA) est de plus en plus utilisée dans le secteur social. Elle le sera dans les années qui viennent. Elle contribue à transformer ainsi les modes de travail et les services proposés aux personnes accompagnées. L’IA peut même aider dans certains cas améliorer l’efficacité et l’efficience des services sociaux. Elle peut aussi renforcer l’autonomie des personnes vulnérables. Bien évidemment, son usage doit respecter des principes éthiques clairement identifiés et suivre les recommandations de la CNIL, la Commission Nationale Informatique et Libertés qui, dès 2017, a produit un certain nombre de recommandations.
L’IA est d’ores et déjà utilisée dans divers domaines sociaux, tels que la santé mentale, le soutien aux personnes âgées et le handicap. Elle va sans doute le devenir dans le champ de la protection de l’enfance. Les chatbots, les assistants virtuels et les outils d’analyse prédictive sont autant d’exemples d’applications dans notre secteur. Cet article vous propose de vous en rappeler certaines limites.
Pourquoi faire appel à l’IA ?
Les promoteurs de l’IA nous expliquent que les outils de l’intelligence artificielle peuvent aider les travailleurs sociaux à se concentrer sur des tâches plus complexes et dites « à valeur ajoutée ». Elle permet d’automatiser les tâches administratives et répétitives. Pourtant, des usages de certains algorithmes de la Caf ne résolvent pas le non-recours aux droits. Au contraire, ils ont plutôt tendance à l’amplifier.
Ce n’est pas le fait de faire appel à une intelligence artificielle qui est en cause, mais c’est la façon dont elle est construite et programmée. Elle ne peut pas actuellement répondre à la complexité du droit social et aux biais qui ont été introduits puis regénérés par leurs modèles d’apprentissage qui, rappelons-le, ont été initialement programmés par des humains.
Il y a aussi les outils d’analyse prédictive. Cela concerne la protection de l’enfance, mais aussi et surtout les personnes âgées. Ils visent à aider à identifier les personnes à risque et à prévenir les situations critiques. Cet usage, s’il n’est pas maitrisé, risque de provoquer une dépendance excessive à l’égard de l’IA, qui pourrait entraîner une perte de compétences et d’expertise humaines dans le secteur social. Personnellement, je suis assez réservé sur cet usage. Ils peuvent sans doute fournir des alertes, mais en aucun cas se substituer à l’intervention humaine.
L’IA est aussi performante pour aider à la rédaction de rapports. À l’image d’un correcteur orthographique et grammatical, certaines applications permettent d’organiser des paragraphes, de mettre en avant telle ou telle recommandation, de rendre les écrits plus clairs et compréhensibles, notamment dans les situations complexes. L’IA est une as de la synthèse. Oui, mais à la condition que l’humain « garde la main » en validant ou en invalidant certaines de ses productions car il peut y avoir des erreurs.
Quelques exemples utiles
il existe plusieurs exemples significatifs d’utilisation de l’IA dans le champ du travail social dans notre pays. En voici quelques-uns :
- L’association Entourage a développé une application mobile qui utilise l’IA. Il s’agit d’aider les personnes sans-abri à trouver des hébergements d’urgence et des services sociaux. L’application utilise également l’IA pour connecter les personnes sans-abri avec des bénévoles qui peuvent les aider à sortir de la rue.
- La start-up RogerVoice a développé une application qui utilise l’IA pour transcrire en temps réel les conversations téléphoniques pour les personnes malentendantes. L’application permet aussi aux utilisateurs de répondre aux appels téléphoniques en utilisant leur voix synthétisée.
- La plateforme en ligne Mon Parcours Handicap utilise l’IA pour aider les personnes handicapées à trouver des formations et des emplois adaptés à leur situation. Elle l’utilise aussi pour fournir des conseils personnalisés aux utilisateurs en fonction de leur profil et de leurs besoins.
Ces exemples montrent comment l’IA peut être utilisée au sein des services sociaux pour aider les personnes vulnérables à surmonter les obstacles auxquels elles sont confrontées. Cependant, il est important de souligner que l’utilisation de l’IA dans le champ du travail social doit être encadrée par des règles éthiques et juridiques strictes pour garantir la protection des droits fondamentaux des personnes concernées.
Le « solutionnisme technologique » est une réponse inadaptée
Le gouvernement est promoteur de multiples applications en ligne, laissant supposer que les solutions viendrons non pas des personnes, mais de la technologie et de ses usages. Pourquoi une telle vision ? Le recours systématique à la technologie pour tenter de résoudre les problèmes sociaux peut s’expliquer par plusieurs facteurs :
- Tout d’abord, la technologie est souvent perçue comme une solution rapide et efficace pour répondre aux besoins des personnes. Les décideurs politiques et les organisations sont tentés de se tourner vers des solutions techniques pour répondre à des problèmes complexes, car cela peut sembler plus facile et moins coûteux que de s’attaquer aux causes profondes de ces problèmes.
- En outre, la technologie est fréquemment associée à l’innovation et à la modernité. Cela ne fait que renforcer l’image positive des services sociaux, mais aussi des décideurs politiques qui les adoptent. Les entreprises technologiques peuvent également exercer une influence importante sur les décideurs politiques et les organisations, en promouvant leurs produits et services comme des solutions efficaces.
- C’est aussi un marché très porteur. Cela contribue à la croissance de la valeur et des profits.
- Cela amplifie tout autant un processus d’accélération des tâches dans les entreprises. Cette évolution suggère qu’il faut être de plus en plus « performant » et rapide dans la gestion des situations. Or la pratique du travail social demande du temps : celui de la réflexion et de l’analyse, celui du partage, celui du respect du rythme d’évolution de la personne aidée. Le manque de temps est souvent mis en avant par les professionnel(le)s qui sont en quelque sorte sous pression face au nombre de situations à gérer.
Cette façon de penser que l’outil résoudra les problèmes est une illusion. Mettre en avant des outils permet d’ignorer les causes profondes des problèmes sociaux. Cette survalorisation des outils numériques peut aussi faire oublier les besoins réels des publics fragiles. Pire même, dans certains cas les solutions technologiques peuvent parfois créer de nouveaux problèmes ou aggraver les inégalités existantes, en particulier si elles ne sont pas conçues de manière éthique. Or aujourd’hui, cette technologie reste une « boite noire » dont les concepteurs ont du mal à expliquer comment elle fonctionne. C’est très ennuyeux, voire problématique.
La technologie génère sa propre problématique.
Faut-il le rappeler ? Pour éviter les pièges du techno-solutionnisme, il est important de prendre en compte les besoins réels des personnes concernées et de considérer les solutions technologiques comme un outil parmi d’autres pour répondre à ces besoins. Les organisations et les décideurs politiques doivent également impliquer les travailleurs sociaux et les personnes concernées dans la conception et la mise en œuvre des solutions technologiques, pour garantir que celles-ci répondent aux besoins réels de ceux qui en bénéficient.
Miguel Benasayag, philosophe et psychanalyste, a développé en son temps l’idée que la technologie génère sa propre problématique. C’est-à-dire qu’elle crée de nouveaux problèmes en plus de ceux qu’elle est censée résoudre. Elle peut nous détourner de l’essentiel : l’attention à l’autre et le respect de sa volonté. Nous pouvons illustrer cela dans d’autres domaines avec plusieurs exemples :
- Les réseaux sociaux : bien qu’ils soient conçus pour faciliter la communication entre les personnes, ils peuvent tout autant générer de l’isolement, de l’anxiété et de la dépression chez les utilisateurs. Les algorithmes qui régissent les flux d’informations peuvent créer des bulles de filtre, limitant ainsi l’exposition à des points de vue différents et renforçant les préjugés.
- Les voitures autonomes : bien qu’elles soient conçues pour réduire le nombre d’accidents de la route, elles soulèvent des questions éthiques et juridiques complexes en cas d’accident. Par exemple, qui est responsable en cas d’accident impliquant une voiture autonome ? Comment programmer une voiture autonome pour prendre des décisions en cas d’urgence ?
- Les algorithmes de prédiction policière : bien qu’ils soient conçus pour aider les forces de l’ordre à prévenir les crimes, ils peuvent tout autant renforcer les préjugés raciaux et sociaux existants. Les données utilisées pour entraîner ces algorithmes peuvent être biaisées, ce qui peut conduire à une surveillance accrue des populations déjà marginalisées.
Dans tous ces exemples, la technologie crée de nouveaux problèmes qui doivent être pris en compte et résolus. Il est important de réfléchir aux conséquences éthiques et sociales des technologies que nous développons et utilisons, et de s’assurer qu’elles sont conçues et utilisées de manière responsable et éthique. Je n’ai pas l’impression que ce soit le cas actuellement. Il est donc important que nous nous en préoccupions dans notre secteur. À nous de maitriser les outils quels qu’ils soient, c’est essentiel quand on travaille dans les métiers de l’humain.
Photo en une : Freepik
Une réponse
Il me semble aussi que, dans beaucoup de cas, les solutions technologiques sont imposées par les décideurs dans le but précisément d' »eliminer le facteur humain ».
Je m’explique: les règles sont fixées, les normes sont posées, les procédures sont élaborées, et, patatrac, les personnes sur le terrain qui sont chargées de les mettre en application fidélement, font autrement. C’est le facteur humain. Soit que ces personnes ont fait un contre-sens sur la régle, soit qu’elles n’approuvent pas cette règle, soit que la règle n’est pas adaptée à la situation réelle, etc… Alors la solution technologique est là pour rendre impossible la transgression de la règle (comme par exemple dans un questionnaire l’impossibilité de passer à la question N° 2 tant qu’on n’a pas répondu à la N°1). Nous avons vu cette technique « d’incontournabilité » de la règle se mettre en place d’abord dans l’industrie ( « impossible de mettre en route la machine sans le capot de protection »), puis progressivement dans les services, notamment dans la Banque, pour éviter qu’un agent accorde des facilités par amitié ou sympathie, etc….
Cette solution technologique arrive tout naturellement dans le domaine de l’action sociale, où le facteur humain est si prépondérant! Quand on demande à un travailleur social comment il fait dans telle ou telle situation, il répond invariablement: « ça dépend »…..
Les décideurs ne veulent plus que cela dépende. ça dépend ne rentre pas dans l’ordinateur. Il faut une efficacité prévisible (vous avez 6 mois pour insérer Mr Untel).