La plupart des personnes ne comprennent pas ce que fait l’intelligence artificielle (IA). Beaucoup ne savent même pas qu’elles utilisent des outils d’IA au quotidien. Pire encore, une grande partie de la population pense qu’elle est plus intelligente qu’eux. Pourtant, les outils d’IA ont déjà infiltré des domaines aussi sensibles que la protection de l’enfance, les services aux personnes âgées, les services aux personnes handicapées, ainsi que la thérapie et la santé comportementale.
L’intégration des outils d’IA dans la pratique du travail social se répand à bas bruit. Lors d’un webinaire récent, organisé par la NASW (National Association of Social Workers des États-Unis), plus de 300 participants, majoritairement titulaires d’un MSW (Master of Social Work), ont été interrogés sur leur connaissance de l’IA. Les résultats sont édifiants : 72% ont évalué leur connaissance de l’IA comme « faible », contre seulement 1% qui ont répondu « élevée ». En France nous sommes sans doute dans une situation comparable. C’est pourquoi il me parait utile de partager avec vous ce qui est ressorti de ce colloque organisé par les travailleurs sociaux qui interviennent aux États-Unis. Les lignes qui suivent sont issues de leurs réflexions.
Une Définition Floue
« L’IA est un terme marketing très déroutant, utilisé depuis les années 1950 pour désigner une gamme de technologies et de fonctionnalités différentes. Il n’existe pas de définition simple et unique de l’IA. Ce terme est utilisé pour faire référence à des concepts aussi variés que l’automatisation de la prise de décision (utilisation d’algorithmes pour classer, suggérer ou prendre des décisions conséquentes), la reconnaissance faciale, ou encore la génération de texte ou d’images synthétiques » (par exemple, ChatGPT, Bard, Mistral…).
Il n’est donc pas surprenant que la plupart des gens ne comprennent pas ce qu’est réellement l’IA. Le jargon trompeur et les descriptions anthropomorphisantes, attribuant à l’IA des qualités humaines telles qu une forme de sensibilité ou de compréhension dans ses réponses, lui confèrent un air mystique. Ce manque de transparence est un problème majeur pour les travailleurs sociaux dont l’expertise est vraiment nécessaire.
La domination d’un secteur technologique
Il ne faut pas désespérer, mais on peut légitimement s’inquiéter. Premièrement, nous devons reconnaître que le secteur technologique mène la danse. Ceux qui savent coder des outils d’IA voient les domaines sur lesquels le travail social se concentre comme une opportunité commerciale. La concentration du pouvoir est flagrante. Elle est dominée par l’industrie privée, alimentée par le capital-risque et l’investissement. Ce sont deux domaines riches, blancs et dominés par les hommes de catégorie CSP +.
Il est clair que les grandes entreprises technologiques lancent leurs outils pour résoudre des problèmes sociaux avec lesquels elles ont peu de relations ou d’expérience directe. Cette situation pose un sérieux problème, car les valeurs du travail social sont souvent reléguées au second plan au profit de la recherche du profit et de l’efficacité. Qu’importe les moyens mis en oeuvre, seul le résultat compte.
Cette réalité s’appuie sur un concept : le technosolutionnisme : il n’y aurait plus de problèmes sociaux qui ne puissent être résolu par une technologie adaptée. Or, nous savons bien que ce ne sont pas les outils qui résolvent les difficultés, mais bien les humains qui agissent avec ce qu’ils sont. Les technologies génèrent leurs propres problématiques qui se surajoutent aux problèmes qu’elles sont censées résoudre. Nous le voyons d’ailleurs dans le domaine de l’accès aux droits.
Les risques de l’IA non réglementée aux États-Unis
Michele E. Gilman, est une spécialiste du droit des personnes qui subissent les conséquence de la grande pauvreté aux États-Unis. Elle exposait déjà en 2019 dans une note d’orientation, les domaines clés dans lesquels l’utilisation de l’IA présente les plus grands risques pour les droits civils et humains. Ils nécessitent tous de recueillir des informations sur un grand nombre de personnes. Parmi ces domaines figurent l’accès aux services et avantages sociaux, le suivi des populations vulnérables, et l’accès aux nécessités de la vie telles que le logement, le crédit, l’éducation, l’emploi et les soins de santé.
Elle explique ce que font les courtiers en données. Ils dirigent des entreprises qui vendent des données personnelles collectées à partir de sources multiples. Des sources telles que l’activité de navigation sur Internet, les publications sur les réseaux sociaux, les e-mails, l’utilisation d’applications et les cartes de fidélité des détaillants.
Les dossiers numériques rassemblés par les courtiers en données sont aussi utilisés pour cibler les Américains à faible revenu à la recherche de produits tels que les prêts sur salaire, les prêts hypothécaires à taux d’intérêt élevé mais aussi les escroqueries en matière d’éducation à but lucratif. Ces courtiers segmentent les consommateurs en catégories très spécifiques, telles que « les ruraux et qui peinent à survivre » et « les familles urbaines en difficulté de crédit ».
Alors que plusieurs poursuites ont poussé Facebook à cesser d’autoriser ses annonceurs à cibler des groupes en fonction du sexe, de la race, du code postal et de l’âge, les annonceurs peuvent continuer à discriminer les gens simplement parce qu’ils sont pauvres. La pauvreté n’est pas une catégorie protégée par les lois américaines (ni d’ailleurs européennes). Pendant ce temps, la police utilise le Big Data pour prédire les activités criminelles, en particulier dans les quartiers à faible revenu. Le problème est que cela crée un cercle vicieux dans lequel la population déjà fortement surveillée déclenche des logiciels prédictifs qui incitent à des interventions policières plus agressives avec des opérations coup de poing. On est loin de la police de proximité.
La notation sociale est strictement interdite en Francet et dans les pays de l’UE.
La « notation sociale » est une pratique qui consiste à évaluer et à classer les individus en fonction de leur comportement social, de leurs interactions et de leurs activités. Cela peut s’opérer à l’aide de systèmes automatisés et de données collectées à grande échelle, mais aussi en utilisant par exemple des données confidentielles issues de services sociaux. Dans le contexte du règlement européen sur l’intelligence artificielle (RIA), cette pratique est considérée comme présentant un risque inacceptable et est donc strictement interdite.
Par exemple, un système de notation sociale pourrait attribuer des scores aux individus en fonction de leur comportement, de leur solvabilité ou de leur respect des lois et règlements. Ces scores pourraient ensuite être utilisés pour accorder ou refuser des services, des opportunités d’emploi, des crédits, ou même pour influencer l’accès à certaines infrastructures publiques. Le règlement européen sur l’IA interdit explicitement ces pratiques pour éviter que les individus soient jugés et traités de manière inéquitable en fonction de critères automatisés et potentiellement biaisés. En classant la notation sociale comme un risque inacceptable, le RIA envoie un message clair sur l’importance de protéger les droits et libertés des citoyens dans l’ère numérique.
Les travailleurs sociaux doivent pouvoir se mobiliser face à ces risques de non conformité
Ils devraient se familiariser avec ces pratiques, car elles touchent des secteurs emblématiques de leur activité. Pour la fédération US des travailleurs sociaux il y a une urgence et une nécessité impérative de s’engager pour maitriser voire empécher le développement et l’utilisation des outils discriminants liés à l’IA.
En effet « elle a été déployée dans les secteurs public et privé de manière à empêcher les individus d’accéder à un logement, à un emploi et aux services de santé, tout en encourageant la surveillance physique » indique la NASW. Ils envient la règlementation européenne et souhaiteraient qu’elle soit appliquée au Etats-Unis.
De leur côté, les passionnés de l’IA préfèrent souvent parler des promesses non réalisées et du potentiel de la «technologie au service du bien social» plutôt que des méfaits algorithmiques actuels. Tout comme les géants du web qui pensent agir pour le bien de l’humanité, les développeurs de ces systèmes permettent qu’ils soient utilisés pour contrôler, orienter, et surveiller les populations fragiles et dépendantes.
Il nous faut mettre en oeuvre une véritables stratégie
Il faut noter d’abord qu’il existe une tendance partagée de la population qui suppose que les productions numériques sont objectives. Elles font autorité. Elles paraissent équitables, même lorsqu’il existe des preuves du contraire. La soumission que nous avons face aux réponses technologiques devraient nous alerter alors qu’elles nous « endorment ». Elles contribuent à affaiblir notre esprit critique et notre envie d’explorer d’autres réponses que celles qu’elle nous propose.
Cela conduit les usagers des services sociaux à accepter le résultat d’une machine même si cela ne leur convient pas. Des contrôles de ces outils d’aide à la décision devraient être mis en place. Ce serait un moyen utile de contrer les biais d’automatisation dans la pratique. Même si la conscience des effets des préjugés liés à l’automatisation ne nous immunise pas à en avoir nous mêmes, la compréhension de ce phénomène par les travailleurs sociaux est essentielle.
Peu, voire aucun travailleur social n’est invités à la prise de décision ni à donner son avis avant que soient mis sur le marchés des outils qui font appel à l’IA générative ou de recommandation. Cependant, aucune question n’est idiote sur ce sujet. Voici quelques éléments donnés par la NASW pour permettre un engagement de ses adhérents envers l’IA, qu’ils disposent ou non d’un pouvoir décisionnel de haut niveau au sein des structures dans lesquelles ils travailllent.
- Impliquer les utilisateurs finaux : Comment les personnes concernées ont-elles été impliquées dans la conception et le développement des outils d’IA ? Comment leurs expériences ont-elles été intégrées ? Il est problématique de développer une intervention de travail social sans l’engagement des professionnels qui la mettent en œuvre et des personnes qu’elle est censée aider. De même, exclure dès le départ les personnes touchées par les outils d’IA est susceptible de causer du tort.
- Comprendre l’automatisation : Qu’est-ce qui est automatisé, pourquoi et à qui profite cette automatisation ? Combien d’argent est investi dans ces technologies ? Quels sont les coûts d’opportunité potentiels ? Cela fonctionne-t-il dans la situation spécifique pour laquel nous intervenons ? Comment le succès et la précision des réponses de l’IA sont-ils mesurés ? Quels sont les paramètres d’évaluation ? Où se situe la responsabilité lorsque quelque chose ne va pas ? Voilà bon nombre de questions dont il serait nécessaire d’obtenir des réponses.
- L’importance des données intiales de formation de l’IA : Il est essentiel de comprendre et de savoir sur quelles données un outil d’IA a été formé. Sur quels textes le robot a-t-il été été alimenté et quelles hypothèses culturelles nourrissent son analyse ? Qu’il s’agisse ou non d’un outil basé sur de grands modèles de langage (LLM), il est essentiel de poser ces questions pour évaluer la pertinence et l’équité de l’outil. Je vous laisse deviner ce que va produire l’IA financée par Elon Musk. Elle s’entraine sur les données du réseau social X bien connu pour être propagandiste de fake-news ou autres aberrations.
- Renverser le scénario du pouvoir : Il y a de quoi devenir fataliste face aux applications incontrôlées de l’IA. Elle s’inscrit dans un contexte de concentration de pouvoir réservée aux grandes entreprises liées à ces technologies. Il est démoralisant de constater que l’expertise reste dans le domaine de la seule technologie. Les systèmes deviennent dépendants des outils de programmation sans que les principaux utilisateurs comprennent clairement ce que fait l’application d’IA. Il faudra fraire preuve de beaucoup d’énergie et de créativité pour renverser ce scénario de pouvoir, soit par des actes de refus, soit en utilisant l’IA au service de la justice sociale ou économique en repérant ce qui est utile et efficace et pour le bien de tous.
Comprendre les enjeux éthiques des usages de l’IA
Frederic Reamer, expert en éthique du travail social présente dans un article les principes éthiques en action face aux usages de l’IA. Il explique avant tout qu’étant donné les nombreux avantages potentiels de l’IA, son utilisation par les travailleurs sociaux comporte de nombreux risques. Il déclare avoir rencontré un certain nombre de travailleurs sociaux qui sont enthousiasmés par l’utilisation de l’IA, d’autres qui sont extrêmement inquiets et d’autres qui en sont complètement indifférents.
Les questions éthiques fondamentales que les travailleurs sociaux devraient se poser comprennent :
- Le consentement éclairé à l’utilisation des données : dans quelle mesure les usagers savent-ils comment les données qu’ils partagent avec les travailleurs sociaux, y compris les données contenues dans les dossiers de santé électroniques, seront utilisées ?
- La transparence : les travailleurs sociaux qui utilisent l’IA sont-ils suffisamment transparents avec les personnes qu’ils accompagnent sur les avantages et les risques potentiels ?
- L’atteinte à la vie privée : existe-t-il un risque pour la vie privée des usagers lorsqu’ils partagent des informations personnelles avec des plateformes et des outils d’IA ?
- des menaces sur l’autonomie : les usagers et aussi les professionnel(le)s risquent-ils une perte d’autonomie lorsqu’ils reçoivent des consignes pilotées par l’IA ?
- L’erreur de diagnostic : existe-t-il un risque que les usagers subissent un préjudice si l’intelligence artificielle diagnostique mal la situation sociale et les oriente dans une mauvaise direction ?
- Le risque d’abandon : existe-t-il un risque que les usagers qui s’appuient sur l’intelligence artificielle ne reçoivent pas de réponses rapides et de continuité et cohérence d’intervention, notamment en cas de crise ?
- La surveillance : Comment les données de l’intelligence artificielle pourraient-elles être utilisées à des fins de surveillance (par exemple aux Etats-Unis, les données sur la santé reproductive dans les États où l’avortement n’est pas légal) ?
- Le plagiat et malhonnêteté : Comment les travailleurs sociaux peuvent-ils prévenir le plagiat, la malhonnêteté et l’abus de propriété intellectuelle résultant de l’utilisation de l’intelligence artificielle (par exemple, copier-coller sans attribution ni crédit) ?
Toutes ces question sont transférables à celles que nous nous posons en France.
En conclusion, les travailleurs sociaux doivent se former et s’informer sur l’IA pour éviter d’être instrumentalisés et maintenir leur autonomie professionnelle. Bien que le secteur technologique domine actuellement le développement et l’utilisation de cette technologie, les professionnels de l’action sociale ont un rôle à tenir pour s’assurer que les valeurs éthiques et la justice sociale soient prises en compte tant dans la conception et que dans l’utilisation de ces outils. Les risques liés à l’utilisation non réglementée de l’IA dans les domaines clés tels que l’accès aux services sociaux, le suivi des populations vulnérables et l’accès aux aux besoins essentiels sont réels et nécessitent une mobilisation des professionnels.
Enfin, il reste important de comprendre que l’IA n’est pas une solution miracle pour résoudre les problèmes sociaux. Elle doit être pensée et utilisée pour aider les travailleurs sociaux dans leur pratique. Les professionnel(le)s ont intérêt de se mobiliser dans ce sens. Ils et elles doivent donc être impliqués dans la conception et le développement des outils d’IA, en veillant à ce que les personnes concernées soient également associées et que leurs expériences soient prises en compte.
Sources
- If AI Has You Feeling Clueless and Concerned, You’re in Good Company | NASW
- Social Work and AI: Learn the Risks, Potential Benefits and Ethical Challenges | NASW
- Data insecurity leads to economic injustice – and hits the pocketbooks of the poor most | The Conversation
- AI algorithms intended to root out welfare fraud often end up punishing the poor instead | The Conversation
Note : j’ai tenté de traduire au mieux les articles pour en rédiger ensuite une synthèse susceptible de résumer l’essentiel des enjeux de l’utilisation de l’IA aux Etats Unis, sachant que nous serons rapidement confrontés à ces questions dans les années qui viennent.
Photo : Freepik.com
Une réponse