L’intelligence artificielle est-elle le futur du travail social ?

La commission éthique et déontologie du Haut conseil du travail social a été saisie il y a quelques mois par le collectif de travailleurs sociaux CPASETS (Collectif Pour l’Abandon de SIREVA en Travail Social) sur les enjeux du progiciel SIREVA (support inter-régimes d’évaluation), utilisant de nombreux items et un algorithme pour évaluer les besoins et proposer un « panier de services » des personnes en risque de fragilité.  Selon les promoteurs du logiciel, cet outil permet d’aider à la prise de décision qui reste « humaine ». Mais en même temps un laboratoire de recherche étudie les réponses apportées par les professionnels et mesure les écarts entre la décision humaine et la proposition issue du calcul algorithmique. Mais pourquoi donc ?

Tout cela a conduit la commission éthique du HCTS à se pencher plus largement sur une question peu abordée dans le champ du travail social, celle de l’usage de l’intelligence artificielle.

« L’exploitation massive de données par algorithme a permis de développer de façon extraordinaire l’assistance (par GPS par exemple) » pour se déplacer, le profilage (pour la publicité ciblée) et même la prédictivité de certains comportements (pour certains risques comme celui utilisé par la sécurité intérieure sur les  comportements de radicalisation).

Un autre usage de ce type de programme est en train de se développer pour orienter les allocataires du RSA selon leur réponses à des questions prédéfinies. Plus besoin d’un entretien comme cela pouvait se faire par le passé.  Pôle Emploi sur son site utilise aussi ce type de programme. Chacun est invité à répondre à des questions à choix multiples qui vont déterminer un profil et des priorités d’action.

Comment les travailleurs sociaux vont-il se situer face à ces nouvelles façon d’orienter, de classer et de catégoriser la population en demande d’aide ?

L’intelligence artificielle : le futur du travail social ?

La commission éthique et déontologie du HCTS a remis un avis assez complet intitulé « Travail social et intelligence artificielle ». Voté en juin 2019, il n’a pas été commenté et c’est bien dommage. En effet, l’usage des algorithmes qui se déploient «à bas bruit» et qui conduisent certains travailleurs sociaux à recueillir de nombreuses informations dites «objectives» mais aussi «subjectives» pour «nourrir» des systèmes d’informations peut poser de réelles questions éthiques.

Cet avis a justifié de multiples auditions. Nous avons rencontré les promoteurs du logiciel SIREVA, mais aussi la CNIL qui a édité un rapport sur ce sujet, la FING qui agit pour une plus grande transparence dans l’usage des algorithmes et l’ANAS qui s’est positionnée sur ce sujet. Leurs apports ont été nécessaires pour bien comprendre ce qui est en jeu. Le groupe numérique que j’animais par ailleurs à lui aussi contribué à cet avis.

5 questions sont posées dans cet avis .  La commission a tenté d’y répondre ou du moins de les prendre en compte. Faut-il :

  • Accumuler plus de données pour mieux évaluer ?
  • Employer des algorithmes et l’intelligence artificielle pour faire mieux que l’intelligence humaine ?
  • Raisonner par catégories ou scorer pour jauger l’offre de service adaptée à chacun ?
  • Agréger des données de natures différentes pour prévoir les besoins de la personne ?
  • Employer des modalités de recueil hétérogènes sans contrevenir au principe de loyauté ?

La commission s’est positionnée sur toutes ces questions ou du moins a tenté de les prendre en compte.  Cet avis assez essentiel ,  préfigure une évolution en cours et il est important que les travailleurs sociaux aient bien en main tous les arguments pour y réfléchir et se positionner quand on leur demandera de remplir des pages de questionnaires « en vue de mieux prendre en compte la situation des personnes ».

En résumé que nous dit le Haut Conseil du Travail Social à ce sujet ?

D’abord que « Le HCTS n’a pas à se prononcer sur la mise en place de systèmes d’informations. Il n’est aucunement hostile à ce qui permet d’observer les besoins sociaux, d’améliorer l’accès aux droits et la fourniture de soutiens pertinents notamment pour l’accompagnement des personnes vulnérables.

Néanmoins, il rappelle la nécessité absolue de protéger les informations à caractère personnel, de respecter l’autonomie des personnes accompagnées, de définir les conditions de recueil, traitement et conservation des données, et de mesurer l’impact des outils et systèmes employés.

Il estime que les travailleurs sociaux ne peuvent avoir comme seul objectif le recueil de données, dans une fonction d’enquêteur ou d’évaluateur. Pour le travail social, le recueil d’informations à caractère personnel est intégré dans la mission essentielle d’accompagnement-aide-protection engagée par les professionnels. (ce n’est pas le cas dans le recueil de données  du logiciel SIREVA)

Il considère qu’il contreviendrait à la mission générale du travail social et à la posture éthique de ses professionnels si l’enregistrement d’informations à caractère personnel consiste à décomposer les situations et les réponses humaines en éléments que l’intelligence artificielle  pourrait librement corréler (ou recomposer pour constituer un profil) afin d’assortir la personne concernée à des prestations ou services proposés par l’institution sociale sans intervention humaine au moment de la décision.

Enfin il  appelle les responsables institutionnels à ne pas céder à « l’illusionnisme technologique »  à rester attachés aux relations humaines construites entre personnes accompagnées et travailleurs sociaux (ou autres aidants) et à n’utiliser les algorithmes qu’en appoint.

Je vous invite à prendre connaissance de cette réflexion à laquelle j’ai participé et à tenir compte des recommandations qui sont faites. Le sujet est trop important pour que nous passions à côté de tels enjeux.

Télécharger l’Avis « Travail social et intelligence artificielle »

Télécharger le rapport de la CNIL « les enjeux éthiques des algorithmes et de l’intelligence artificielle : Comment permettre à l’Homme de garder la main ? » 

 

photo : pixabay

Partager

Articles liés :

2 Responses

  1. Et pour nos usagers, qui ne savent pas lire, pour ces familles de patients, pourtant très diplômées mais qui face à la maladie de leur proche oublient tout,? ¨Pour moi, être travailleur social, c’est avant tout être à l’écoute de la personne, cerner ses besoins, puis envisager avec elle les moyens d’action.. Nous sommes professionnels de la relation et de l’accompagnement et aucun robot ne peut s’y substituer.

  2. Vous souhaitez des informations sur ce qu’est « le secret professionnel », « la confidentialité »_ à l’heure de la protection des données numériques ?

    Vous souhaitez poursuivre une réflexion sur vos pratiques professionnelles ou celles des travailleurs sociaux qui vous entourent, sur l’utilisation des données numériques face aux libertés individuelles dans l’accès aux droits ?

    L’ARPESF AuRA, membre du réseau France ESF, est heureuse de vous présenter sa journée de formation : « La confidentialité à l’ère du numérique » le 27 Mars 2020 à CLERMONT-FERRAND

    En partenariat avec le Lycée Sidoine Apollinaire, retrouvez exceptionnellement la CNIL qui interviendra sur les principes et la nouvelle réglementation de la RGPD, François ROCHE, Responsable de la Commission Ethique et Déontologie du Haut Conseil du Travail Social. Vous pourrez assister aux différentes tables rondes l’après-midi avec entre autres la Caf, le CIDFF 63 ou le Conseil Départemental du Puy de Dôme…

    Dans notre plaquette de formation vous retrouverez tous les éléments importants ainsi que les tarifs tout à fait abordables. N’hésitez pas à nous contacter pour de plus amples informations
    https://www.facebook.com/events/505867503323018/?ti=aspp

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.