L’Intelligence Artificielle tranche, le travail social co-construit : deux mondes qui s’opposent

[current_page_url]

Je ne sais pas si vous percevez cette tension qui nous traverse. D’un côté, il est question d’intelligence artificielle qui va tout révolutionner : prédire les risques, orienter les bénéficiaires, vous « libérer » des tâches administratives. De l’autre, vous savez que votre métier repose sur quelque chose de radicalement différent : la coconstruction avec les personnes, le temps long de la relation, la délibération collective, l’alliance « côte‑à‑côte » avec les personnes accompagnées.

Cette tension n’est pas un détail technique. Elle oppose deux régimes de savoir incompatibles ou presque. Là où l’IA vous livre un savoir vertical déjà stabilisé (produit par des experts qui ne le sont pas toujours) encapsulé dans des modèles de calculs opaques, les travailleurs sociaux font appel à un savoir horizontal : coconstruit avec les personnes accompagnées, négocié entre professionnels, toujours provisoire, toujours ajustable.

Cette opposition ne concerne pas que les outils. Elle touche les valeurs qui structurent le développement des services d’IA, la gouvernance de ces systèmes, et l’autonomie réelle des personnes vulnérables.

Elle traverse aussi les modes de gouvernance : L’IA vous délivre une décision verticale, où une seule voix (celle du modèle, ou d’un petit groupe d’experts) tranche versus un collectif délibératif, nourri par les réunions de synthèse, les échanges pluridisciplinaires et les espaces de participation des usagers. Regardons tout cela de plus près.

La verticalité du savoir algorithmique

algorithmes cardon ok 0Les algorithmes qui arrivent dans l’action sociale – systèmes d’évaluation, de tri, de ciblage ou de recommandation – produisent un savoir qui descend « d’en haut » vers le terrain. Le sociologue Dominique Cardon l’a montré dans « À quoi rêvent les algorithmes ? Nos vies à l’heure des big data »  : les algorithmes ne se contentent pas de mesurer le monde, ils le configurent. Ils hiérarchisent, rendent visibles certains profils, invisibilisent d’autres, en fonction de paramètres définis par des experts et de données historiques déjà marquées par les inégalités.

Dans cette logique, la réponse arrive sous forme d’un score, d’un classement, voire d’une « prédiction » : risque de rupture, probabilité de non‑recours, vulnérabilité estimée, employabilité supposée. Parce que cette réponse est chiffrée, produite par une machine, elle bénéficie d’un fort effet d’autorité.

La philosophe Antoinette Rouvroy parle de « gouvernementalité algorithmique ». Elle désigne ainsi un mode de pouvoir qui s’appuie sur des corrélations statistiques plutôt que sur la discussion politique. Au lieu de s’adresser à des sujets de droit, on gère des profils probabilistes, des « dividus » fragmentés en données. La décision se déplace vers l’optimisation : réduire les risques, optimiser les flux, ajuster les comportements, le tout sans passer par la délibération collective.

Dans le champ social, cela donne des outils que ne maitrisent pas les professionnels de terrain.  Les algorithmes de ciblage des contrôles d’allocations ou des dispositifs de scoring d’employabilité, conçus par des directions centrales ou des prestataires privés, sont déployés ensuite auprès des professionnels de l’accompagnement sans véritable coconstruction avec eux ni avec les usagers. Plus besoin de penser un plan d’action, il vous est donné par une autorité issue d’un calcul et de probabilités.

L’horizontalité du savoir en travail social

Le travail social, lui, est né d’une tout autre épistémologie. La loi du 2 janvier 2002 rénovant l’action sociale et médico‑sociale et, côté santé, la loi du 4 mars 2002 sur les droits des malades et la démocratie sanitaire, ont inscrit dans le droit la participation des usagers et la codécision dans les projets qui les concernent.

Dans la pratique, cela s’est traduit par une montée en puissance des démarches de coconstruction. Le Haut Conseil du Travail Social, dans son Guide d’appui aux interventions collectives du travail social, décrit bien cette logique : le diagnostic et l’action ne sont plus pensés « sur » les personnes, mais avec elles, en mobilisant leurs ressources, leurs réseaux, leurs interprétations.

Roland Janvier résume cette évolution : le professionnel n’est plus « l’expert qui décide à la place », mais un partenaire « côte à côte » avec l’usager, chacun arrivant avec ses compétences propres, irremplaçables.

Les travaux sur le savoir expérientiel montrent que la connaissance issue de l’expérience des personnes (maladie, handicap, pauvreté) transforme la façon de penser l’intervention. Il faut pour cela qu’il soit reconnu comme un savoir à part entière et pas seulement comme un « témoignage ».

Autrement dit : la réponse « juste » n’est jamais donnée d’avance. Elle émerge d’un travail de délibération horizontale entre plusieurs points de vue : celui de la personne, celui du professionnel, celui de l’institution, parfois celui de la famille ou des pairs.

Gouvernance verticale : quand une seule voix parle

IA humain Depositphotos 658589192 SAppliquée à la gouvernance, la logique algorithmique pousse vers des dispositifs où une seule voix s’impose : celle du modèle, ou celle du petit cercle qui l’a paramétré. Cette façon de gouverner consacre la logique du chef qui décide sans débattre. Le pouvoir omniscient d’une autorité qui a toujours raison même lorsqu’elle se trompe.

Les analyses sur les algorithmes de contrôle à la CNAF ou sur les projets de scoring à France Travail illustrent ce risque : les paramètres sont définis au niveau national, souvent avec des cabinets extérieurs, et les agents de terrain découvrent le système quasi ficelé, avec une marge limitée d’interaction. Il leur est dit qu’ils ne sont pas obligés de suivre les recommandations produites pas ces calcul mais la réalité est toute autre. Une fois l’indication donnée elle apparait comme une vérité d’autant plus difficile à contredire que celui qui la reçoit ne sait pas comment elle a été élaborée. L’humain a aussi cette faiblesse, d’aller au plus simple dès lors que ce qui lui est proposé lui évite tout effort tant physique que mental.

Dans ce type de gouvernance, la réunion devient un lieu où l’on applique un résultat pré‑fabriqué : le score de risque, l’indicateur de fragilité, la segmentation « prioritaire / non prioritaire ». La parole des professionnels et des usagers se trouve reléguée en aval, comme une variable d’ajustement.

C’est ce que dénonce la philosophe Antoinette Rouvroy lorsqu’elle parle du risque de « mort du politique » : le débat sur les finalités, les valeurs, les arbitrages, est court‑circuité par l’optimisation technique.

Gouvernance délibérative : réunions de synthèse et co‑décision

Le travail social a pourtant une autre tradition : celle de la gouvernance délibérative. Les réunions de synthèse, les concertations pluridisciplinaires, les conseils de la vie sociale, les groupes de parole de parents ou de jeunes sont autant de lieux où l’on confronte des interprétations, où l’on met à plat les tensions entre protection et autonomie, entre sécurité et émancipation.

Le guide du HCTS sur les interventions collectives insiste sur cette dimension : la réunion n’est pas qu’un moment de coordination, c’est un espace où l’on construit ensemble le sens de l’action et où l’on accepte que la décision n’appartienne à personne en particulier, mais au groupe réuni.

Le sociologue Bertrand Ravon parle, lui, de « coalition de causes » : loin d’un face‑à‑face technicien / bénéficiaire, il s’agit d’articuler les points de vue des professionnels, des usagers, des élus, des associations pour porter ensemble des décisions qui engagent le quotidien des personnes. Il encourage les professionnels à davantage expérimenter de nouvelles façons d’accompagner les publics et à piloter l’action sociale à partir du « bas » plutôt que par le « haut ».

Dans cette perspective, les algorithmes ne devraient être qu’un participant de plus au débat. Cela au même titre qu’un rapport d’enquête ou le récit d’un usager : une information à discuter, à critiquer, à relativiser, jamais une vérité qui s’impose. Mais ce n’est pas le cas.

Algorithmes et IA versus pratique de travail social : le point de bascule

La question centrale devient alors : que se passe‑t‑il si l’on laisse la verticalité algorithmique structurer nos décisions sans la passer au filtre de la délibération horizontale ?

Deux effets majeurs se dessinent.

  1. Le centre de gravité se déplace : les réunions de synthèse risquent de se résumer à commenter des tableaux de bord ou des scores. La richesse du débat – les nuances, les désaccords, les récits – passe derrière un indicateur présenté comme plus « rationnel ».

  2. La responsabilité se dilue : si « c’est l’algorithme qui le dit », il devient plus difficile pour un professionnel de défendre une position minoritaire, issue de son expérience ou de la parole de la personne, contre le poids d’un résultat chiffré.

À l’inverse, quand des démarches comme la convention professionnelle “IA et travail social” (DGCS / LaborIA) mettent travailleurs sociaux, usagers et chercheurs autour de la table pour définir ensemble les usages acceptables de l’IA, on voit se dessiner un autre scénario : celui d’une IA soutenue par une gouvernance délibérative, et non l’inverse.

Dans ce scénario, le dispositif technique n’est plus la voix qui décide, mais un élément qui contribue au travail commun de réflexion. Cela au même titre que les savoirs professionnels et expérientiels. La verticalité de l’IA est alors tenue en respect par l’horizontalité du travail social.

En clair : l’enjeu n’est pas de refuser les algorithmes, mais de refuser qu’ils deviennent le savoir qui écrase tous les autres. Tant que les réunions de synthèse, les espaces de co‑construction et la parole des usagers restent le cœur de la décision, la pratique de travail social garde son âme : un travail de délibération, de confrontation et d’ajustement, où la valeur d’une réponse vient du chemin parcouru ensemble, pas d’un calcul de probabilité.

 

Sources

 


Photo : DepositPhotos

Articles liés :

Une réponse

  1. Bonjour M. DUBASQUE et merci pour vos réflexions nombreuses sur la question de l’IAg, et plus globalement du numérique, qui marque un tournant significatif, y compris dans le travail social en général.

    Au delà des enjeux écologiques, économiques, éthiques et déontologiques qui ont fini de forger ma propre résistance, à mon sens, l’IAg n’est pas conçu pour alimenter ou aider mais plutôt rendre remplaçable.
    Remplaçable, entre autre, la réflexion, la recherche, la pensée, en inondant d’informations, parfois avec des contenus plus qu’affligeants.

    L’IAg est-elle intégrable à la pensée collective ou individuelle en l’état ?
    J’ai du mal à m’imaginer cette possibilité quand je sais qu’une IAg peut être configuré pour façonner un discours par l’entreprise qui développe l’algorithme, le logiciel, mais aussi par le prompt fait par l’utilisateurice. Qui plus est, dans une période où le discours est violent face à l’étranger, à l’autre et à l’existence d’un autre que soi-même, il est aisément possible de se conforter dans une position dès lors qu’on a la capacité de maitriser la « bête ».

    Dans un contexte mondial vendu comme anxiogène, où la machine et le numérique sont imaginées comme des solutions à toutes nos difficultés, je reste très résistant à cette éventualité sans penser aux dérives déjà malheureusement trop existantes.

    Mais merci de vos réflexions car, même si cela de me convainc pas toujours, elles alimentent ma pensée et me permets, parfois, de voir autrement.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.