La démocratie sans les humains. le mirage dangereux des ingénieurs de Google qui va impacter le travail social.

https://dubasque.org/la-democratie-sans-les-humains-le-mirage-dangereux-des-ingenieurs-de-google-qui-va-impacter-le-travail-social

Nous vivons une époque épique ! Voici qu’arrive l’idée d’une démocratie gérée par l’intelligence artificielle, où les machines discuteraient à notre place pour trouver des consensus. Cette idée semble sortir tout droit d’un roman de science-fiction dystopique ? Eh bien non ! C’est bien le projet inquiétant sur lequel travaillent des chercheurs de Google, comme le révèle un article récent de Rob Horning. Qui est cet homme qui nous alerte ? Rob Horning est considéré comme une voix crédible et influente dans le domaine de la critique technologique. Ancien rédacteur en chef de The New Inquiry et de Real Life Magazine, il est reconnu pour ses analyses des technologies numériques et des réseaux sociaux. Que nous dit-il ?

Une « machine de Habermas » pour remplacer le débat démocratique

Les chercheurs de Google ont baptisé leur création « machine de Habermas », en référence au philosophe allemand Jürgen Habermas et à sa théorie de l’espace public. Leur objectif affiché est d’aider « les petits groupes à trouver un terrain d’entente lors de discussions sur des sujets politiques clivants ». Concrètement, il s’agit d’un grand modèle de langage (LLM) chargé de générer des « déclarations de groupe » à partir des opinions individuelles exprimées par les participants. L’algorithme vise à maximiser l’approbation collective en lissant les désaccords.

La « machine de Habermas », développée par les chercheurs de Google DeepMind, est un système d’intelligence artificielle conçu pour faciliter les délibérations démocratiques et aider les groupes à trouver un terrain d’entente sur des sujets politiques ou sociaux complexes. Cette IA fonctionne comme un « médiateur » virtuel. Elle utilise deux modèles de langage avancés : l’un pour générer des résumés reflétant les diverses opinions d’un groupe, et l’autre pour évaluer dans quelle mesure chaque participant serait d’accord avec ces déclarations. L’objectif est d’identifier les points de convergence et de produire des énoncés de consensus qui représentent au mieux la volonté collective du groupe, tout en veillant à ce que toutes les perspectives soient prises en compte équitablement. Cette technologie vise à surmonter certaines limitations des méthodes traditionnelles de délibération, comme les biais de participation ou les difficultés à atteindre un consensus, en offrant un processus plus efficace et potentiellement plus équitable de prise de décision collective.

 

(pour suivre cette vidéo, choisissez d’afficher les sous-titres et la traduction en Français sur YouTube)

Les résultats de leurs expériences sont pour le moins troublants : les participants ont systématiquement préféré les déclarations générées par la machine à celles produites par les humains du groupe. Comme si nous étions plus enclins à nous accorder avec une position artificielle et désincarnée qu’avec celle d’un autre être humain.

Un outil de contrôle social ou d’émancipation collective ?

Derrière les intentions louables affichées se cache en réalité un projet profondément antidémocratique. Loin de favoriser un véritable débat d’idées et une action collective, cette « machine de Habermas » vise avant tout à atténuer la conflictualité et à lisser les opinions divergentes. Il s’agit ni plus ni moins que d’automatiser la production du consensus, en court-circuitant le processus démocratique fait d’échanges, de confrontations et de compromis. Les chercheurs de Google vantent d’ailleurs la « rapidité » et « l’efficacité » de leur système par rapport aux délibérations humaines, jugées trop lentes et inefficaces.

On retrouve ici une vision technocratique et managériale de la démocratie. Elle est réduite à un simple processus d’optimisation et de résolution de problèmes. Exit les passions, les convictions et l’engagement citoyen : la politique devient une affaire de machines et d’algorithmes.

Vers une démocratie sans citoyens ?

Le danger ultime de tels outils est de vider la démocratie de sa substance en évacuant progressivement les citoyens du débat public. Pourquoi s’échiner à discuter et argumenter quand une IA peut produire instantanément un consensus  ? On peut craindre l’émergence d’une forme de « démocratie zombie », où les décisions seraient prises par des machines sur la base de simulations plutôt que de véritables délibérations collectives. Les citoyens seraient réduits au rôle de simples pourvoyeurs de données, leurs opinions servant à nourrir les algorithmes. Les hommes politiques n’auraient plus qu’à faire des propositions qui vont dans le sens indiqué par la machine.

Cette approche techniciste nie la dimension fondamentalement humaine et sociale de la démocratie. Elle oublie que le processus démocratique ne vise pas seulement à prendre des décisions, mais aussi à forger une communauté politique à travers le débat et l’action collective.

Cette IA de Google menace aussi l’essence du travail social

L’arrivée de la « machine de Habermas » conçue par Google ne peut que soulever de vives inquiétudes dans le champ du travail social. Loin d’être un simple outil d’aide, cette technologie risque de saper les fondements mêmes de la médiation et de sa fonction essentielle de gestion des désaccords.

En effet, le cœur du travail social repose sur la relation humaine et l’empathie. Or, l’introduction d’une médiation algorithmique menace de réduire les interactions à des échanges standardisés et dépersonnalisés. Comme le souligne une étude de Responsage, 88% des personnes accompagnées considèrent l’écoute comme essentielle pour renforcer leur confiance et leur autonomie. Aucune machine ne peut remplacer cette dimension humaine essentielle.

Mais dans une société où seule compte la réponse apportée qui soit quantifiable, la machine d’Habermas a de beaux jours devant elle.

Des risques éthiques majeurs et une possible perte d’autonomie professionnelle

L’utilisation d’une telle technologie dans le travail social soulèvera des questions incontournables sur la protection des données sensibles des usagers. Le risque d’atteinte à la vie privée et au secret professionnel est réel, menaçant les piliers de la relation de confiance en travail social. Les réponses séduisantes de la machine de Habermas peuvent perpétuer, voire amplifier, des choix déjà existants, conduisant potentiellement à des décisions injustes pour une ou l’autre des parties, notamment les personnes les plus vulnérables.

La dépendance à ce type d’outil pour guider les interventions risque de réduire drastiquement la marge de manœuvre, mais aussi le jugement critique des travailleurs sociaux. Cela pourrait conduire à renforcer une forme de « prolétarisation » de la profession, réduite à suivre les recommandations d’une machine. L’expertise et l’expérience des professionnels se trouveraient ainsi dévalorisées au profit d’une approche technocratique désincarnée qui a pour avantage de proposer des solutions simples à des problèmes complexes.

Un appauvrissement de la pratique

En cherchant systématiquement le consensus et en réduisant la complexité des situations humaines à des variables algorithmiques, on risque de gommer les nuances et la singularité de chacun. Or, comme le rappelle un avis de la commission éthique du HCTS, le travail social va bien au-delà de la simple recherche de solutions concrètes. Il implique un accompagnement global, prenant en compte les dimensions psychologiques, sociales et environnementales de chaque situation sociale.

Certains diront que l’humain agit de façon illogique et se trouve bardé de biais et de représentations qui faussent son évaluation. C’est vrai. Mais là, il est question de supprimer un processus de délibération fait d’évènements dont personne n’a la totale maitrise. En cas de désaccord, on sait vers qui se retourner. La machine d’Habermas supprime ce process et remplace le libre arbitre de chacun. Il faut aussi se rappeler qu’il y a des humains derrière l’IA qui travaillent pour réparer les biais et les incohérences des réponses qu’elle apporte.

En conclusion, si l’IA peut offrir des outils intéressants pour certaines tâches administratives, son utilisation dans le cœur du métier de travailleur social représente une menace sérieuse pour l’intégrité et la qualité de l’accompagnement social. Il est important que la profession continue de se mobiliser pour préserver l’essence humaine et sociale de son intervention, au risque de voir au fil du temps, une fois que les technologies seront là, son rôle réduit à celui de simple exécutant d’une machine.

Repenser la technologie au service de la démocratie

Face à ces dérives, il est urgent de repenser le rôle de la technologie dans nos systèmes démocratiques. Plutôt que de chercher à remplacer les débats citoyens par des machines sophistiquées, nous devrions explorer des pistes pour mettre l’IA au service d’une démocratie plus participative.

Cela pourrait passer par des outils d’aide à la délibération collective, facilitant l’organisation de débats à grande échelle. Ou encore par des systèmes de fact-checking en temps réel pour lutter contre la désinformation. L’essentiel est de garder l’humain au cœur du processus démocratique, la technologie ne devant être qu’un outil d’émancipation et non de contrôle.

En définitive, le projet de « machine de Habermas » nous rappelle que la démocratie n’est pas un simple mécanisme de prise de décision, mais bien un idéal politique fondé sur la participation active des citoyens. Aucune machine, aussi sophistiquée soit-elle, ne pourra jamais remplacer l’engagement citoyen et la vitalité du débat public. C’est à nous, citoyens, de nous réapproprier la technologie pour en faire un levier de renforcement démocratique plutôt qu’un outil de dessaisissement.

 


Sources :

 


Photo d’illustration :natursports natursports sur Depositphotos

Articles liés :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.