L’essor de l’intelligence artificielle (IA) suscite des interrogations sur sa capacité à remplacer l’intelligence émotionnelle (IE). Cette dimension peut paraitre inquiétante, c’est pourquoi, il est utile de faire le point sur ce sujet. Cette question est importante, particulièrement dans des domaines où les interactions humaines sont essentielles, comme le travail social. L’IA, avec sa possibilité d’analyser de vastes ensembles de données et à automatiser des tâches complexes, offre de nouvelles perspectives qui ne peuvent qu’interroger les professionnels de l’action sociale. Cependant, elle se heurte, pour l’instant, à des limites significatives lorsqu’il s’agit de comprendre et de gérer les émotions humaines.
L’intelligence émotionnelle, concept popularisé par Daniel Goleman, se définit comme la capacité à reconnaître, comprendre et gérer ses propres émotions ainsi que celles des autres. Cette compétence est essentielle dans le travail social, où la compréhension et la gestion des émotions jouent un rôle central. Par exemple, un travailleur social doit non seulement écouter les préoccupations des personnes qu’il accompagne, mais aussi comprendre les nuances émotionnelles de leurs paroles pour comprendre leurs réactions et interagir avec elles de façon adaptée.
En revanche, l’IA, bien qu’avancée, se base principalement sur des algorithmes et des données. Elle peut analyser des expressions faciales ou des tonalités vocales pour détecter des émotions, mais elle manque de la profondeur contextuelle et de la compréhension nuancée que possèdent les humains. Les recherches menées par le MIT Media Lab sur l' »Affective Computing » tentent de combler cette lacune en développant des technologies capables de reconnaître et de répondre aux émotions humaines. Pour autant, ces technologies restent encore loin de pouvoir remplacer l’intelligence émotionnelle humaine de manière authentique.
À quand l’utilisation de l’IA pour remplacer l’intelligence émotionnelle ?
L’intégration de l’IA dans le travail social et notamment la relation d’aide présente certains avantages. L’un des principaux atouts est la disponibilité constante. Contrairement aux humains, l’IA peut fonctionner 24 heures sur 24, offrant des réponses en continu sans risque de fatigue ou de burnout. Cette disponibilité peut être particulièrement bénéfique dans les situations pour lesquelles une intervention rapide est nécessaire. Par exemple, des chatbots alimentés par l’IA fournissent déjà des réponses à une clientèle pouvant être exigeante. Pourra-t-on prochainement les utiliser en les adaptant pour les personnes en détresse émotionnelle ? Je suis loin d’en être certain, mais notre époque voit de telles évolutions technologiques que cela peut entrer désormais dans l’ère du possible. En tout cas, des équipes y travaillent.
Le chabot existe aussi pour l’accès aux droits. Mais là aussi, on ne peut que constater que les réponses sont souvent généralistes et ne tiennent pas compte de situations très particulières, là même où des conseillers « humains » peinent à répondre et craignent même de se tromper.
Nous savons que l’IA excelle dans le traitement de grandes quantités de données. Elle peut analyser rapidement des informations pour identifier des tendances et des besoins, ce qui pourrait aider à une meilleure allocation des ressources dans le secteur social. Par exemple, une IA pourrait analyser les données de multiples situations pour repérer des schémas redondants de violence domestique et recommander des interventions préventives ciblées.
Des questions éthiques essentielles
Il est théoriquement possible qu’à l’avenir, des IA auto-apprenantes puissent développer une capacité à exprimer des émotions apparemment adaptées à un très grand nombre de situations sociales. Toutefois, plusieurs impossibilités demeurent. La complexité et la nuance des émotions humaines, l’apprentissage continu nécessaire pour couvrir la diversité infinie des expériences humaines, et les subtilités culturelles et individuelles représentent des obstacles considérables. Même si une IA parvient à simuler des émotions appropriées, la question de l’authenticité de ces émotions persiste, car les humains pourront percevoir ces expressions comme artificielles.
De plus, l’utilisation généralisée de telles IA soulève des questions éthiques importantes concernant la nature des relations entre humains et machines. Bien que de telles IA puissent offrir une forme de soutien émotionnel dans certaines situations, elles ne remplaceront probablement pas l’empathie et la compréhension humaines. Ainsi, l’avenir réside peut-être dans unusage de l’IA orientée vers l’alerte en direction de « professionnels humains », en charge de vérifier si ce qu’elle a décelé est exact ou pas et nécessite une intervention. L’IA deviendrait alors un outil de surveillance (ou de veille si vous préférez ce terme).
L’utilisation de l’IA dans le travail social comporte des inconvénients majeurs.
Le plus évident est le manque de véritable empathie. Bien que l’IA puisse simuler l’empathie, elle ne peut pas ressentir ou comprendre les émotions humaines de manière authentique. Cette limitation peut conduire à des interactions déshumanisées, où les usagers se sentent incompris ou négligés. Cette utilisation crée une illusion et l’on sait que des personnes peuvent s’attacher à leurs robots leur attribuant des qualités humaines de compréhension. Mais cette façon de gérer la relation et l’aide d’une personne âgée par exemple est-elle éthique ?
Les situations humaines que rencontrent les travailleurs sociaux sont généralement complexes et nuancées. Elles nécessitent une compréhension contextuelle que l’IA peut avoir du mal à saisir. Par exemple, une IA pourrait mal interpréter les émotions d’une personne en deuil, en apportant des réponses inappropriées ou insensibles. Elle saura reconnaitre les signes extérieurs de la tristesse, sans pour autant en connaitre la cause, sauf si elle est renseignée spécifiquement. Ainsi, il sera possible de faire réagir une IA à la perte d’un être cher. Mais il faudra aussi pouvoir lui préciser s’il s’agit d’un membre proche ou éloigné de la famille, d’amis ou d’un animal de proximité… Plus on entre dans le détail des situations, plus le nombre de critères à retenir augmente. Les données sont ensuite classées dans ces critères pour pouvoir obtenir une réponse la plus près possible de ce que l’on peut attendre d’un humain.
De plus, les dilemmes éthiques fréquemment rencontrés dans le travail social posent un problème difficilement surmontable pour l’IA. Elle ne pourra pas naviguer dans ces situations avec la même finesse qu’un humain. L’IA répondra sur des grands principes et s’appuiera sur les données qu’elle a collectées. C’est-à-dire qui lui auront été fournies par des personnes qui font le choix d’entrer tel ou tel critère dans les algorithmes. Le comportement humain étant par définition imprévisible, elle ne pourra entrer dans le détail des situations dès lors que celles-ci doivent prendre en compte une multitude d’informations, sociales, psychologiques, culturelles ou philosophiques qui constituent l’approche de la personne. Pour autant, ses réponses pourront faire illusion, car elle fournira une réponse qui semblera adaptée pour une catégorie de personnes.
Les données collectées et les critères retenus ne sont pas neutres. Ils sont définis par les techniciens qui gèrent le système d’informations.
La confidentialité et la sécurité des données sont également des préoccupations importantes. L’utilisation de l’IA implique la collecte et l’analyse de données sensibles, ce qui soulève des questions sur la protection de la vie privée des personnes accompagnées. Sachez à ce sujet que Chat-GPT ne respecte pas les normes européennes en matière de protection de données. Elles sont utilisées sur le territoire américain. Aussi ne faut-il jamais utiliser de données nominatives ou permettant de reconnaitre une personne via un croisement de données lorsque l’on interroge Chat-GPT. C’est une règle qui vaut pour tous les systèmes d’information qui via des chabots proposent des réécritures et des enrichissements de texte.
Il y a une autre dimension que l’on aborde peu. C’est celle de la dépendance excessive d’un professionnel à l’IA. Cela peut entraîner une érosion de ses propres compétences en intelligence émotionnelle. Car c’est de l’expérience de la relation que le travailleur social affine ses compétences pour comprendre l’autre sans le juger. Un usage intensif à l’IA pour être aidé dans certaines situations peut réduire au fil du temps sa capacité à interagir efficacement avec les usagers.
C’est la même logique pour la rédaction d’écrits professionnels. Certes, s’appuyer sur l’IA peut être utile et permettre de gagner du temps, mais à terme, elle érode notre habileté de rédaction. C’est la même chose que pour les calculettes dont certains ne peuvent plus se passer pour effectuer une simple opération. Leur usage intensif et répété ne nous permet pas de réaliser des calculs avec l’aide de notre seul cerveau. Nous perdons alors une compétence dont nous disposions par le passé. Est-ce un bien ? Est-ce un mal ? J’aime à penser que pouvoir se passer de certaines technologies pour agir nous rend plus libres.
En conclusion, bien que l’IA puisse offrir des avantages significatifs en termes d’efficacité et de traitement des données, elle ne pourra pas remplacer complètement l’intelligence émotionnelle humaine. L’avenir réside probablement dans des usages raisonnables et raisonnés de l’IA pour les travailleurs sociaux, où chacun apporte ses forces spécifiques pour améliorer la qualité de leurs interventions. Les recherches actuelles, telles que celles menées par le MIT Media Lab, montrent que nous sommes encore loin de pouvoir remplacer l’intelligence émotionnelle humaine par l’IA, mais elles ouvrent des perspectives pour, espérons-le, une complémentarité utile au bénéfice de la personne aidée. Et là je comprends parfaitement que l’on puisse en douter.
Sources
- Goleman, D. (1995). *Emotional Intelligence: Why It Can Matter More Than IQ*. Bantam Books.
Picard, R. W. (1997). *Affective Computing*. MIT Press.
MIT Media Lab, Affective Computing Group: [MIT Media Lab]
Lire aussi
- L’intelligence artificielle peut-elle remplacer un travailleur social ?
- Comment l’intelligence artificielle et le Big Data peuvent « automatiser » les inégalités…
- L’intelligence artificielle est-elle le futur du travail social ?
- Peut-on prévoir la maltraitance d’un jeune enfant grâce à un algorithme ?
Photo : Freepik