Rechercher
Fermer ce champ de recherche.

L’Intelligence artificielle prédictive : un miroir aux alouettes aux conséquences réelles.

Dans leur ouvrage qui vient de paraitre « AI Snake Oil », Arvind Narayanan et Sayash Kapoor dissèquent avec une précision chirurgicale les prétentions de l’intelligence artificielle dans le domaine de la prédiction sociale. Leur analyse, à la fois rigoureuse et accessible, nous invite à regarder de façon critique des promesses mirobolantes de l’IA. En effet l’IA prédictive révéle un paysage bien plus nuancé et préoccupant que celui dépeint par ses promoteurs les plus enthousiastes.

Le grand malentendu de l’IA

Les deux chercheurs de l’Université de Princeton aux États-Unis établissent une distinction fondamentale trop souvent négligée : celle entre l’IA générative et l’IA prédictive. Si la première connaît des succès spectaculaires, notamment dans la création de contenu avec les chatbots, la seconde se heurte à des obstacles insurmontables dès qu’il s’agit de prédire des comportements sociaux complexes. Cette confusion entretient des attentes irréalistes et potentiellement dangereuses. L’IA prédictive est celle qui est utilisée pour lutter contre la fraude dite sociale. Elle est aussi utilisée pour créer des modèles prédictifs tels ceux concernant la prédiction de dépendance de personnes âgées de 60 ans pour les années qui viennent (voir sur ce blog l’affaire du logiciel SIREVA).

Les auteurs démontrent, exemples à l’appui, que l’IA échoue invariablement lorsqu’elle tente de prédire des phénomènes sociaux. Contrairement aux systèmes physiques régis par des lois immuables, le comportement humain est influencé par une multitude de facteurs impossibles à modéliser exhaustivement. Cette complexité intrinsèque rend vaine toute tentative de prédiction précise à l’échelle individuelle.

Le mirage de la précision chiffrée

Arvind Narayanan et Sayash Kapoor dénoncent la tendance pernicieuse à présenter des résultats chiffrés comme gages de précision et de fiabilité. Ils mettent en garde contre ces chiffres souvent trompeurs, qui masquent la réalité d’une performance à peine meilleure que le hasard. Cette illusion de précision peut avoir des conséquences graves lorsqu’elle influence des décisions dans des domaines sensibles.

Un aspect particulièrement alarmant soulevé par les chercheurs est la propension de ces systèmes à amplifier les biais sociaux existants. En se basant sur des données historiques elles-mêmes biaisées, les modèles prédictifs ne font que perpétuer et généralement aggraver les inégalités. Ce phénomène est particulièrement préoccupant dans des domaines comme la justice pénale,où les conséquences peuvent être dramatiques pour les individus. Le repérage de situations dites à risques sont du même ordre

L’éducation face au défi de l’IA

Arvin Narayanan aborde la question de l’intégration de l’IA dans l’éducation. Il insiste sur l’importance d’avoir une approche équilibrée, qui reconnaît à la fois le potentiel et les limites de ces technologies. L’enjeu est de former des citoyens capables de comprendre et d’interagir de manière critique avec l’IA, plutôt que de simplement la consommer passivement. Or aujourd’hui, nombreux sont celles et ceux qui interrogent des modèles d’IA sans mesurer les biais existants, sans ni même douter de la véracité des réponses toujours présentées de façon péremptoire comme si l’IA ne se trompait jamais.

Son collègue Sayash Kapoor s’attarde sur les implications de la reconnaissance faciale pour la justice sociale. Il démontre le potentiel de cette technologie à exacerber les inégalités existantes. Mais il reconnait aussi tout que certaines applications sont potentiellement bénéfiques. Cette analyse nuancée souligne la nécessité d’un encadrement éthique rigoureux de ces technologies.

Il est aussi question du potentiel de l’IA dans le secteur de la santé. S’ils reconnaîssent certaines applications prometteuses, notamment dans l’analyse d’images médicales, les deux chercheurs nous mettent en garde. Ils dénoncent une confiance excessive des utilisateurs de l’IA dans des systèmes pour des diagnostics complexes ou des prédictions à long terme. La prudence et la supervision humaine restent essentielles. Or, on a toujours tendance à l’oublier.

Vers une IA responsable et éthique

Les deux chercheurs se prennent à rêver. Ils développent leur vision d’un avenir où le développement de l’IA serait guidé par des considérations éthiques et sociales plutôt que par la seule quête de performance technique. Ils plaident pour une approche interdisciplinaire, intégrant les perspectives des sciences sociales et de l’éthique dès la conception des systèmes d’IA.

En conclusion, ce livre « AI Snake Oil » qui traduit en français pourrait correspondre à « l’IA : miroir aux alouettes » nous propose un regard nécessaire sur les réalités de l’IA actuelle. Leur livre n’est pas paru en français. Pourtant, ce sujet nous concerne bien. Les deux auteurs nous invitent à dépasser le battage médiatique pour adopter une approche critique et informée.

Leur message est clair : l’IA a un potentiel immense, mais son utilisation doit être guidée par une compréhension réaliste de ses capacités et de ses limites. Face aux enjeux actuels complexes auxquels nous sommes confrontés, la véritable intelligence réside dans notre capacité à utiliser ces outils avec discernement.

Il s’agit de savoir toujours garder à l’esprit les valeurs humaines fondamentales. Celles portées par la justice, l’équité et le respect de la dignité individuelle. C’est à cette condition que nous pourrons éventuellement tirer le meilleur de l’IA tout en nous prémunissant contre ses dérives potentielles.

Sources :

 


« Entre-nous » : vous allez penser que les questions d’IA, cela commence à bien faire. Mais ce sujet me passionne et je suis convaincu qu’il est essentiel de s’y intéresser dans notre secteur.

 

Photo : Arvind Narayanan et Sayash Kapoor sur le site du Princeton University Press

Partager

Articles liés :

Une réponse

  1. Je vous rejoins sur votre appétence sur le sujet IA, qui pénètre déjà nos vies et celles des personnes accompagnées, que cela soit conscientisé ou non.

    Une bonne journée !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.