La Caisse Nationale des Allocations Familiales (CNAF) utilise le datamining pour analyser un grand nombre de données des allocataires. Le but est de dégager des tendances et des modèles pour mieux cibler les contrôles. En s’appuyant sur des algorithmes et l’analyse de dossiers passés, la CNAF vise à prédire les résultats de situations futures, notamment en matière de fraudes et d’indus.
Mais qu’est-ce que le datamining ? Ce terme est également connu sous le nom de fouille de données. C’est un processus qui consiste à analyser et à explorer de grandes quantités d’informations dans le but d’en extraire des tendances, des modèles et des relations cachées. Le datamining utilise des techniques issues de domaines tels que les statistiques, l’intelligence artificielle, l’apprentissage automatique et la visualisation de données pour accomplir cette tâche.
Un algorithme de ciblage controversé
L’algorithme développé par la CNAF permet de cibler les contrôles en attribuant un score de risque aux allocataires. Le datamining et les algorithmes sont étroitement liés, car les algorithmes sont les outils mathématiques et informatiques utilisés pour extraire des connaissances à partir de grandes quantités de données. Plus précisément, les algorithmes sont des séquence d’instructions, de règles et d’opérations qui permettent de résoudre un ou plusieurs problèmes ou d’accomplir une tâche spécifique. Dans ce contexte, ils servent à analyser les données, à identifier des modèles et des relations, et à faire des prédictions ou des classifications. Problème : ce sont des données personnelles des allocataires de la CAF qui sont ainsi exploitées.
Les critiques émergent quant à l’utilisation de cet algorithme. La Quadrature du Net et du collectif Changer de Cap, dénoncent un ciblage et un sur-contrôle des allocataires précaires. Les témoignages des allocataires se multiplient sur les réseaux sociaux. Changer de Cap reçoit de nombreux témoignages depuis qu’elle a lancé un appel en ligne qui demande à la CNAF de changer ses pratiques. Des avocats spécialisés dans les contentieux administratifs confirment aussi un ciblage de certaines populations et des contrôles à répétition sur certains allocataires complètement désorientés.
De son côté, la CNAF soutient que son algorithme de score de risque a pour objectif d’assurer un juste droit en cas d’erreurs. Elle défend une plus grande objectivité dans les contrôles. Elle ne viserait pas à cibler délibérément les allocataires en situation de précarité. Les décisions de contrôler ou non un dossier sont toujours prises par des contrôleurs humains précise-t-elle. Il semble pourtant que sur le terrain, cela ne soit pas toujours le cas.
Des critiques et des questions sur « l’objectivité » des algorithmes
Les critiques soulignent que l’utilisation d’algorithmes de notation n’est ni objective, ni neutre. Elles contestent une forme de déresponsabilisation de la CNAF qui se cache derrière des statistiques et des technologies. Or la statistique ne renvoie que des réponses à des questions préalablement établies. Elles peuvent intégrer des biais déjà dénoncés ailleurs. Ce sont des choix politiques et humains orientent les politiques de contrôle et les outils numériques qui les accompagnent.
De plus, l’opacité autour des paramètres de l’algorithme soulève des questions sur d’éventuelles discriminations. Les erreurs dans les dossiers des allocataires sont loin d’être toujours de leur fait. Les inégalités pourraient être combattues en amont en mettant l’accent sur la prévention des erreurs et la simplification de la législation. Mais on ne parle pas de cela. Le débat est devenu idéologique. Il est repris par les politiques qui dénoncent les « fraudeurs » laissant supposer dans l’esprit du public que tous les allocataires percevant des minima sociaux sont des fraudeurs en puissance. Même l’erreur peut être considérée comme de la fraude.
Le datamining au cœur des controverses autour de l’algorithme de scoring
L’utilisation du datamining par la CNAF pour cibler les allocataires les plus modestes soulève des enjeux importants en matière d’équité et de transparence. Il est essentiel de repenser les outils et les approches pour mieux servir les allocataires et lutter contre les inégalités.
Les algorithmes de scoring sont au cœur des débats concernant la surveillance des personnes en situation de précarité. Le Défenseur des Droits avait déjà invité en 2017 la Délégation nationale à la lutte contre la fraude à réfléchir aux contrôles aléatoires, une alternative moins stigmatisante. Des algorithmes similaires en Europe (Espagne, Pays-Bas, Autriche) ont récemment été épinglés, car ils utilisent des paramètres discriminatoires, ce qui invite à la plus grande vigilance dans le contexte français.
La CNAF de son côté minimise l’utilisation de l’algorithme de scoring en précisant qu’il ne concerne que 6% des 4 millions de contrôles effectués. Cependant, 75% des contrôles réalisés sur place sont sélectionnés par ce dispositif, qui s’appuie sur le croisement de plusieurs centaines de données statistiques. Les rapports de la CNAF sur la “ lutte contre la fraude” citent des chiffres : pour 2021, 31,6 millions de contrôles automatisés, 4 millions de contrôle sur pièces, 106 000 contrôles sur place.
Les contrôles sur place, bien que minoritaires, sont les plus intrusifs et ciblent souvent les allocataires les plus précaires. La majorité des contrôles sont des « contrôles automatisés », réalisés grâce à des croisements de données automatiques. Le contrôle humain, bien que présent, peut être influencé par l’attribution d’un score élevé.
La CNAF doit être transparente sur les choix derrière ses outils numériques et documenter publiquement les algorithmes de score de risque qu’elle utilise. Des algorithmes similaires en Europe ont été épinglés pour l’utilisation de paramètres discriminatoires, ce qui incite à la vigilance en France. La transparence est la première étape pour permettre un débat démocratique et une maîtrise des pratiques de contrôle. Elles ont un impact réel sur le non recours aux droits et la détresse des plus fragiles qui n’ont que ce type de ressources pour vivre.
- Source : De l’utilisation des algorithmes dans les politiques de contrôle | Changer de Cap
- Lire l’appel « Six changements d’orientation majeurs sont nécessaires pour remettre l’humain et le droit au cœur de l’action des CAF »
- Signer l’appel…
Photo en une : Freepik
2 Responses