L’IA en protection de l’enfance : la CNAPE publie une note de positionnement nécessaire et salutaire

[current_page_url]

L’intelligence artificielle débarque dans nos pratiques professionnelles, et bien évidemment, la protection de l’enfance n’y échappe pas. Entre promesses d’amélioration des conditions de travail et risques éthiques majeurs, le secteur a besoin de repères. C’est tout l’objet de la note de positionnement que vient de publier la CNAPE, fruit d’un travail collectif mené en 2025 avec ses associations adhérentes.

La CNAPE, gardienne des droits de l’enfant et des pratiques professionnelles

Note de la CNAPEPour celles et ceux qui ne la connaîtraient pas, la Convention Nationale des Associations de Protection de l’Enfance (CNAPE) fédère les principales associations et fondations qui interviennent dans ce domaine. Elle représente près de 800 établissements et services, accompagnant plus de 85.000 enfants, adolescents et jeunes majeurs. Ce qui n’est pas rien !

Son rôle est de promouvoir les droits de l’enfant, de valoriser le travail social et de faire entendre la voix du secteur auprès des pouvoirs publics. Cette note de positionnement s’inscrit pleinement dans cette mission. Elle constitue une première étape dans l’appréhension des bouleversements que l’intelligence artificielle va induire dans nos métiers.

Des promesses séduisantes mais des dangers bien réels

Que nous dit la CNAPE ? L’IA nous promet monts et merveilles : gagner du temps sur la rédaction, améliorer la qualité formelle de nos écrits, synthétiser des documents, structurer l’information… Dans un secteur confronté à une crise d’attractivité profonde et à des conditions d’exercice difficiles, ces perspectives ne peuvent que plaire. Beaucoup de professionnels utilisent déjà ChatGPT ou d’autres outils d’IA générative, souvent de manière officieuse, sans cadre ni formation.

Mais attention aux mirages. Les expériences internationales doivent nous alerter. Au Japon, un système d’évaluation automatisée des signalements a été abandonné après un drame ayant révélé la confiance aveugle que les professionnels ont accordée à l’algorithme. Au Royaume-Uni, une étude sur les algorithmes d’aide à la décision en protection de l’enfance a montré que, chaque collectivité locale ayant adopté un modèle prédictif différent, le traitement des situations pouvait être extrêmement hétérogène d’un territoire à l’autre précise la note.

Vous le savez aussi, ces outils peuvent « halluciner », c’est-à-dire inventer des informations plausibles mais fausses. Ils reproduisent les biais de leurs données d’apprentissage – stéréotypes de genre, de classe, d’origine. Et surtout, ils posent des questions majeures de confidentialité : que deviennent les données sensibles que nous saisissons ? Comment garantir leur sécurité ?

Un cadre juridique contraignant qui nous protège

Depuis juin 2024, le règlement européen sur l’intelligence artificielle (AI Act) établit des règles strictes. Ce texte classe les systèmes d’IA selon leur niveau de risque et interdit certains usages incompatibles avec les valeurs démocratiques, notamment les systèmes de notation sociale qui évaluent les personnes selon leur comportement.

Pour notre secteur, la distinction est particulièrement sensible : dès qu’un outil d’IA peut influencer – même indirectement – une décision ayant un effet sur la vie d’un enfant ou d’une famille, il relève du régime « à haut risque ». Cela implique des obligations strictes de transparence, de documentation, de supervision humaine et de formation des utilisateurs.

Il nous faut savoir distinguer l’usage « neutre » de la technologie et son usage « sensible » : La frontière entre un usage « neutre » (reformuler un texte administratif) et un usage « sensible » (contribuer à l’évaluation d’une situation de danger) dépend moins de la technologie que de la finalité réelle du traitement. Cette distinction doit figurer clairement dans nos chartes internes.

Cinq lignes d’action pour un usage responsable

Le groupe de travail de la CNAPE a identifié cinq axes structurants qui méritent toute notre attention. Il nous faut savoir…

  1. Respecter les droits des jeunes et de leurs familles : La confidentialité et la sécurité des données personnelles sensibles ne sont pas négociables. L’opacité de nombreux outils commerciaux pose de sérieux problèmes de responsabilité.
  2. Ni déshumaniser ni standardiser : L’IA peut produire des écrits cohérents mais uniformes. Plusieurs professionnels témoignent déjà de l’utilisation de « prompts » identiques pour différents dossiers, générant des rapports peu différenciés malgré les spécificités des situations. Le risque d’une perte de singularité dans nos suivis éducatifs est réel.
  3. Réduire toutes les inégalités : Une fracture numérique traverse le secteur. Certains professionnels, mieux acculturés au numérique, s’emparent facilement de ces outils, tandis que d’autres expriment méfiance ou difficultés. Certaines associations ne disposent même pas encore des outils numériques de base. Cette hétérogénéité doit être résorbée.
  4. Encadrer clairement plutôt qu’interdire : Face à la montée des usages spontanés, les professionnels expriment un besoin fort de cadre : formations, sensibilisation aux risques, référentiels clairs. L’absence de régulation peut générer des dérives et un sentiment d’isolement.
  5. et enfin, s’approprier l’IA plutôt que la subir : Le secteur doit éviter la dépendance à des solutions techniques conçues dans une logique de performance déconnectée des réalités sociales et éducatives. Il faut que la technologie soit pensée au service de nos pratiques, et non l’inverse. Attention à ce sujet. Des promoteurs de solutions IA abondent et proposent des solutions « clés en main » qui peuvent à terme créer de nouvelles dépendances.

Les positions claires de la CNAPE

La fédération affirme trois positions structurantes :

  • Un consensus garantissant des valeurs partagées : La CNAPE soutient l’élaboration de référentiels communs, comme la convention professionnelle du travail social actuellement en construction avec la Direction Générale de la Cohésion Sociale et le LaborIA. Le résultat de ce travail est particulièrement attendu. Mais dans l’immédiat, il s’agit de sensibiliser d’alerter les professionnels sur les  biais des outils et de repérer les usages à risque élevé : cela doit être une priorité.
  • Un recours assumé, maîtrisé et transparent : L’IA ne doit jamais se substituer à la décision humaine ni compromettre la qualité du lien éducatif. Il est importat de le dire et de l’écrire même si cela parait évident. Son usage doit être supervisé par un professionnel qualifié, formé aux spécificités et limites de ces outils. L’utilisation de l’IA doit être connue, traçable, et les personnes accompagnées doivent en être informées. Les usages « à haut risque » doivent être résolument évités.
  • Une appropriation volontaire et ambitieuse : Sous réserve d’un cadre éthique solide, la CNAPE encourage la mutualisation entre acteurs et le dialogue avec les éditeurs de logiciels pour coconstruire des solutions pertinentes, respectueuses des droits et adaptées aux réalités économiques du secteur.

 

Une démarche qui se poursuit

Cette note constitue une première étape. Certains sujets ont été volontairement mis de côté à ce stade, comme les impacts en matière de pilotage et de gouvernance des politiques publiques. Le « retard numérique » du secteur social – faute de financements suffisants – complique également l’équation.

La CNAPE poursuivra ses travaux en 2026 : veille normative et documentaire, auditions d’experts, soutien opérationnel aux associations adhérentes. Il reste encore beaucoup à faire. L’objectif est clair : accompagner l’acculturation progressive du secteur aux enjeux de l’IA générative.

Un témoignage recueilli lors des travaux résume bien l’enjeu : « Si nous ne nous mettons pas à la page, ce sont les familles qui nous dépasseront. Les jeunes utilisent déjà l’IA – et bien mieux que nous. » Cette asymétrie questionne notre posture professionnelle et notre capacité à rester des médiateurs pertinents.

Il ne s’agit pas de subir, mais de reprendre la maîtrise

La conviction portée par cette note est essentielle : il ne s’agit pas de subir l’IA, mais d’en reprendre rapidement la maîtrise.  Comment ? En construisant une gouvernance collective, anticipatrice et responsable. Ni technophobie ni techno-solutionnisme béat. Juste une appropriation lucide, éthique et maîtrisée au service de ce qui fait le cœur de nos métiers : la relation humaine, le lien éducatif, la prise en compte de la singularité de chaque enfant et de chaque famille.

Cette note tombe à point nommé. Elle mérite d’être largement diffusée, discutée dans les équipes, et de nourrir nos pratiques collectives. Car l’IA est déjà là. La question n’est plus de savoir si nous allons l’utiliser, mais comment nous allons le faire.

 


Photo : Depositphotos

Articles liés :

Une réponse

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.