L’expression « intelligence artificielle éthique » est plutôt aujourd’hui une provocation. C’est du moins mon avis quand on lit tout ce qui s’écrit sur les évolutions de l’IA générative. Celle qui produit du texte au kilomètre, crée des images, des vidéos ou de la musique, après avoir ingurgité tout se que l’on trouve sur internet. Les modèles génératifs bouleversent la création, la décision et l’information. La promesse d’une IA respectueuse des droits, de l’environnement et de la justice sociale est-elle une utopie ? C’est possible voire probable. BPI France nous explique ce qu’est une IA éthique. Aujourd’hui j’ai plutôt l’impression que ce concept porté par des grands groupes industriels, n’est qu’un slogan creux, masquant des réalités bien plus sombres.
Il y a aussi quelque chose d’ironique ou du moins agaçant de poser d’emblée la question de la légitimité et de la sincérité des discours sur l’éthique de l’IA. Force est de constater que les labels éthiques se multiplient. Ces labélisation sont des programmes de certification utilisés par les entreprises qui n’utilisent pas l’IA ou, à minima, qui disposent d’une politique stricte pour utiliser l’IA, sans violer les droits d’auteur et sans menacer les emplois. Permettez moi de douter de cet usage de l’IA.
Derrière le vernis marketing, trois dimensions majeures sont à prendre en considération : l’exploitation massive de contenus protégés sans consentement des auteurs, l’empreinte écologique croissante des data centers, et la persistance de biais discriminants dans les modèles d’apptrentissages de l’IA.
Une exploitation invisible qui ne dit pas son nom : le pillage la créativité humaine
La première faille éthique de l’IA générative tient à son appétit insatiable pour les œuvres humaines. Pour apprendre à « écrire », « composer » ou « dessiner », les modèles d’IA sont entraînés sur des corpus gigantesques, souvent constitués d’œuvres protégées par le droit d’auteur, collectées sans consentement ni compensation pour leurs créateurs. Cette pratique est largement documentée. Elle pose un double problème : elle mine la reconnaissance et la rémunération des artistes, et elle brouille la frontière entre inspiration et pillage.
Certes, des exceptions juridiques existent, comme la fouille de textes et de données (« text and data mining »), mais leur application reste floue. Des accords financiers sont signés mais en pratique, la capacité des auteurs à s’opposer à l’utilisation de leurs œuvres demeure très limitée. Face à cette situation, des initiatives émergent pour instaurer un « droit de retrait » ou une redevance obligatoire, mais la régulation peine à suivre le rythme de l’innovation.
Ce phénomène n’est pas anecdotique. Il révèle un rapport de force structurel : les géants de la tech s’approprient la matière première culturelle de la société, la transforment en modèles commerciaux, et la redistribuent sous forme de services payants, sans que les producteurs originaux n’en retirent les fruits. L’IA, loin d’être neutre, s’inscrit ainsi dans une logique d’accumulation et de concentration du capital, au détriment de la diversité et de la vitalité culturelle.
L’empreinte écologique : la face cachée de la dématérialisation
Le deuxième sujet, tout aussi préoccupant, concerne l’impact environnemental de l’IA. Loin de l’image immatérielle que véhiculent les interfaces, les modèles génératifs reposent sur des data centers énergivores, (comme à Marseille) dont la consommation explose à mesure que la demande en IA s’accroît. Selon les projections, les émissions de CO₂ des centres de données pourraient atteindre 2,5 milliards de tonnes métriques d’ici 2030, soit près de 40 % des émissions annuelles des États-Unis. Ces systèmes sont tellement énergivores qu’l est envisagé de les « accoupler » à des mini-centrales nucléaires. On ne sait que faire de leurs déchets et on ne mesure pas bien ce qu’il faut faire pour les démanteler une fois qu’elle sont devenues obsolètes.
Cette pression sur les ressources énergétiques et sur l’environnement s’accompagne de risques de pénuries et de tensions géopolitiques autour de l’accès à l’électricité et à l’eau de refroidissement. La croissance de l’IA n’est donc pas sans coût : elle accélère le réchauffement climatique, tout en promettant des bénéfices sociaux encore incertains38. Or, une éthique véritable ne saurait ignorer la question de la soutenabilité écologique. À quoi bon optimiser des processus ou générer des contenus si le prix à payer est l’épuisement de la planète ?
Les biais discriminants : la reproduction des inégalités à grande échelle
Troisième pilier de nos interrogations, la question des biais algorithmiques reste centrale. Les modèles d’IA, nourris par des données historiques, héritent et amplifient les préjugés, discriminations et stéréotypes présents dans la société. Tout cela est documenté et je vous invite à utiliser un moteur de recherche pour aller à la source de ces biais (comme par exemple ceux de la CAF). Qu’il s’agisse de recrutement, de justice, de santé ou d’accès au crédit, les algorithmes peuvent exclure, stigmatiser ou invisibiliser des groupes entiers, souvent sans possibilité de recours ou de contestation.
Les biais ne sont pas de simples imperfections techniques : ils sont le reflet d’inégalités systémiques. L’IA risque de les figer ou de les aggraver si elle n’est pas conçue et auditée de manière rigoureuse. Les audits éthiques, la diversité des équipes de développement, la transparence des décisions et la formation à l’éthique sont autant de leviers identifiés… mais rarement mis en œuvre à grande échelle.
La responsabilité des concepteurs, des entreprises et des institutions est ici engagée. L’éthique ne peut être un correctif cosmétique apposé après coup : elle doit aider à structurer le développement et le déploiement des systèmes, sous peine de la voir l’IA devenir un nouvel instrument de domination ou d’exclusion.
La réflexion éthique, une construction collective et dynamique
Face à ces constats, la tentation des postures fatalistes est grande. Faut-il alors renoncer à l’idée même d’une IA éthique ? Oui parce que l’éthique n’est pas un état, mais un processus, une tension permanente entre des valeurs, des intérêts et des contraintes parfois contradictoires. L’IA ne peut être éthique mais son usage peut s’appuyer sur une réflexion éthique qui intègre sa réalité.
La réfexion éthique appliquée à l’IA suppose d’articuler plusieurs niveaux : le comportement individuel des acteurs qui entrent dans la chaine d’utilisation (chercheurs, développeurs, utilisateurs), celui des machines (leurs décisions et impacts), et celui des institutions (régulation, gouvernance, contrôle).
La Déclaration de Montréal sur l’IA responsable, par exemple, plaide pour une réflexion éthique intégrée à toutes les étapes du cycle de vie des systèmes. Elle est fondée sur la réflexivité, le dialogue et la pluralité des points de vue. Les grands principes – transparence, justice, non-malfaisance, responsabilité, respect de la vie privée, durabilité – sont désormais bien identifiés, même si leur mise en œuvre reste inégale et sujette à interprétation.
Mais l’éthique ne peut être l’affaire des seuls spécialistes. Elle doit devenir une préoccupation publique, impliquant les citoyens, les travailleurs sociaux, les décideurs, les créateurs et les usagers. L’IA, parce qu’elle agit dans la société, engage la société. Elle doit être encadrée par des principes clairs, mais aussi par des pratiques concrètes, des mécanismes de contrôle et des espaces de débat.
L’IA éthique : horizon ou mirage ?
Au fond, parler d’IA, c’est accepter l’ambivalence des créations humaines. Comme le couteau ou le vin, l’IA peut nourrir ou blesser, émanciper ou asservir. Ce n’est pas tant l’outil qui est en cause que la manière dont il est conçu, déployé et utilisé. Mais cette ambivalence est aujourd’hui occultée par la vitesse du progrès technologique et par l’opacité des processus de fabrication. Nous consommons des services sans questionner leur origine, leur impact social ou écologique, dans une forme d’égoïsme collectif justifié par le confort individuel.
Dans ce contexte, ériger une « cathédrale éthique » sur des fondations instables relève de la gageure. Peut-on vraiment parler d’éthique quand les algorithmes sont conçus pour maximiser l’engagement, quand les biais sont intégrés dans les jeux de données, et quand les enjeux d’équité ou de responsabilité sont relégués au second plan derrière la rentabilité et l’efficacité ? Personnellement je ne le pense pas, mais je demande à être convaincu. Les forces en présence sont trop inégales.
Pourtant, refuser de se poser la question, c’est se condamner à l’impuissance. La pratique éthique ne se décrète pas : elle se construit dans l’action collective, la transparence et la vigilance. Elle suppose de questionner nos usages, d’exiger des pratiques responsables, d’ouvrir les sujets qui fâchent et de donner voix aux exclus du système. Elle exige aussi de repenser la gouvernance de l’IA, en associant juristes, philosophes, sociologues, travailleurs sociaux et citoyens à la définition des finalités et des limites des technologies. C’est à l’opposé même des pratiques des grands groupes de la technologie. Leur seul intérêt demeure le profits. Les IA sont mises sur le marché dans une course effrénée sans se préoccuper des effets sur la population.
Pour une réflexion éthique vivante, au service du progrès humain
L’IA éthique n’existe pas. Elle n’est ni un label, ni une garantie, ni un état stable. Elle est peut-être un horizon, une exigence, un appel à la responsabilité. Elle suppose de sortir du confort du non-savoir, de refuser l’automatisation aveugle, et d’assumer les conflits de valeurs et d’intérêts qui traversent la société.
Pour les travailleurs sociaux, les cadres et les directeurs de structures, cette réflexion n’est pas abstraite. Elle touche au cœur de leur mission : défendre la dignité, l’autonomie et la justice sociale face à toutes les formes de pouvoir dont celle des grands groupes technologique. Elle invite à s’engager dans la co-construction de solutions, à porter la voix des plus vulnérables, et à faire de l’éthique un moteur d’innovation, et non un frein ou un alibi.
Je repense à cet allocataire du RSA qui nous avait dit : « le problème de l’éthiqiue, c’est qu’elle est élastique ». Chacun s’arrange avec ses propres principes. En choisi certains plutôt que d’autres. Nous avons connu le green-washing. Il existe désormais l’éthique-washing. Une façon de rendre acceptable des pratiques qui ne le sont pas. Or nous voulons tous dans notre grande majorité que la technologie reste au service du progrès humain, et non l’inverse. À nous de faire advenir des pratiques éthiques dans nos usages de l’IA, pas à pas, dans la lucidité, le dialogue et l’action.
sources :
- IA générative et propriété intellectuelle, les défis juridiques et les perspectives | Village de la justice
- Éthique au cœur de l’IA | Groupe Philia
- Éthique de l’intelligence artificielle — Wikipédia | Wikipédia
- IA : une vision dépassée et stéréotypée des Français | Upmynt
- IA éthique et inclusive : quels enjeux et défis pour les entreprises ? | Big Media Bpifrance
- La Déclaration de Montréal pour un développement responsable de l’intelligence artificielle | Déclaration de Montréal IA responsable
Lire aussi :
Le datamining : tout comprendre du « scoring » des allocataires des CAF
L’IA met la pression sur les datacenters qui doivent réduire leur empreinte carbone
Photo :