Dans un article intéressant intitulé « ChatGPT : le mythe de la productivité » Hubert Guillaud nous explique qu’avec les applications de ce type, le but de l’écriture est de remplir une page, pas de réaliser le processus de réflexion qui l’accompagne. Or écrit-il. C’est justement tout l’inverse dont nous avons besoin ! À l’heure où l’intelligence artificielle (IA) s’immisce de plus en plus dans notre quotidien, il est utile de s’interroger sur son impact sur la formation, en particulier sur l’apprentissage des étudiants. Alors que des outils comme ChatGPT promettent de faciliter de nombreuses tâches, il s’agit de comprendre pourquoi il est important que les apprenants puissent se passer de ces technologies, notamment dans le cadre de leurs études.
L’IA et le développement des compétences cognitives
L’un des arguments les plus convaincants en faveur d’un apprentissage sans IA porte sur le développement des compétences cognitives. Comme le souligne Emily M. Bender, linguiste citée par Hubert Guillaud, l’objectif de la rédaction d’un écrit d’étudiant (un mémoire ou d’un rapport de situation sociale) n’est pas de produire plus de connaissances, mais de renforcer les capacités de réflexion critique des élèves.
Une analogie avec l’entraînement sportif peut vous aider à comprendre pourquoi : de même que s’entrainer à soulever des poids développe la force musculaire nécessaire à diverses disciplines sportives, l’écriture régulière cultive des compétences essentielles pour les futurs professionnels. Or, nous avons besoin de travailleurs sociaux qui pensent par eux-mêmes et s’entrainent sans chercher leurs idées dans des réponses formatées par des chabots.
L’utilisation d’outils d’IA comme ChatGPT pour réaliser des devoirs équivaut à « amener un chariot élévateur dans une salle de musculation pour entrainer les athlètes ». En d’autres termes, cela prive les étudiants de l’opportunité de développer leur « forme cognitive ». Cette métaphore illustre parfaitement le risque d’atrophie intellectuelle lié à une dépendance excessive à l’IA. Il s’agit d’apprendre à penser par soi-même et d’être capable d’intégrer la pensée nécessaire à la pratique professionnelle. Sinon à quoi bon se former ?
L’effort intellectuel doit être valorisé
Un autre aspect à ne pas négliger de l’apprentissage sans IA concerne la valeur intrinsèque de l’effort intellectuel fourni par l’étudiant. Bien que certains types d’écriture puissent sembler superflus ou purement académiques, le processus de création de texte, même lorsqu’il n’est pas particulièrement créatif ou évident, a une valeur en soi. Il permet de développer des compétences, d’approfondir la compréhension d’un sujet et de structurer la pensée. D’où l’intérêt de continuer à demander aux élèves de formaliser leurs pensées en synthétisant et en analysant des textes.
Le risque d’une utilisation excessive de l’IA est de créer un cercle vicieux où la production de textes de qualité médiocre devient la norme. Nous pourrions entrer dans une ère où les documents sont générés à partir de listes à puces par une IA, puis réutilisé par une autre IA pour produire un devoir ou une communication académique. Cette perspective soulève des questions sur la valeur ajoutée réelle de tels processus et sur l’appauvrissement potentiel de la réflexion humaines.
Un risque de déshumanisation de l’apprentissage
Distinguons d’abord deux aspects importants qui entrent dans le champ de la formation : la compétence et l’intelligence. La compétence correspond à la façon dont vous accomplissez une tâche, tandis que l’intelligence correspond à l’efficacité avec laquelle vous allez acquérir de nouvelles compétences. Cette différenciation nous conduit à comprendre une limitation fondamentale de l’IA : bien qu’elle puisse être extrêmement compétente dans l’exécution de tâches spécifiques (par exemple, résumer un texte), elle manque de la flexibilité et de l’adaptabilité qui caractérisent l’intelligence humaine. Elle ne dispose pas d’intelligence à proprement parler. Il nous est dit que les étudiants pour obtenir leurs diplômes doivent acquérir des domaines de compétence. Pour autant la pratique du travail social demande surtout de savoir agir avec intelligence. Or ce n’est pas la même chose. James Stacey Taylor, professeur de Sciences humaines au collège de New Jersey, explique bien pourquoi il interdit désormais à ses élèves d’utiliser l’IA.
Cette technologie risque de nous traiter comme des êtres inférieurs à ce que nous sommes réellement : des créateurs et des interprètes de sens. Un autre argument en faveur de l’abandon de l’IA dans le travail des étudiants concerne son potentiel de « déshumanisation ». L’IA générative a tendance à réduire nos attentes, à la fois envers ce que nous lisons et envers nous-mêmes lorsque nous écrivons quelque chose pour que les autres le lisent. Nous banalisons du texte aux kilomètres généré par les modèles de langage et oublions les efforts à fournir qui paraissent alors pour les étudiants de plus en plus démesurés.
L’acte d’écrire ou de communiquer, même lorsqu’il n’est pas particulièrement original, porte une signification profonde pour l’auteur et son audience. Cela concerne aussi bien la création artistique que la communication quotidienne. L’intention et le contexte humains sont essentiels. L’IA, en se substituant à ces processus, risque de réduire la quantité d’intention dans le monde et d’appauvrir nos interactions qui nous conduisent à forger nos propres opinions.
L’IA et la promotion de l’incuriosité
Rob Horning, philosophe du net, nous met en garde contre le fait que les modèles de langage de grande taille (LLM) « marchandisent l’incuriosité ». Ces systèmes peuvent fournir des informations, mais ils sont incapables d’expliquer pourquoi ces informations ont été produites ou organisées d’une certaine manière. Cette limitation est particulièrement problématique dans un contexte éducatif, où la compréhension du processus de création et d’organisation des connaissances est aussi importante que les connaissances elles-mêmes.
L’utilisation de l’IA dans l’éducation risque de promouvoir une approche assez superficielle de l’apprentissage. L’accent sera mis sur l’obtention rapide de résultats plutôt que sur le processus de réflexion et de compréhension. Cette tendance va à l’encontre des objectifs fondamentaux de la formation des travailleurs sociaux, qui visent à développer la pensée critique et la capacité d’analyse des étudiants.
Or aujourd’hui que souhaitons-nous pour les futurs travailleurs sociaux ? De nombreux employeurs vous diront qu’ils recherchent des professionnels qui font ce qu’on leur demande de faire sans véritablement se poser des questions. Le résultat importe plus que le processus qui a permis de l’obtenir. Or l’aide et l’accompagnement en travail social est justement structuré dans le processus fait d’avancées et de reculs, un parcours qui permettra à la personne aidée de pouvoir à terme prendre son avenir en main. Elle nous oblige à penser l’action au fil du contexte et des évolutions de la situation. Cette réflexion est menée avec la personne accompagnée. Or l’IA vous proposera des réponses qui ne sont pas coconstruites avec elle.
Le mythe de la productivité
Un autre aspect problématique de l’utilisation de l’IA dans la formation est la promotion du « mythe de la productivité ». Cette idéologie présuppose que l’économie de temps et d’efforts est toujours préférable à l’engagement dans une activité pour elle-même. Dans le contexte éducatif, cela peut se traduire par une focalisation excessive sur la production d’actions et de contenus au détriment du processus d’apprentissage et de réflexion pour la mise en œuvre de l’action.
Ce mythe de la productivité risque de réduire l’écriture et d’autres activités éducatives à de simples tâches à accomplir. Il néglige dans le processus d’écriture leur dans le développement intellectuel et personnel des étudiants. Comme le souligne Rob Horning, cette approche correspond à celle de l’idéologie libérale qui privilégie l’efficacité sur le sens et l’expérience.
Une utilisation excessive de l’IA dans la formation risque également de priver les étudiants de la maîtrise de leur propre apprentissage au nom de la productivité. En automatisant des processus qui devraient normalement impliquer une réflexion et un effort personnels, l’IA peut réduire la capacité des étudiants à développer une compréhension profonde et une expertise dans leurs domaines d’étude.
Cette perte de maîtrise s’apparente à ce que Rob Horning décrit comme le travail aliéné dans le contexte capitaliste. Au temps du Fordisme, les travailleurs étaient soumis à des processus de travail cadencés par la machine. Ils travaillaient à la chaine. Cela les privait de toute autonomie et surtout de leur créativité. Aujourd’hui, des robots les ont remplacés. L’IA utilisée de la sorte n’en ferait pas autrement. Cela pourrait se traduire par une autre forme de travail à la chaine, où le salarié (et l’étudiant) ne travaillent plus directement leurs textes, mais suivent plutôt ce que l’IA leur a fourni. Cela pourrait provoquer une forme d’aliénation aux outils d’IA, au détriment du développement de la capacité à penser de manière indépendante.
L’impact sur l’apprentissage
Les effets potentiellement néfastes de l’utilisation excessive de l’IA nous conduit dans des process un peu absurdes. Comme le souligne Ian Bogost, nous assistons déjà à des scénarios dans lesquels des étudiants génèrent des devoirs avec l’IA, que les enseignants font ensuite corriger par l’IA. On en arriverait vite à marcher sur la tête. Cette situation, qui peut exister, soulève des questions importantes sur la valeur et l’intégrité du processus éducatif.
Le risque majeur est que cette technologie rende caduc certains des meilleurs outils d’apprentissage, notamment l’écriture elle-même. L’écriture n’est pas seulement un moyen de communiquer des idées, c’est aussi un processus qui permet de clarifier la pensée, d’approfondir la compréhension et de développer des compétences critiques. En remplaçant ce processus par une génération automatisée de contenu, nous risquons de priver les étudiants d’opportunités essentielles pour leur développement intellectuel.
Il existe une grande différence entre l’apprentissage automatique et la « pensée machine » explique Ron Carucci dans le magazine Forbes. Dès l’instant où nous commençons à considérer l’IA comme une machine pensante, nous sommes dans le pétrin. En effet, cela signifie que nous avons essayé d’externaliser notre propre pensée critique et nos compétences de résolution de problèmes à une machine qui ne fait que répliquer et régurgiter les informations qu’elle a recueillies. Les grands modèles linguistiques recherchent des modèles d’information existants, peut-être même les synthétisent. Mais ils ne peuvent pas exercer d’appréciation, quelle que soit la nuance ou la rapidité de leurs résultats.
Plus les étudiants utilisent les machines pour réfléchir à leur place, plus ils deviennent dépendants de ces machines, ce qui perturbe les processus cognitifs clés. Utiliser l’IA pour trouver une réponse par raccourci au lieu de la trouver par soi-même diminue leur réserve cognitive, ou si vous préférez les connexions entre les cellules cérébrales. L’hypothèse de la réserve cognitive reflète l’agilité de notre cerveau à résoudre des problèmes et à faire face à des situations inattendues explique Ron Carucci.
En conclusion
En conclusion, bien que l’IA offre des possibilités assez vertigineuses dans de nombreux domaines, son utilisation dans la formation, en particulier pour des tâches fondamentales comme l’écriture et la recherche, soulève de sérieuses préoccupations. Il est esentiel que les étudiants apprennent à se passer de ces outils, non pas par rejet de la technologie, mais pour préserver et développer des compétences essentielles qui ne peuvent être acquises que par l’effort et la pratique.
L’éducation ne consiste pas seulement à acquérir des connaissances, mais aussi à développer la capacité de penser de manière critique, de résoudre des problèmes et de s’adapter à de nouvelles situations. Ces compétences sont primordiales pour le succès futur des étudiants, tant dans leur vie professionnelle que personnelle. Elles sont essentielles pour les étudiants en travail social. Il leur faut continuer à penser par eux-mêmes et non déléguer une quelconque décision à des IA qui n’auront pas dans leur mémoire tous les aspects particuliers d’une situation singulière.
Alors que beaucoup utilisent l’IA sans le dire, il reste essentiel de trouver un équilibre entre l’utilisation de ces technologies comme outils d’assistance et la préservation des processus d’apprentissage. C’est bien le fait de ne pas utiliser l’IA qui favorise une véritable croissance intellectuelle. Les formateurs, les responsables de filières et les étudiants eux-mêmes doivent être conscients des limites et des risques associés à une dépendance excessive à l’IA dans la formation.
En fin de compte, l’objectif de la formation devrait être de former des futurs professionnels capables de penser par eux-mêmes, de remettre en question les idées reçues et de contribuer de manière significative à la société. Ces compétences ne peuvent être pleinement développées que par un engagement actif dans le processus d’apprentissage, sans raccourcis artificiels. C’est en préservant ces aspects essentiels que nous pourrons préparer au mieux les étudiants dans un monde où l’IA jouera sans aucun doute un rôle de plus en plus important.
La quasi-totalité des sources est en anglais, n’hésitez pas à utiliser un traducteur automatique :
- ChatGPT : le mythe de la productivité | Dans les algorithmes
- Revue Spirale – Esprit critique et pouvoir d’agir. Vers le développement d’une « attitude critique » ? | Cairn.info
- AI Reduces Critical Thinking | WVNexus
- Why I Ban AI Use in Writing Assignments | Times Higher Education
- Importance of Critical Thinking for Students | EssayPro
- In the Age of AI, Critical Thinking Is More Needed Than Ever | Forbes
- Why Should Students Not Use AI Tools to Write Assignments? | Academic Assignments
Note : Au sujet de l’apprentissage à l’écriture, ne manquez pas mon ouvrage qui vient de paraitre : « Guide pratique des écrits professionnels en travail social » paru aux Presses de l’EHESP. J’y aborde dans un chapitre la question des usages de l’IA dans le processus d’écriture :