Alors que dans une partie du monde les élèves ont repris le chemin de l’école après les vacances d’été, l’UNESCO appelle les gouvernements à mettre en œuvre des réglementations appropriées et à former les enseignants, pour garantir une approche centrée sur l’humain lors de l’utilisation de l’IA générative dans l’éducation. Dans cet objectif, l’UNESCO publie le tout premier Guide mondial pour l’IA générative dans l’éducation et la recherche, conçu pour faire face aux perturbations causées par ces technologies.
Les changements numériques que nous vivons sont passionnants, bouleversants, emplis d’opportunités et, en même temps, terrifiants. Au cours de ces dernières décennies, nous avons été témoins d’au moins quatre révolutions numériques : l’avènement et la prolifération des ordinateurs personnels, l’expansion de l’internet et de la recherche, la montée en puissance et l’influence des médias sociaux, et l’omniprésence croissante de l’informatique mobile et de la connectivité.
Les changements radicaux apportés par ces révolutions peuvent sembler soudains et parfois inattendus. Ils modifient radicalement nos modes de vie et notre façon d’enseigner et d’apprendre. Il est remarquable que beaucoup d’entre nous, et surtout les jeunes, passent aujourd’hui beaucoup plus de temps immergés dans des espaces et des interactions numériques que dans des échanges hors ligne et hors écran – une proposition qui semblait relever de la science-fiction il y a seulement une génération.
Des implications pour la connaissance
Les progrès de la technologie numérique semblent souvent s’accélérer, et les nouveaux mondes qu’ils créent peuvent sembler peu familiers et désorientants, même si nous comprenons qu’ils peuvent enrichir nos vies, transformer nos relations, et ouvrir de nouveaux horizons en matière d’éducation.
Grâce à l’amélioration de la puissance de calcul, aux réseaux neuronaux synthétiques et à la modélisation du langage à grande échelle, la technologie de l’IA est en train, si ce n’est de craquer, du moins de simuler avec une dextérité remarquable le « pivot » de la civilisation humaine : le langage. Le pouvoir du langage, c’est ce qui nous distingue des autres animaux. Elle est au cœur de l’identité et de la diversité culturelle. Elle donne un sens au monde qui nous entoure et inspire nos actions. Elle est à la base de tout ce que nous faisons dans l’éducation et dans presque tous les autres domaines de la vie. Elle peut donner du pouvoir, comme elle peut manipuler.
Pour Audrey Azoulay, Directrice générale de l’UNESCO, « L’IA générative peut être une formidable opportunité pour le développement humain, mais elle peut aussi être la source de dommages et de préjudices. Elle ne peut être intégrée dans l’éducation sans l’engagement du public et sans de solides garanties et réglementations gouvernementales. Le Guide de l’UNESCO aidera les décideurs politiques et les enseignants à exploiter de façon optimale le potentiel de l’IA dans l’intérêt supérieur de l’élève. »
Nous commençons à comprendre que notre monopole sur le langage avancé – une capacité naturelle, cultivée par l’éducation, et le trait social le plus caractéristique de notre espèce – n’est plus quelque chose que nous pouvons considérer comme acquis. La reconnaissance de ce fait nous oblige à revoir les croyances et les hypothèses qui soutiennent nos systèmes éducatifs actuels et, en fait, nos sociétés au sens large.
L’urgence d’aligner l’intelligence des machines sur les valeurs humaines
Les applications de l’IA qui génèrent un langage semblable à celui des humains soulèvent des questions fondamentales qui concernent l’éducation, mais qui s’étendent bien au-delà : Comment cette technologie va-t-elle modifier les notions de ce que nous sommes en tant qu’êtres humains ? Comment va-t-elle recadrer notre compréhension de l’intelligence humaine ?
Nous sommes également contraints d’examiner les nouvelles technologies qui étudient nos langues et les génèrent, sans direction humaine explicite et donc de manière imprévisible. Est-il possible qu’une technologie maîtrisant le langage et l’apprentissage développe, à un moment donné, une sensibilité, une connaissance de sa propre existence et un désir d’autonomie accrue ? Est-il sage de transmettre des millénaires de connaissances à des machines qui semblent capables d’apprendre et d’être performantes au-delà des limites fixées par l’homme ? Et qu’en est-il de nos interactions avec ces machines ? Comment devons-nous les « traiter » ? Est-il approprié qu’une machine non humaine parle à un adulte comme s’il s’agissait d’une autre personne ? Est-ce approprié pour un enfant ? Que devons-nous penser lorsqu’un chatbot prend la voix d’un personnage historique vivant ou décédé depuis longtemps, sur demande et sans hésitation ?
La technologie n’est jamais idéologiquement neutre. Elle expose et privilégie certaines visions du monde et reflète des modes de pensée et de connaissance particuliers. Les chatbots de l’IA comme ChatGPT permettent une expérience utilisateur fondamentalement différente des technologies d’IA qui soutiennent les recherches standard sur Google ou d’autres sites web. Les technologies de recherche sélectionnent et classent un menu de contenus produits en grande partie par des humains en réponse à des requêtes d’utilisateurs. Les chatbots à grand modèle de langage, en revanche, génèrent des réponses singulières et, à ce titre, beaucoup plus fiables, à l’aide d’un contenu produit par une machine. Les chatbots d’IA fonctionnent donc comme des oracles omniscients.
Les réponses fournies par ces chatbots d’IA ne proviennent pas d’esprits humains. Elles proviennent plutôt d’un labyrinthe de calculs si complexes qu’ils ne sont pas entièrement compréhensibles, même pour les personnes qui développent la technologie. Nous avons, en effet, une invention qui donne aux utilisateurs humains des réponses singulières à des questions, mais ces réponses ne peuvent pas être rattachées à d’autres personnes. Par définition, les réponses manquent donc d’humanité. Les machines qui offrent des réponses immédiates, concises et apparemment définitives à des questions de connaissance peuvent être utiles aux apprenants, aux enseignants et à d’autres personnes. Mais la technologie peut aussi ouvrir la voie à un monde où le savoir des machines devient dominant et où les modèles d’IA propriétaires sont élevés au rang de sources d’autorité globales, voire vénérées. Ces modèles projetteront certaines visions du monde et certains modes de connaissance, et en occulteront d’autres.
Malgré les promesses de l’IA et d’autres technologies numériques de diversifier davantage nos systèmes de connaissance, il se peut que nous allions dans la direction opposée. Cela est particulièrement vrai si un ou deux modèles et plateformes d’IA, dont certains exercent déjà des pouvoirs quasi monopolistiques, en viennent à dominer encore davantage notre interface avec la connaissance.
Alors que la technologie de l’IA continue d’imprégner notre monde, nous devons préserver et sauvegarder la diversité de nos systèmes de connaissance et développer les technologies de l’IA de manière à protéger et à étendre nos riches biens communs de la connaissance. Nous ne pouvons pas laisser nos divers systèmes de production de connaissances s’atrophier, et nous devons veiller à ce que leur création ne soit pas dissociée des êtres humains. Les machines comprendront peut-être un jour notre morale et notre éthique, mais ce jour n’est pas encore arrivé. Aligner l’intelligence des machines sur les valeurs humaines est, comme l’ont affirmé de nombreux scientifiques et philosophes, une entreprise urgente.
Quelles implications pour l’éducation à venir ?
Les développements de l’IA générative soulèvent des questions fondamentales pour l’avenir de l’éducation : quel sera le rôle des enseignants avec cette technologie largement répandue ? À quoi ressemblera l’évaluation maintenant que les utilitaires d’IA peuvent obtenir d’excellents résultats à des examens qui, jusqu’à très récemment, étaient largement considérés comme impossibles à pirater, tels que les tests visant à démontrer la maîtrise de matières spécifiques et les examens destinés à certifier des professionnels qualifiés, notamment des médecins, des ingénieurs et des juristes ?
Longtemps l’enseignement de l’écriture a été considéré comme l’un des moyens les plus efficaces de cultiver et de démontrer les capacités d’analyse et de pensée critique. Dans un monde où les systèmes d’IA générative semblent développer de nouvelles capacités chaque mois, quelles aptitudes, perspectives et compétences nos systèmes éducatifs devraient-ils cultiver ? Quels changements sont nécessaires dans les écoles et au-delà pour aider les étudiants à naviguer dans un avenir où l’intelligence humaine et l’intelligence de la machine semblent être de plus en plus étroitement liées – l’une soutenant l’autre et vice versa ?
Il est possible que nous atteignions bientôt l’intelligence générale artificielle – une étape à partir de laquelle les machines nous surpasseront non seulement dans des domaines restreints, comme jouer aux échecs, mais aussi dans des domaines beaucoup plus vastes, comme recommander des actions pour atténuer les dangers du changement climatique.
À quoi devrait alors ressembler l’éducation ? Quels seront son objectif et son rôle dans un monde où les humains ne sont pas nécessairement ceux qui ouvrent de nouvelles frontières à la compréhension et à la connaissance ? Elles nous obligent à nous pencher sérieusement sur des questions que nous avons sans doute évitées pendant trop longtemps.
Au niveau le plus élémentaire, ces préoccupations concernent le type de monde dans lequel nous voulons vivre. Nos systèmes éducatifs tiennent souvent pour acquis ce à quoi le monde ressemble – et ce à quoi il ressemblera et devrait ressembler. Nos systèmes d’apprentissage formel sont conçus pour aider les gens à développer les compétences nécessaires pour naviguer et, nous l’espérons, prospérer dans ce monde connu. L’IA nous oblige à poser des questions sur le « monde connu » que nous prenons habituellement comme point de départ de l’éducation. Nombre de nos anciennes hypothèses et normes, en particulier celles qui concernent la connaissance et l’apprentissage, semblent peu susceptibles de supporter le « poids » de cette nouvelle technologie. Nous ne pouvons plus nous contenter de nous demander « comment nous préparer à un monde d’IA ». Nous devons aller plus loin : « À quoi devrait ressembler un monde avec l’IA ? Quels rôles cette puissante technologie devrait-elle jouer ? À quelles conditions ? Qui décide ? Les systèmes éducatifs doivent redonner le pouvoir aux apprenants et rappeler aux jeunes que nous restons maîtres de la technologie.
Gérer le manque de gouvernance dans l’utilisation de l’IA générative en classe
Depuis le début de l’année, nous reconnaissons clairement ce que les scientifiques disent depuis au moins une décennie : le rythme des développements de l’IA ne fait que s’accélérer. Aujourd’hui, nous avançons à un rythme effréné – et en grande partie sans feuille de route. Les moments de pause, de réflexion et de questionnement peuvent sembler rares, mais nous devons nous demander où nous allons et si c’est bien ce que nous voulons.
La vitesse à laquelle les technologies d’IA générative sont intégrées dans les systèmes éducatifs en l’absence de contrôles, de règles ou de réglementations est étonnante. On ne peut que constater qu’aujourd’hui, dans la plupart des contextes nationaux, le temps, les étapes et les autorisations nécessaires à la validation d’un nouveau manuel dépassent de loin ceux requis pour faire entrer les utilitaires d’IA générative dans les écoles et les salles de classe. En juin 2023, l’UNESCO alertait sur le fait que l’IA s’est déployée à l’école à un rythme trop rapide, avec un manque préoccupant de contrôle, de surveillance ou de réglementation des pouvoirs publics. L’Organisation a publié un document révélant que la publication d’un nouveau manuel scolaire nécessite plus d’autorisations que l’utilisation d’outils d’IA générative en classe.
En fait, les services publics de l’IA n’ont souvent pas besoin d’être validés. Ils ont été « lâchés » dans la sphère publique sans discussion ni examen. On ne connait pas beaucoup d’autres technologies qui sont mises à la disposition des enfants et des jeunes du monde entier quelques semaines seulement après leur mise au point. Dans de nombreux cas, les gouvernements et les écoles adoptent une technologie radicalement inconnue que même les plus grands technologues ne prétendent pas comprendre. Il existe très peu de précédents à cette évolution. L’internet et les téléphones portables n’ont pas été immédiatement accueillis dans les écoles et à l’usage des enfants dès leur invention. Nous avons découvert des moyens productifs de les intégrer, mais cela ne s’est pas fait du jour au lendemain. L’éducation, compte tenu de sa fonction de protection et de facilitation du développement et de l’apprentissage, a l’obligation particulière d’être attentive aux risques de l’IA, qu’il s’agisse des risques connus ou de ceux que l’on commence à peine à percevoir. Mais trop souvent, nous ignorons les risques.
Les écoles, et dans une moindre mesure les universités, doivent être des lieux où nous sommes sûrs des outils que nous utilisons avec les jeunes et que nous leur recommandons. Bien qu’il soit encore tôt, nous savons que l’un des risques principaux et les plus évidents de l’IA est son potentiel de manipulation des utilisateurs humains. Nous savons également que les enfants et les jeunes sont très sensibles à la manipulation, bien plus que les adultes. Il existe de nombreux exemples d’IA qui échappent aux garde-fous mis en place par leurs créateurs et qui s’engagent dans toutes sortes de « conversations » inappropriées pour les enfants et susceptibles de les influencer négativement. C’est d’autant plus vrai que ces outils sont de plus en plus calibrés pour l’influence, le divertissement et l’engagement prolongé, comme c’est le cas actuellement avec les médias sociaux.
L’utilisation de l’IA peut être maîtrisée ou limitée, comme c’est le cas pour d’autres technologies, même s’il est devenu populaire de suggérer que cela n’est en quelque sorte pas faisable. Dans de nombreux pays, des règles strictes contrôlent et limitent l’utilisation des technologies dont on sait qu’elles sont dangereuses ou qu’elles sont encore trop récentes pour justifier une diffusion large ou incontrôlée. Même si ces règles ne sont pas toujours parfaites, elles sont assez efficaces.
Le secteur de l’éducation doit procéder à ces déterminations de « qualification » selon ses propres termes. Il ne peut pas compter sur les entreprises créatrices d’IA pour faire ce travail. Une telle autorégulation de l’industrie introduirait un conflit d’intérêts inacceptable. Pour contrôler et valider les applications nouvelles et complexes de l’IA en vue d’une utilisation formelle à l’école, les ministères de l’éducation devront renforcer leurs capacités, probablement en coordination avec d’autres organes de réglementation du gouvernement, en particulier ceux qui réglementent les technologies.
Pour l’avenir, nous avons besoin d’un bien meilleur équilibre entre les experts en IA qui développent des technologies et des applications destinées à être utilisées et, d’autre part, les experts qui travaillent pour les gouvernements afin d’examiner la sécurité de ces applications et d’étudier attentivement leurs possibilités d’utilisation abusive et la manière de minimiser ces possibilités.
Dans le contexte actuel d’incertitude, de nouveauté et de faiblesse des contrôles de sécurité, une approche plus prudente de l’IA générative dans l’enseignement est une ligne de conduite sensée.
Un guide fixant une limite d’âge à 13 ans pour l’utilisation de l’IA
L’une des composantes de la feuille de route de l’UNESCO pour mener une approche de l’IA générative dans l’éducation centrée sur l’humain est l’élaboration d’un Guide pour l’IA générative dans l’éducation et la recherche, dans le cadre de son initiative sur l’IA et les futures de l’apprentissage.
La première partie du Guide de l’UNESCO explique ce qu’est l’IA générative et comment elle fonctionne. Les sections suivantes abordent les controverses relatives à l’IA générative et leurs implications pour l’éducation, en particulier la façon dont elle aggrave les fractures numériques. En effet, les modèles actuels de ChatGPT sont formés à partir de données provenant d’utilisateurs en ligne, qui reflètent les valeurs et les normes sociales dominantes des pays du Nord.
Le Guide présente ensuite sept étapes clés que les gouvernements doivent suivre pour réglementer l’IA générative et établir des cadres politiques pour son utilisation éthique dans l’éducation et la recherche. Il recommande par exemple l’adoption de normes mondiales, régionales ou nationales en matière de protection des données et de vie privée. Il fixe également une limite d’âge à 13 ans pour l’utilisation des outils d’IA dans les salles de classe, et appelle à former les enseignants spécifiquement sur ce sujet.
Fondé sur la Recommandation de l’UNESCO de 2021 sur l’éthique de l’intelligence artificielle et le Consensus de Beijing de 2019 sur l’intelligence artificielle dans l’éducation, ce Guide encourage l’intervention humaine, l’inclusion, l’équité, l’égalité des genres et la diversité culturelle et linguistique. Il veut également répondre aux préoccupations exprimées lors de la première table ronde ministérielle mondiale sur l’IA générative, organisée par l’UNESCO en mai 2023.
Le lancement du Guide a eu lieu le 7 septembre, à l’occasion de la Semaine de l’apprentissage numérique de l’UNESCO, qui a rassemblé plus de 1 000 participants pour discuter notamment des plateformes publiques d’apprentissage numérique et de l’IA générative dans l’éducation. Parmi les intervenants figuraient Stuart Russel, professeur d’informatique, University of California, Berkeley (États-Unis d’Amérique), Yoshua Bengio, professeur au département d’informatique et de recherche opérationnelle de l’Université de Montréal, fondateur et directeur scientifique de Mila, l’Institut québécois d’intelligence artificielle, lauréat du Prix Turing 2018, Yann LeCun, vice-président et scientifique en chef de l’IA chez Meta, et Daniel Andler, mathématicien et philosophe, membre de l’Académie des sciences morales et politiques et professeur émérite, Sorbonne Université France.
Le public a découvert l’IA générative en novembre 2022 à la suite du lancement de ChatGPT, qui est devenue l’application à la croissance la plus rapide de l’histoire. Capable de générer des textes, des images, des vidéos, de la musique et des codes de logiciels, les outils d’IA générative ont des conséquences considérables sur l’éducation et la recherche.
Le secteur de l’éducation reste insuffisamment préparé à l’intégration éthique et pédagogique de ces outils à évolution rapide. Selon une récente enquête mondiale de l’UNESCO, menée auprès de plus de 450 écoles et universités, moins de 10 % d’entre elles disposent de politiques institutionnelles et/ou d’orientations formelles concernant l’utilisation des applications génératives de l’IA, en grande partie en raison de l’absence de réglementations nationales.
Sources :
Le jour où il n’y aura plus d’électricité et donc plus de machines, nous ne saurons plus rien faire, et donc nous disparaitrons!