Regardez le monde
avec les yeux ouverts

Inscrit ou abonné ?
CONNEXION

UP', média libre
grâce à ses lecteurs
Je rejoins

rejoignez gratuitement le cercle des lecteurs de UP’

Ce que la révolution de L'IA nous dit de nous-mêmes

Ce que la révolution de l’IA nous dit de nous-mêmes

Commencez

Depuis l’avènement de ChatGPT le 30 novembre 2022, le grand public a pris conscience de la réalité et de la puissance de l’intelligence artificielle. L’agent conversationnel OpenAI n’a pas révolutionné le développement de l’IA d’un point de vue technologique, mais il a été accueilli avec stupéfaction du fait de la simplicité déroutante de son interface, cristallisant une prise de conscience mondiale. Est-on réellement face à un bouleversement anthropologique ? S’agit-il d’une révolution technologique et industrielle ? Notre rapport à la connaissance va-t-il changer ? Est-ce la fin du travail ? Pour tenter d’y répondre, il a semblé important à l’Institut Messine de prendre du recul et de faire appel à deux personnalités ayant pris le temps de travailler en profondeur sur l’intelligence artificielle : le mathématicien Cédric Villani, et Gaspard Kœnig, essayiste et philosophe. Ce sont ainsi deux esprits, amis par ailleurs, qui ont accepté de se prêter au jeu de cet entretien croisé et qui apportent leur regard. Ils abordent la genèse de l’intelligence artificielle et des Large Language Models, traitent des algorithmes et du nudge, convoquent Rousseau, Socrate ou encore Hayek, passent par la philosophie confucéenne, le jeu de go et la géopolitique ; évoquent l’agriculture, l’éducation ou encore l’urbanisme. En définitive, plutôt que d’essayer de deviner ce que sera le monde de demain, ils nous proposent de nous interroger sur ce que la révolution annoncée de l’intelligence artificielle nous dit de nous-mêmes.

Yahoo! et Google en leur temps ont révolutionné les moteurs de recherche et, ce faisant, la navigation sur le web, par une barre de recherche sobre et accessible à n’importe qui. En permettant à toute personne de venir dialoguer simplement avec son chatbot, OpenAI n’a pas révolutionné le développement de l’intelligence artificielle d’un point de vue technologique mais a permis une prise de conscience mondiale.
Pourtant, l’intelligence artificielle était déjà largement présente dans nos vies, que ce soit via notre application de guidage favorite, le robot conversationnel de notre fournisseur d’accès à internet ou encore les publicités ciblées. Mais, jusqu’à présent, nous étions en contact avec l’intelligence artificielle dans un cadre précis. Avec ChatGPT, le cadre semblait avoir disparu et le champ des possibles s’être ouvert.
La conséquence fut alors celle d’un emballement généralisé. Pas un jour sans qu’un article, une tribune ou une interview ne soit consacré aux conséquences de l’intelligence artificielle sur nos vies et le futur de l’humanité. Certains, optimistes, considèrent les perspectives de l’humanité décuplées et l’immortalité atteignable, d’autres, pessimistes, perçoivent les prémices de l’asservissement de l’Homme par la machine et une technologie mise au service des plus bas instincts.

Est-on réellement face à un bouleversement anthropologique ? S’agit-il d’une révolution technologique et industrielle ? Notre rapport à la connaissance va-t-il changer ? Est-ce la fin du travail ? Le sujet nous plonge dans un abyme de questionnements.
Pour tenter d’y répondre, l’Institut Messine (1) a fait appel à deux personnalités ayant pris le temps de travailler en profondeur sur l’intelligence artificielle. Cédric Villani, mathématicien reconnu (médaille Fields 2010) (2), a entre autres été chargé par le gouvernement français d’une mission sur le sujet en 2017. Le rapport issu de ses travaux, Donner un sens à l’intelligence artificielle (2018), est encore aujourd’hui une référence. Gaspard Kœnig (3), essayiste et philosophe, a, lui, décidé d’y consacrer une enquête menée aux quatre coins du monde, La Fin de l’individu (Voyage d’un philosophe au pays de l’intelligence artificielle), éditions de l’Observatoire (2019).
N’hésitant pas à sortir de leur champ d’expertise initial, tous deux observent et analysent depuis plusieurs années l’évolution du débat sur l’intelligence artificielle.

Qu’est-ce que l’intelligence artificielle ?

Cédric Villani : Bonne question… Voilà presque un demi-siècle que les experts s’accordent sur le fait que l’expression n’est pas vraiment appropriée. Lorsque le gouvernement m’a commandé un rapport sur ce sujet en 2018, j’ai logiquement voulu commencer par définir l’ « intelligence artificielle ». Je me suis rapidement avisé que c’était illusoire. Je vais cependant vous proposer la « définition de travail » subjective suivante : on nomme IA tout programme qui effectue automatiquement une tâche complexe qu’on aurait pu croire réservée à l’humain, ET qui suscite une grande attention du public.
La seconde partie de cette définition est importante à mes yeux car nombre de programmes qui répondent bien à la première partie ont été si largement adoptés que plus personne ne pense à les qualifier d’IA – je pense par exemple à Google Maps et Waze, ou encore à toutes les applications de traduction automatique qu’on trouve sur un simple smartphone. Ou même les moteurs de recherche : après tout, identifier les informations pertinentes dans une bibliothèque gigantesque, jusqu’à l’arrivée des algorithmes comme PageRank, c’était une affaire d’humains… « Intelligence artificielle », en fait, c’est souvent le mot-valise pour décrire la techno bluffante du moment…

Gaspard Kœnig : Aujourd’hui, ce qu’on appelle communément IA, c’est d’abord tout ce qui est lié au « deep learning », c’est-à-dire ces algorithmes qui fonctionnent sans être programmés, en trouvant leur propre logique à travers des corrélations entre données qui échappent à l’esprit humain. Mais attention au piège consistant à penser que l’humain n’y a pas sa part ! Au XVIIIe siècle, une invention spectaculaire avait beaucoup fait parler : le « Turc mécanique », dont j’ai été voir une reproduction dans l’atelier d’un magicien de la banlieue de Los Angeles. Il s’agissait d’un automate
joueur d’échecs, auquel tous les beaux esprits du temps – même Bonaparte – venaient se confronter, et qui gagnait presque toujours. Déjà, on se posait des questions vertigineuses dans des termes très proches de certains débats actuels : si la pensée n’est qu’une mécanique (c’est la grande époque du matérialisme avec La Mettrie), un automate peut-il penser ? Et, si tel est le cas, la conscience serait-elle seulement une composante de cette mécanique ? Et puis… la supercherie a été dévoilée : un grand maître d’échecs rendu invisible par un habile jeu de miroirs était en réalité caché dans la machine, et c’est lui qui manipulait le bras mécanique du « Turc ».
Je trouve cette parabole très éclairante, surtout quand on sait qu’Amazon a baptisé « Amazon Mechanical Turc » la plateforme de micro-tasking permettant d’alimenter les algorithmes en data de qualité ! Je vois dans ce choix comme une confession de ce qu’est la nature profonde de l’IA : la machine semble penser, mais en réalité, comme dans le « Turc mécanique », ce sont bien des milliers d’humains qui ont labellisé (« tagué ») les millions d’images de chats à partir desquelles l’IA va établir des corrélations et « reconnaître » une image de chat. Un enfant de deux ans, lui,
reconnaît un chat sans difficulté après quelques occurrences, sans cette lourde préparation.
Donc, l’ « intelligence » artificielle, ce n’est pas l’imitation de l’intelligence humaine, mais simplement la corrélation très rapide et efficace de ses résultats Contrairement à la machine, l’intelligence humaine est un phénomène biologique ancré dans un corps vivant, une sensibilité un environnement particulier et va bien au-delà d’une simple capacité à séquencer des data (lire Antonio Damasio sur le sujet : Spinoza avait raison)1. Il faut se défier de l’aspect « magique » de l’IA qui, comme le Turc mécanique, est un simulacre, fût-il très spectaculaire !

Cédric Villani : Votre « Turc mécanique » me fait penser à une autre machine farceuse, la « Machine ultime » fignolée par Marvin Minsky et Claude Shannon. Pour rappel, Shannon, mathématicien du MIT et des Bell Labs, est le génial père de la théorie de l’information et un des pères de l’informatique et également de l’IA, et Minsky est aussi connu comme pionnier de l’IA. Cette machine ultime, qui fascina l’écrivain Arthur C. Clarke, c’est une boite munie d’un interrupteur qui a pour seule capacité, quand on la met sur « on », de libérer une petite « main » qui la remet en position « off » avant de rentrer dans son logement. Cela donne à penser sur la réelle utilité d’un certain nombre de nos technologies… D’ailleurs, à la même époque, le sociologue Jacques Ellul publiait le premier opus de sa célèbre analyse critique de la technique2. Mais revenons au Turc mécanique. Il est effectivement incontestable qu’une large part de l’IA est de l’intelligence humaine « déguisée » en technologie, ou exploitée par la technologie. Par exemple, dans les diagnostics automatiques en imagerie médicale, ils sont très performants, en fait, ils font mieux que les meilleurs experts humains, que ce soit pour l’identification des fractures ou des cancers. Mais, au préalable, il y a eu un très fastidieux travail d’annotation d’images effectué par des spécialistes. Pour les « grands modèles de langage » comme ChatGPT, cette opération a d’ailleurs été faite, au moins au départ, avec un
travail colossal d’innombrables petites mains œuvrant dans des pays pauvres, payés 2 $ de l’heure… Mais il y a là, justement, une différence majeure avec votre Turc mécanique : tandis que lui avait besoin d’UN travailleur super-qualifié, le fameux Grand maître d’échecs dissimulé, l’IA, elle, utilise symétriquement des norias de travailleurs peu qualifiés. Sa particularité est même de produire quelque chose de très subtil à partir de contributions banales.

Pourquoi ne pas profiter d’une lecture illimitée de UP’ ? Abonnez-vous à partir de 1.90 € par semaine.

Dans l’exemple des diagnostics médicaux, c’est un peu différent, mais il y a quelque chose de qualitativement similaire : à partir d’une myriade d’humains compétents, on produit un algorithme encore plus compétent. Dans ces applications on retrouve le pouvoir du nombre – que j’ai moi-même expérimenté comme député : dans un débat parlementaire réussi, la combinaison de contributions moyennes peut donner
un résultat très puissant… On est dans une version sophistiquée du fameux phénomène de « sagesse des foules » et c’est assez fascinant.

Revenons à la question de l’apprentissage, qu’évoquait Gaspard Kœnig au début de notre échange. Elle est au cœur du processus de l’IA qui « apprend » de l’homme selon un processus qu’on ne comprend pas toujours bien mais qui donne des résultats apparaissant comme miraculeux…

Cédric Villani : Je nuancerais la proposition de Gaspard : je ne réduirais pas l’IA au deep learning, à l’apprentissage profond, même si c’en est aujourd’hui la composante la plus visible et la plus importante. C’est d’ailleurs une dispute récurrente entre les deux principaux réseaux européens de recherche en IA : le réseau ELLIS se concentre sur l’apprentissage profond, alors que le réseau CLAIRE prône une approche bien plus diversifiée. Mais il est vrai que la clé de l’intelligence artificielle moderne est cette capacité du logiciel à « apprendre » au point de manifester des capacités dépassant celles du programmeur lui-même. Il existe trois grandes familles d’apprentissage des algorithmes qui correspondent, au fond, aux trois
grandes familles d’apprentissage des humains. La plus classique, appelons la magistrale ou universitaire, est celle de la transmission du maître à l’élève, l’un donnant à l’autre les règles de la tâche et les moyens de raisonner par causalité, conditions, conséquences : on transmet à la machine un savoir d’expert, et c’est bien pour cela que l’on appelait cette première étape de l’IA les « systèmes experts ». Deuxième mode d’apprentissage : l’enseignement par l’exemple, où l’élève reproduit le geste ou la pratique du maître – c’est ainsi que les enfants apprennent à parler et, par simple mimétisme, à conjuguer un verbe ou à accorder un adjectif sans même savoir ce qu’est un verbe ou un adjectif. Aujourd’hui, la plus grande
partie de l’IA est de cette nature : les exemples ont remplacé les règles.

Le troisième mode d’apprentissage, dit par « renforcement », est celui de l’exploration calculatrice, à l’instar d’un humain travaillant seul, en chambre (et non aux côtés d’un maître) à son propre perfectionnement, avec soi-même comme seul juge – par exemple, un joueur d’échecs qui veut progresser jouera des parties complexes contre lui-même, ou encore un romancier qui, se corrigera et reprendra son texte autant qu’il le veut, améliorant peu à peu son style et son sens de la narration. C’est cette méthode d’auto-entraînement qui a permis le succès d’Alphago, la fameuse IA de jeu de go, qui, contre tous les pronostics et grâce à son énorme puissance de calcul, a battu le légendaire joueur Lee Sedol, dénichant au passage des coups que
personne n’avait jamais prédits ou expérimentés.

Comme l’apprentissage des humains, l’IA utilise en réalité ces trois méthodes dans des proportions variables. Pour autant – et c’est là que le terme « intelligence artificielle » est problématique –, les intelligences humaine et artificielle ne sont pas du tout comparables : derrière l’intelligence artificielle, il n’y a pas d’être sensible, il y a seulement une formule mathématique, avec les bons coefficients optimisés pour produire, à partir de la montagne de données, la fonction la plus appropriée. On trouve d’ailleurs l’idée de la non-réductibilité de l’intelligence au pur rationnel chez Spinoza,
et même auparavant chez Pascal, ce mathématicien… Le cœur, complément indispensable de la raison, c’est un peu le combat de Pascal contre Descartes !

Gaspard Kœnig : Oui, déjà Aristote partageait l’âme entre la partie rationnelle, la partie sensible et la partie instinctive. Et, même s’il les hiérarchise, il n’y a pas chez lui d’exclusion de l’une par l’autre, la partie intellective de l’âme se nourrissant même de la partie sensible. L’erreur de Descartes et de Leibniz, qui fut d’ailleurs un grand précurseur de l’informatique, est précisément d’avoir conçu des mondes complètement intellectualisés. Pour Leibniz, le monde est un simple assemblage de data dans lequel on peut créer des paradigmes à l’infini, exactement comme sur un jeu d’échecs ou de go. Ces philosophies de l’esprit ont en fait oublié la différence entre la représentation du monde sous forme de data ou de règles mathématiques, et … le monde lui-même. Un algorithme ne produit qu’une vision du monde à travers des data que nous choisissons, une manière de représenter le monde parmi beaucoup d’autres qui ne reflète que partiellement sa réalité sensible.
Bergson montre, lui, que les mécanismes d’intelligence sont excellents pour prévoir, mais pas pour comprendre – par exemple comprendre la durée. Tout récemment, le mathématicien et épistémologue Giuseppe Longo a très bien expliqué dans son
Cauchemar de Prométhée3 comment certains phénomènes intégrés dans la singularité du vivant sont irréductibles à la règle logique. Ce n’est d’ailleurs pas un hasard si les prophètes de malheur de l’IA qui annoncent que la machine va prendre le pouvoir, comme Nick Bostrom, viennent souvent du monde de la physique ou même de l’astrophysique : ils sont totalement coupés de la pensée du vivant…

Cédric Villani : Une pensée pour Descartes : dans son célèbre Discours de la méthode4, il expose une stratégie d’analyse rigoureuse des problèmes, encore pertinente aujourd’hui… puis il l’applique à la discipline qui le fascinait entre toutes, la médecine, et se plante complètement dans sa théorie du fonctionnement du cœur. Son échec démontrait sans le vouloir combien il est difficile d’aborder par la seule logique externe des phénomènes complexes et intégrés comme le vivant…
Mais, justement, ces phénomènes biologiques ou médicaux, où beaucoup de savoir est empirique, où la combinatoire des mécanismes est écrasante, si difficiles à appréhender par la logique sont ceux qui se prêteront le mieux à l’analyse statistique de l’apprentissage profond. C’est là que l’IA apporte aujourd’hui le plus de progrès : beaucoup plus en médecine qu’en mathématique, par exemple. Précisément parce que cette IA ne cherche pas à établir ou découvrir les grands principes : en chimie, elle propose des molécules potentiellement intéressantes, en médecine, comme je l’ai dit, elle permet d’établir des diagnostics complexes. En fait, il faut bien comprendre que, même si ses fondamentaux sont logiques et algorithmiques, la démarche de l’IA n’est pas scientifique au sens de l’observation d’effets dont on rechercherait les causes par le raisonnement. Fondamentalement, elle prédit sans
comprendre.
Cela peut sembler frustrant, mais c’est très efficace dans les domaines profondément multifactoriels où l’on peine justement à trouver des concepts unificateurs, les mécanismes biologiques, mais aussi la caractérisation d’écosystèmes, la synthèse de parfums ou de saveurs, etc. Et le diagnostic médical, j’y reviens encore, car c’est sans doute le domaine où les applications de l’IA sont les plus clairement utiles et spectaculaires.

Gaspard Kœnig : Certes ! Mais, de nouveau, n’oublions pas que cette victoire de l’approche par corrélation empirique qui est celle de l’IA repose, d’une part, sur des images identifiées et labellisées par des humains et, d’autre part, sur un algorithme conçu par des humains à partir de diagnostics préalablement établis par des humains ! Il est vrai qu’il n’y a pas de règle, de loi à proprement parler dans l’algorithme, mais le choix des data dont il a été nourri et de la signification qu’on leur a attribuée sont le fruit de raisonnements de causalité humains ; ils sont le résultat d’une représentation du monde adaptée à un certain objectif – par exemple, identifier une tumeur ! Il n’y a donc pas de « miracle » autonome de l’IA, pas de « supériorité » mais seulement une performance opérationnelle due à la puissance de calcul.

Cédric Villani : C’est certain, d’ailleurs la machine n’a aucune idée de ce qu’est un malade, ni une tumeur, elle ne pourrait donc évidemment rien faire d’ « intelligent » sans l’intelligence humaine qui l’a précédemment « nourrie » …

À vous entendre, on peut se demander si l’IA est bien « de la science » …

Gaspard Kœnig : Il existe en tout cas, en particulier dans la Silicon Valley, une sorte d’ivresse un peu effrayante de cette démarche purement empirique de l’IA : certains vont jusqu’à imaginer que les mathématiques elles-mêmes n’auront bientôt plus besoin de spéculation théorique ou d’équations, les corrélations remplaçant les lois et les règles : on compilera les données dans une machine et on aura « les résultats »
sans qu’il soit besoin de raisonner pour les obtenir… La science est censée nous donner la compréhension des phénomènes ; l’IA fait exactement l’inverse.

Cédric Villani : Il n’y a pas plus anti-scientifique que cette démarche ! Rappelons-nous ce que disait le grand mathématicien Henri Poincaré : « Le savant doit ordonner. On fait de la science avec des faits comme une maison avec des pierres. Mais un amas de faits n’est pas plus une science qu’un amas de pierres n’est une maison ». Oui, le savant doit ordonner ! De ce point de vue, l’IA peut être regardée comme un retour en arrière : au lieu de partir des principes – la maison doit avoir un premier étage, un deuxième étage, des fenêtres, etc. –, on regarde l’amas de pierres comme une maison, et donc l’amas de faits comme une science. Cela n’est imaginable que parce que nous disposons d’une incroyable accumulation de données, fruit de ce
que des milliards d’humains ont produit depuis la nuit des temps, et particulièrement depuis l’apparition de la Toile, et c’est cela qui sert d’infrastructure à la « maison » … Mais ces données sont souvent trop nombreuses, inutiles, redondantes, ou incompréhensibles, d’où certaines grosses déceptions dans le passé – je pense ici à cette fameuse médecine prédictive attendue depuis le séquençage du génome, et qui reste balbutiante. Pour bien des pathologies, c’est le tableau clinique établi par les médecins qui demeure le plus prédictif, et même si les données biologiques
permettent d’affiner le tableau clinique, cela donne à penser !

Pour lutter contre la désinformation et privilégier les analyses qui décryptent l’actualité, rejoignez le cercle des lecteurs abonnés de UP’

Gaspard Kœnig : C’est là une question fondamentale que traite bien Giuseppe Longo : en génétique et en biologie moléculaire, on a eu trop tendance à penser que le « code » a, comme en informatique, une validité intrinsèque, indépendamment de son support, ce qui est faux : dès qu’on entre dans le vivant, le support change le code. La vision mécaniste, cartésienne, est ainsi mise en échec parce qu’elle n’intègre pas la singularité du support. On revient à Descartes et à ses limites pointées par Pascal, que résume parfaitement le titre du fameux ouvrage de Jean-François Revel, Descartes inutile et incertain5… La vie, heureusement, n’est pas qu’une mécanique !

ChatGPT a fait entrer l’IA dans tous les foyers. La plupart des utilisateurs lui font une grande confiance, mais, à vous entendre, peut-être est-elle indue…

Gaspard Kœnig : En effet, la question se pose. Le problème de l’IA en général, et de ChatGPT en particulier, c’est qu’elle ne permet pas de tenir le raisonnement hypothético-déductif traditionnel, source de la véritable connaissance. Chat GPT donne un résultat souvent impressionnant, mais, procédant par simple corrélations et juxtapositions de mots dépendant de millions d’occurrences indiscriminées, il ignore structurellement ses sources qui sont quasi infinies et enfouies dans la « black box » du deep learning, ce qui interdit la réfutation et la contradiction. Or cette capacité de réfutation est au cœur du mécanisme classique de constitution de la connaissance où une assertion est dite valide seulement tant que le contraire
n’a pas été démontré (la « réfutabilité » de Karl Popper). Faute de pouvoir réfuter, on ne peut donc ni invalider, ni valider ce que produit l’IA… C’est extrêmement dommageable au savoir commun, à notre humanité partagée. Alors qu’il était presque centenaire, Henry Kissinger a justement pointé, dans un article coécrit avec Eric Schmidt (ancien dirigeant de Google)6, la faiblesse-clé de l’IA : fondamentalement, elle produit des « ambiguïtés cumulatives » ne permettant pas de distinguer le vrai du faux.

Ce n’est jamais complètement inexact, mais ce n’est pas exact… Même Wikipédia, avec tous ses défauts, fournit un résultat plus fiable dans la mesure où il est bâti sur une exigence presque maniaque de la citation des sources ainsi que sur des forums de discussion où les contributeurs doivent prouver leurs assertions et réfuter celles des autres. Wikipédia produit à ce titre du savoir, pas ChatGPT !

Cédric Villani : Je suis moi-même un grand fan de Wikipédia, l’une des rares applications fidèles à l’esprit de ses créateurs du web, elle rend les services qu’on en attendait, elle reste « non-profit » … et elle dure. Je comprends que Gaspard soit troublé par la question des sources, qui est bien plus importante en sciences humaines que dans mon domaine, celui des sciences exactes, où la qualité de la démonstration, son caractère probant, se passe de sources dès lors que le matériel préexistant dont on se sert est généralement admis de tous. Ce qu’il faut bien comprendre en effet, c’est que ChatGPT ne dit ni le vrai, ni le faux, mais le plausible.

Ce qui est troublant est que cela ne l’empêche pas d’être impressionnant…

Cédric Villani : En fait, ChatGPT est un peu la version ultime de cette « pensée » que produisent beaucoup d’humains : impressionnant si l’on n’est pas expert, mais pas très intéressant quand on connaît le sujet, et peu étayé …

Gaspard Kœnig : C’est ce qui fait que je n’utilise pas ChatGPT quand je travaille à un article ou sur livre : je serais obligé de tout vérifier, ce qui prend beaucoup plus de temps que d’aller soi-même chercher l’information pertinente dans sa bibliothèque ou sur un moteur de recherche. Cette absence intrinsèque de fiabilité de l’IA générative la condamne pour tout usage autre qu’artistique ou créatif.
Une anecdote : en préparant l’écriture de mon prochain essai, Agrophilosophie, j’ai cherché à savoir si certains philosophes avaient travaillé sur la question du compost. Ni mes encyclopédies, ni mes amis profs, ni Google ne pouvaient me venir en aide. Je me tourne vers ChatGPT qui, – miracle ! – me propose une citation de Rousseau extraite du Livre IV de l’ « Émile » : « Je montrerai à Émile comment, avec le temps, des soins judicieux et l’art de retourner sans cesse la terre, nous pouvons la rendre si bonne, qu’il la croirait faite exprès pour la culture. » Feuilles mortes, fumier de cheval, urine mêlée à la chaux et au sable, toutes ces matières allaient « s’unir, se mêler, se changer, fermenter, pour devenir enfin une excellente terre végétale ». Je me réjouis de cette trouvaille mais reprends tout de même tout le Livre IV pour en avoir le cœur net et… je ne trouve rien. ChatGPT avait été victime d’une de ses célèbres « hallucinations ». Vérification faite, le mot compost n’était pas utilisé dans son sens moderne au XVIIIe siècle, ce qui fait que son utilisation par Rousseau était techniquement impossible. Je l’ai fait observer sur un ton contrarié dans le prompt suivant et ChatGPT m’a répondu « Oui pardon », non parce qu’il comprenait ou qu’il avait vérifié (puisqu’il n’en est pas capable), mais parce que la réponse la plus « plausible » à mon expression de déception était « Oui pardon » – de même qu’il était « plausible » que Rousseau ait parlé de compost… La propagation de cette fausse citation par ChatGPT au fil des requêtes futures était presque certaine si, comme la plupart des étudiants, je m’étais contenté de cette réponse et avais utilisé dans mon livre cette fausse citation qui se serait ainsi encore plus « ancrée » dans le corpus utilisé par
l’IA. En termes de mélange du vrai et du faux, de capacité de destruction du savoir authentique, c’est vertigineux ! On assiste à l’explosion de la dernière forme d’objectivité partagée avec, en prime, ce que je n’hésite pas à qualifier de fraude puisqu’on nous présente comme du savoir, et de manière assertive, ce qui en est l’exact contraire.

Cédric Villani : Là encore, je souscris, mais n’oublions pas que l’usage de citations bidonnées et leur propagation incontrôlée n’ont pas attendu ChatGPT ! La moitié des citations qu’on attribue à Einstein ou à Churchill sont fausses, ce qui est d’ailleurs souvent désolant tant on les trouvait profondes ou spirituelles… Pour autant, avec l’IA on assiste à la concentration du pouvoir de dire le vrai, ou plutôt ici le pseudo- « vrai », en une seule source, ce qui accroît effectivement la probabilité de cette propagation.
Je vais formuler une autre critique de ces algorithmes générateurs de langage : bâtis pour dire le plausible, ils ne peuvent, par construction, dire le tranchant, l’original. Dans le monde des humains, ce ne sont pas les encyclopédistes que nous admirons le plus, mais d’habitude les originaux, les tranchants, les non-conventionnels, qui prennent un point de vue personnel et minoritaire. Récemment, je lisais un ouvrage fascinant de Jacques Ellul – sociologue, philosophe, théologien, je le citais déjà tout à l’heure – La Parole humiliée 7, un texte brillant dans lequel il contraste la parole et l’image, la parole qui libère et l’image qui asservit, la parole qui donne à penser et l’image qui s’impose avec son caractère d’évidence, la parole qui enrichit et l’image qui agit, la parole marque d’individualité et l’image qui alimente les stéréotypes. Ellul lui-même ne comprenait rien à l’IA, mais son analyse est extrêmement pertinente en matière d’IA, et il aurait peut-être considéré ChatGPT, asservissant la parole à la multitude, comme le sacrilège ultime !

Venons-en à la question plus technique de ce qu’il y a « sous le capot » de l’IA… ChatGPT et les autres intelligences artificielles génératives qui ont fait une irruption soudaine et spectaculaire il y a un peu plus d’un an constituent-elles une révolution scientifique ?

Cédric Villani : Pas du tout, justement ! L’IA générative repose fondamentalement sur des « réseaux de neurones » et sur des « transformeurs ». Prenons-les par ordre d’apparition…
Les réseaux de neurones sont des fonctions au sens mathématique du terme (à une entrée, correspond une sortie) qu’on combine en couches successives pour obtenir des fonctions très complexes comportant des milliers de coefficients réajustés en permanence. Enfin, quand je dis des milliers… ChatGPT-4 annonce 100 000 milliards de paramètres ! En tout cas, le principe du réseau de neurone est bien d’associer une sortie à une entrée, une réponse à une question. Cela peut, par exemple, donner la fonction : « voici une tumeur, est-elle cancéreuse ? », la réponse étant « oui », « non », ou « oui, avec telle probabilité ». Or, voilà dix ans que Yann Le Cun et d’autres ont brillamment remis en selle les réseaux de neurones, technique longtemps abandonnée, pour produire statistiquement des textes à partir de la simple recherche du mot suivant le plus probable afin de constituer une phrase, puis une autre. Leur usage n’est donc pas neuf… Cette capacité a ensuite été considérablement améliorée par l’apparition des
« transformeurs » qui permettent d’élargir la recherche de pertinence probable au-delà du seul mot précédent, de regarder dans tout le texte, d’y chercher des correspondances, des récurrences, des indications de structure ou encore des effets rhétoriques. Très intéressant, bien sûr, mais voilà cinq ans que les ingénieurs de Google ont publié le principe des transformeurs. Là-encore, rien de neuf sur les grands principes lorsqu’apparaît ChatGPT.
Donc, scientifiquement, tout cela n’est pas une révolution, c’est une évolution naturelle sur la base de briques préexistantes. Mais on ne s’attendait pas si vite à une telle performance !
À l’été 2022 encore, au festival de Fleurance, un célèbre directeur de recherche INRIA me montrait comment piéger, de façon d’ailleurs très comique, les meilleurs agents conversationnels. Or, trois mois plus tard, ChatGPT déjouait tous ces pièges. C’était parfaitement imprévisible et cela a pris tout le monde de court. En réalité, pour la communauté scientifique, c’est surtout le fait que l’expérimentation précède la théorie qui a constitué un choc.

En sciences, souvent, les expériences viennent après la théorie – ce fut par exemple le cas des ondes radio. En IA, c’est l’inverse : les théoriciens « courent » après les expérimentateurs. Il faudra peut-être des décennies pour que l’algorithmique puisse expliquer l’efficacité de ces IA génératives. Et c’est là une blessure narcissique pour les théoriciens, au point que certains de mes collègues mathématiciens continuent de penser que l’IA n’est « pas de la science » … Il serait naïf de penser que l’IA est une exception dans le champ des techniques – souvent la mise en œuvre précède la théorie – mais dans le champ de l’informatique, c’est un vrai renversement. Ce qui est vrai, c’est que, si l’IA a un impact exploratoire majeur en sciences physiques,
elle n’a en revanche toujours pas créé la moindre théorie novatrice. L’IA concevant la relativité générale, ce n’est pas demain la veille !

À défaut d’une révolution scientifique, peut-on malgré tout parler d’une révolution « pratique » ?

Gaspard Kœnig : Il n’y a peut-être pas de révolution scientifique, je m’en remets à Cédric pour juger de ce point (d’ailleurs corroboré par d’éminents experts comme Yann Le Cun) … En revanche, je crains une transformation des usages lourde de conséquences cognitives. On me dira que poser une question à la machine sur un sujet banal dont on aurait pu trouver soi-même la réponse est sans grande conséquence. Je répondrai d’abord, avec Tocqueville, que c’est dans les petites choses qu’il est le plus dangereux d’asservir les hommes. Ensuite et surtout, le recours à l’intelligence artificielle générative constitue à mes yeux une délégation supplémentaire de notre faculté de juger à la machine, et pas n’importe laquelle : nous lui avons déjà confié, entre autres, nos choix de parcours avec Google Maps, nos choix d’amour avec Tinder, voici que nous ne lui déléguons rien moins que notre faculté à raisonner ! Cela posera rapidement un vrai problème cognitif, avec le risque d’atrophie des zones de notre cerveau dédiées à la prise de décision (ce qui a été scientifiquement observé sur les chauffeurs VTC qui suivent toute la journée les indications de leur application de navigation).
La capacité à prendre fréquemment de petites décisions, même triviales, nourrit en effet notre aptitude intellectuelle à traiter des enjeux plus importants. C’est pourquoi, même dans l’hypothèse où les machines fourniraient toujours les réponses correctes, le simple fait de dépendre d’elles est à mes yeux problématique. L’individu est toujours plus indépendant, mais toujours moins autonome. La tentation qu’ont eue les Italiens d’interdire ChatGPT me paraît à cet égard moins ridicule qu’on a pu le dire.

Cédric Villani : Cette question de l’ « entraînement à décider » est, de fait, essentielle. Al Gore, parlant de son expérience à la Maison-Blanche aux côtés de Bill Clinton, évoquait lui-même un « muscle de la décision » qui devait fonctionner tous les jours pour demeurer efficace. Il y a donc bien là un enjeu, mais, au risque de vous surprendre, ma position est ici… plus libérale que celle de Gaspard : je suis contre l’interdiction, qui serait une réponse trop forte. Tout est question de dosage, et de mode d’utilisation. En face des menaces que nous venons d’évoquer, il faut mettre
les potentialités que recèle l’IA, par exemple en termes d’éducation. J’ai vu passer un exemple récemment, un enseignant distribuant à ses élèves des cartes postales et leur demandant d’imaginer le prompt qui va permettre à l’IA de les recréer. Cela permet de travailler le vocabulaire et les capacités de description de l’élève en faisant « comprendre » à la machine ce qu’elle doit reproduire. C’est un outil supplémentaire pour les enseignants.

Gaspard Kœnig : Je ne suis pas très à l’aise avec cet exercice qui illustre l’adaptation contrainte de l’homme à la machine. Dans votre exemple, l’élève qui, à partir de la carte postale, choisira un langage plus poétique, ou une métaphore, en tout cas une construction culturelle plus ambitieuse et à mon avis plus « vraie », risque tout simplement d’échouer… Cela me rappelle les interactions qu’on a sur certains sites web avec les robots conversationnels, ces « chatbots » fatalement idiots qui ne fonctionnent que si on simplifie les demandes à l’extrême. L’exercice de la « carte
postale » que vous décrivez correspond au même nivellement par le bas : avec l’IA il va nous falloir être de plus en plus simples et réducteurs dans nos expressions pour que nos requêtes puissent être entendues, comprises et traitées par la machine. Et cela me navre.

Cédric Villani : Il est bon que vous exposiez cette vision dystopique dans toute sa froideur crue… Je n’y souscris pas pour ma part. Certes on sent bien avec l’IA le risque de nivellement et de paresse intellectuelle généralisée, mais on peut aussi y entrevoir des facultés très accrues pour chacun d’entre nous. Je sais que mes conférences publiques sont très enrichies par la possibilité d’interroger la Toile à coups de requêtes… cela me donne beaucoup de matériaux auxquels je n’aurais pas pensé, et que je peux travailler à ordonner selon mon angle. Je ne conteste pas cependant le risque qui s’y attache en termes d’érosion des compétences. Comment maintenir un équilibre entre l’efficacité apportée par l’IA et la préservation de nos facultés intrinsèques ? C’est un débat qui reste ouvert et qui touche j’en conviens, à l’essence même de notre autonomie intellectuelle. Mais il ne serait pas raisonnable d’en conclure que nous devons écarter l’IA de nos vies ! À titre d’exemple, dans le domaine de la programmation, ChatGPT est extrêmement efficace et permet d’augmenter la vitesse de création de programmes d’un facteur trois ou quatre, ce qui est gigantesque.

L’ambivalence est bien là : d’un côté une perte de compétence technique des programmeurs, certainement inévitable, mais, au final, une production facilitée, accélérée et plus sûre. Au passage, et puisque l’on reproche souvent (à juste titre en général !) à la technologie d’être facteur d’inégalités, on constate ici que, au contraire, l’IA va permettre à des programmeurs d’un niveau moyen d’être beaucoup plus productifs, ou pour employer un terme à la mode, plus « compétitifs ». C’est un point positif. Certes, il peut y avoir des erreurs et des bugs dans les productions de l’IA… mais l’humain lui aussi commet des erreurs et les programmes qu’il écrit comportent des bugs à foison. Il serait donc absurde qu’un programmeur
se prive d’un tel outil, même s’il sait qu’il va lui-même à terme perdre des compétences et voir s’émousser ses réflexes. Je crois qu’une partie de la réponse se trouve dans une sorte d’ « hygiène » que chacun d’entre nous doit rechercher par soi-même et mettre en œuvre pour conserver et cultiver ses capacités propres.
Pour ma part, j’ai commencé il y a quelques années à apprendre des poèmes par cœur. J’en retire une gymnastique de l’esprit, une bien meilleure appréciation de belles subtilités de notre langue, et aussi une fenêtre bienvenue sur d’autres univers que celui où je suis actif tous les jours. Mais il y a mille manières de s’ « entretenir » intellectuellement !

Gaspard Kœnig : C’est une très belle idée… Une « gymnastique de l’esprit » me semble effectivement nécessaire pour que nos compétences premières ne soient jamais oubliées. Laisser disparaître des capacités constitutives de notre autonomie de base
comme se repérer dans l’espace ou effectuer un raisonnement, c’est se placer dans une situation d’hétéronomie très forte, et donc en risque. Qu’est-ce qu’une liberté assujettie à des systèmes complexes ? On utilisera d’autant mieux la technologie qu’on saura s’en passer. Dans son Phèdre, Platon met en scène un dialogue où Socrate explique que l’écriture est une régression par rapport au dialogue, selon lui la forme philosophique la plus pure parce qu’elle permet le débat alors que l’on ne peut pas répondre à un texte, qui est une simple vérité froide incapable d’évoluer et de s’ajuster à son lecteur. Avec le recul, cela peut faire sourire : un monde sans écriture ne fait pas rêver ! Mais le fait que nous ayons cette conversation aujourd’hui
vous et moi, et qu’il ne s’agisse pas d’un échange de mails par exemple, montre bien que le passage à l’écriture n’a pas rendu le dialogue obsolète ! Si l’on revient, précisément, au sujet de notre entretien, je pense que, plus on aura d’IA, plus il faudra faire en sorte de renforcer les compétences premières, qu’il s’agisse de cuisiner ou de couper du bois !

D’ailleurs, beaucoup de nos contemporains le ressentent, comme en témoigne l’engouement suscité, même parmi les jeunes gens très bien formés, par une reconversion dans la menuiserie, l’ébénisterie ou en boulangerie. J’organise moi-même en Normandie des ateliers « mano-philo » où je propose d’allier la réflexion sur les textes philosophiques avec des cours de bourrellerie ou de menuiserie…

N’est-ce pas là un effet de mode ?

Gaspard Kœnig : Je pressens au contraire une sorte de « retour à la réalité » assez généralisé, ne serait-ce qu’en raison de la crise climatique et de la raréfaction des ressources. Dans vingt ans, les défis majeurs de l’humanité seront de trouver de l’eau potable et de cultiver des terres non polluées et encore fertiles. Nous serons donc forcés par la nécessité à réapprendre des compétences essentielles que nous avons oubliées. Nous pensions pouvoir nous affranchir de notre condition biologique et de notre environnement grâce à l’abondance illimitée des ressources énergétiques. Cette illusion est en train de se dissiper très rapidement.

Cédric Villani : Je suis tout à fait d’accord avec Gaspard. C’est bien pourquoi ChatGPT et les IA génératives ne me semblent pas un péril imminent pour la civilisation, du moins, pas du tout à une échelle comparable à celle de l’épuisement des ressources, de la perte de la biodiversité, du changement climatique, des catastrophes naturelles, des défis environnementaux en général et de la montée des populismes, des guerres, qui sont déjà en hausse et qui fatalement seront encore plus nombreuses, hélas, du fait de tous ces facteurs.

Mais revenons aux conséquences de la généralisation de l’IA sur la formation des esprits, à laquelle vous êtes tous deux attachés. Entre l’incapacité à se concentrer des jeunes gens, la difficulté qu’ont les maîtres pour juger d’un travail qui a pu être produit par l’IA et non par l’élève, le risque de disparition du livre avec ses références comme source du savoir et même, si l’on va jusqu’au bout de ce que vous avez l’un et l’autre évoqué dans cet entretien, celui de l’effacement du raisonnement hypothético-déductif, peut-on vraiment dire que l’IA est un péril du second ordre pour la civilisation ?

Cédric Villani : Sérions les problèmes. S’agissant de cette « aliénation digitale » que nous connaissons tous, les smartphones, les réseaux sociaux et les jeux vidéos ont déjà hélas bien plus sûrement érodé la capacité d’attention et de concentration des jeunes gens que ChatGPT ne le fera jamais !

Gaspard Kœnig : C’est juste, ce problème n’est pas nouveau, même si l’intelligence artificielle vient encore l’aggraver. Mais il est très préoccupant. J’ai rencontré aux États-Unis des neuroscientifiques travaillant pour de grandes plateformes qui ont parfaitement identifié le fonctionnement du cerveau humain et savent comment activer nos mécanismes de récompense avec des incitations subtiles. Cela provoque une addiction très difficilement résistible. C’est d’ailleurs après mes échanges avec tous ces chercheurs (à commencer par Jaron Lanier, une des voix les plus
remarquables de la Silicon Valley) que j’ai décidé de quitter Twitter : je me sentais enfermé dans ma bulle cognitive et humilié par mon absence de liberté intellectuelle sur ce réseau. Je me suis vu comme un hamster dans sa roue, exploité par des entreprises qui tirent profit de ma naïveté pour récolter des data…
Que ces entreprises, justement, tirent tout le parti possible de leur connaissance du cerveau humain, c’est après tout compréhensible. Ce qui me trouble le plus, c’est que se développe en parallèle aux États-Unis une croyance selon laquelle le libre arbitre, pourtant un pilier des sociétés libérales, serait une notion désuète, presque théologique, à laquelle il faudrait renoncer. Les avancées en neurosciences, en psychologie expérimentale (Daniel Kahneman) et en économie comportementale (Richard Thaler), notamment autour du concept de nudge8, sont souvent interprétées comme la preuve que le concept de « free will », ou libre arbitre, est obsolète. Beaucoup pensent plus utile d’orienter les gens vers ce qu’ils pensent être dans leur intérêt avec de bons « coups de pouce » que de les laisser décider par eux-mêmes. Pour moi, c’est une erreur métaphysique profonde.

Cédric Villani : Tout à fait d’accord ! Nous ne pouvons pas ne pas reconnaître que notre nature est manipulable, pour autant, et je dirais même a fortiori, il est essentiel de valoriser le libre arbitre. Son exercice est d’autant plus précieux et admirable que l’environnement, en particulier technologique, le rend plus difficile. Je recommande à cet égard la lecture d’Olivier Sibony, pour citer un expert français en matière de biais cognitifs et de nudge, dans la lignée des Dan Kahneman, Amos Tversky ou Cass Sunstein.

Cette évolution vous inquiète-t-elle sur le plan politique ? Diriez-vous qu’elle menace la démocratie ?

Gaspard Kœnig : La véritable question n’est effectivement pas tant celle de la nature de la civilisation à venir que celle de ceux qui la domineront. Le risque est que s’installe un fossé cognitif immense entre, d’une part, les élites éduquées, qui sont aujourd’hui relativement informées de ces enjeux, et, d’autre part, le reste de la population, plus vulnérable à la manipulation, moins consciente de ce qu’il y a à perdre à s’en remettre sans cesse à la machine. Les consommateurs inondés de contenu superficiel sur TikTok sont comme des individus nourris exclusivement de fast-food : facilement contrôlables et manipulables. Ce n’est pas tant la civilisation en elle-même qui est menacée, mais le tissu social et démocratique.
S’agissant de la formation des jeunes esprits, il est frappant que les mêmes experts qui louent la technologie comme salvatrice soient souvent les plus intransigeants quant à l’utilisation des écrans par leurs enfants – l’exemple de Steve Jobs, qui refusait les iPads chez lui, est bien connu… J’ai moi-même proposé l’interdiction des réseaux sociaux pour les moins de 16 ans : il est de la responsabilité des pouvoirs publics de favoriser un développement cognitif sain pour les jeunes générations.
De même qu’il me semble essentiel de ne pas traiter les adultes comme des enfants – c’est tout mon combat de libéral contestant les incessantes incursions de l’État dans nos choix privés… –, de même, on ne saurait imposer aux enfants des responsabilités d’adultes. Cette tension entre discipline et liberté est d’ailleurs au cœur des débats sur l’éducation et se retrouve bien dans les écrits d’un libéral comme John Locke (ou, plus proche de nous, E.D. Hirsch). L’invasion de nos vies par le numérique, et maintenant par l’IA, nous oblige à revisiter cette question.

Cédric Villani : Le scénario d’un divorce entre élite et reste de la population en raison de l’adoption des technologies, mais aussi de la capacité à les maîtriser viendrait s’ajouter à la longue liste des technologies qui, historiquement, ont exacerbé les inégalités et renforcé la domination d’une classe sur une autre. Dans certaines familles, le débat porte sur l’âge approprié pour le premier smartphone. Sur ce point, et contrairement à un techno-enthousiaste comme le regretté Michel Serres, je me rangerai à une position conservatrice : pour le premier smartphone, plus c’est tard et mieux c’est. Il est crucial, avec l’irruption de l’IA pour tous, de maintenir un équilibre entre l’accès aux technologies et le développement de la capacité critique et de raisonnement des jeunes.
Mais la question politique est aussi… géopolitique ! Les outils d’intelligence artificielle ne sont pas plus politiquement neutres que les réseaux sociaux, comme le montrent les différentes manières dont les IA traitent des informations sensibles, ou peuvent influencer la perception des événements internationaux. La même question posée à Mistral AI ou à Google Gemini peut donner des résultats extrêmement différents.

Quelle est justement, selon vous, la dimension géopolitique de l’intelligence artificielle à ce stade de son développement, notamment en ce qui concerne l’innovation où Chine et États-Unis semblent avoir une longueur d’avance ?

Cédric Villani : Il est tout d’abord essentiel de reconnaître que la recherche en intelligence artificielle transcende les frontières nationales. Bien que beaucoup de chercheurs opèrent sous pavillon américain, la majorité ne sont pas des Américains. Prenons l’exemple de ces grandes figures que sont Yann Le Cun (français) Yoshua Bengio (franco-québécois) et Geoffrey Hinton (canadien), ou encore Kai-Fu Lee (chinois), ou Demis Hassabis (britannique), ou encore Stuart Russell (britannique). Les avancées dans le domaine des réseaux de neurones ne sont pas exclusivement
américaines, loin de là ! Les États-Unis détiennent cependant une position clairement dominante dans la mise en œuvre technique et la finition des produits, cela pour plusieurs raisons. Premièrement, ils bénéficient d’une capacité entrepreneuriale exceptionnelle qui non seulement attire des capitaux considérables mais produit aussi d’énormes portefeuilles de clients, fournissant une masse de données énorme propice à des expérimentations de grande envergure. Les géants comme Google, Amazon, Uber et Facebook ont fait leur succès sur cette base, l’IA s’inscrit
dans la même lignée.
Deuxièmement, l’industrie américaine, bien que dépendante de l’industrie asiatique pour certains composants matériels, reste extrêmement forte. Des offres comme Azure, de Microsoft, ou AWS, d’Amazon, dominent à quelques-unes presque entièrement le marché du cloud, tandis que Nvidia et Intel maintiennent un quasi-monopole sur les processeurs et les GPU, les unités de traitement graphique.
Troisièmement, leur volume économique leur donne la possibilité de lier des offres transversales – offrant le cloud, l’outil d’analyse, la formation, les logiciels techniques, la cybersécurité, etc. Malgré tous ces avantages, il est très important pour l’Europe de développer ses produits et pour les entreprises européennes d’accompagner cet effort, elles y seront gagnantes sur le long terme.
En particulier, il demeure tout à fait possible de contester l’hégémonie technologique américaine dans des domaines spécifiques, en particulier le développement algorithmique, composante essentielle de l’IA.
Comme le montre le succès de Mistral ou le bon démarrage de Kyutai, des progrès significatifs peuvent y être réalisés avec seulement quelques dizaines de personnes. C’est pourquoi il ne faut pas désespérer. Une éventuelle réindustrialisation sur notre sol demeure, cela dit, un défi considérable compte tenu du retard qui a été pris. Mais je ne vois aucun autre chemin viable sur le long terme.

Gaspard Kœnig : Au-delà de la question technologique, ce qui me frappe, c’est l’enjeu culturel. Lors de mon séjour en Chine, j’ai observé une société vibrante, pleine d’optimisme, un peu comme l’Europe de la fin du XIXe siècle. Ce qui m’a interloqué, c’est la manière dont les Chinois envisagent le développement technologique : non comme une menace, mais comme une promesse d’avenir radieux. J’ai rencontré des ingénieurs chez Alibaba travaillant sur les « villes intelligentes » qui partageaient les données urbaines avec les forces de police sans la moindre réticence. Cette
approche, profondément enracinée dans la philosophie confucéenne, place le bienêtre collectif au-dessus de l’accomplissement individuel, ce qui contraste fortement avec la vision dominante en Occident. D’un côté, nous avons une tradition où le philosophe, à l’instar de Socrate condamné à mort par les Athéniens, se doit de perturber l’ordre public, tandis qu’en Chine, Confucius se met au service des pouvoirs publics et recherche une forme d’harmonie sociale. Cette divergence se manifeste clairement dans la manière dont chaque culture appréhende la technologie et l’IA. En Chine, l’accumulation massive de données est perçue comme une opportunité de surpasser technologiquement les États-Unis et s’intègre parfaitement à un modèle social qui valorise la collectivité.
Ce n’est pas « moins » moral que la vision occidentale, c’est « leur » morale et il se trouve qu’elle est parfaitement compatible avec le développement de l’IA sans guère de limites.
Inversement, en Europe – et cela apparaissait déjà dans le rapport de Cédric publié en 20189 –, la conviction que la prospérité marche de pair avec les libertés individuelles domine notre pensée depuis au moins deux siècles. C’est une idée que Hayek a longuement développée : le droit de propriété ou la liberté d’expression ne sont pas seulement des droits fondamentaux de l’individu, ils permettent aussi un développement économique efficace par l’initiative privée et la circulation de l’information. À l’inverse, les régimes autoritaires et centralisateurs étaient condamnés à l’inefficacité : c’est tout l’argument de la « route de la servitude »10. Il se trouve que l’avènement de l’intelligence artificielle bouleverse cette équivalence. La prospérité économique et la liberté individuelle n’apparaissent plus comme intrinsèquement liées ; ces deux objectifs requièrent désormais un arbitrage délicat
entre protection de la vie privée et accessibilité des données. C’est cette tension qui était au cœur des récents débats autour du règlement européen sur l’IA, entre défenseurs du droit de propriété intellectuelle (dont je fais partie) et partisans de l’innovation technologique. D’ailleurs, je relève que la France, qui a longtemps chéri le droit d’auteur, a soudainement assoupli sa position dans les négociations européennes pour tenter de préserver le développement de sociétés d’IA nationales…

Faut-il alors vraiment choisir entre l’excellence technologique, en particulier en matière d’IA, et nos valeurs ?

Gaspard Kœnig : Nous sommes en tout cas, nous Occidentaux, écartelés, enfermés dans une sorte de dilemme, qui rend difficile la conciliation entre nos principes traditionnels et les nouvelles réalités économiques et technologiques. Il est à mes yeux impensable d’abandonner notre modèle de protection des libertés, qui est ancré bien plus profondément dans notre tissu culturel que toute logique économique. À ce stade, cela peut nous contraindre à assumer une position structurellement désavantageuse en matière technologique. Mais je crois cependant qu’il faut relativiser cette idée de désavantage : différents modèles sociétaux et de développement sont envisageables. David Graeber et David Wengrow soulignent, dans leur exploration de l’anthropologie contemporaine11, que les premières sociétés humaines ont adopté les nouveaux outils agricoles de manière hétérogène.
Certaines ont embrassé immédiatement la charrue, d’autres ont opté pour un modèle hybride, d’autres encore l’ont carrément rejetée. Chaque décision était guidée par un « imaginaire social » distinct qui dictait le degré d’adoption de cette nouvelle technique. Contrairement à ce qu’on apprend dans nos cours d’histoire, il n’y a pas de trajectoire linéaire menant inéluctablement de l’invention de la charrue à la démocratie moderne via la formation des États-nations. Comme pour la charrue, chaque société peut, selon ses valeurs, choisir d’adopter l’IA de la manière qui lui est propre, même si cela doit lui coûter économiquement. C’est pourquoi je reste dubitatif face à l’engouement de certaines élites françaises pour une compétition
effrénée avec la Chine dans le domaine de l’IA, sans une réflexion profonde sur le modèle de société que nous désirons préserver. C’est cette réflexion qui devrait l’emporter sur la simple course technologique.

On peut entendre qu’il n’y ait pas de modèle unique de développement, mais en refusant d’adopter certaines évolutions technologiques, une civilisation ou une société ne prendrait-elle pas nécessairement du retard par rapport aux autres ?

Gaspard Kœnig : Du retard par rapport à quoi exactement ? Il n’y a pas de « concurrence » ni de « rattrapage » si l’on décide de suivre un modèle différent. David Graeber nous enseigne que certaines sociétés, après avoir expérimenté l’agriculture, ont choisi de revenir à un mode de vie de chasseurs-cueilleurs pendant une partie de l’année. Ces choix étaient adaptés à leur environnement et répondaient à des besoins spécifiques. Les notions de régression ou de progrès sont donc extrêmement relatives. C’est un sujet avant tout politique sur la société que l’on souhaite fonder.

Cédric Villani : Je partage l’admiration de Gaspard pour Graeber, bien que je n’aie pas autant exploré son œuvre. Cette discussion résonne particulièrement avec la notion de « crise des communs », un thème récurrent dans les débats écologiques contemporains. Il existe aujourd’hui une sorte de constat largement partagé, d’ordre quasi mathématique, selon lequel, si chacun poursuit librement ses désirs, nous
marchons inexorablement vers une crise des ressources avec des conséquences désastreuses pour notre planète.
Cette prise de conscience a même conduit des penseurs traditionnellement libéraux à admettre la nécessité d’une planification écologique, une idée qui semblait impensable il y a seulement quelques décennies. Il y a en fait un vrai parallèle entre la gestion des biens communs, comme les ressources terrestres, et la régulation des données, qui doivent l’une et l’autre être orchestrées avec des objectifs clairs pour le bien de tous.

Sur le plan écologique ou agricole, on voit bien comment le contrôle peut s’exercer. Mais un objectif de « domestication de l’IA », même si on le juge légitime comme c’est votre cas, est-il bien réaliste ?

Gaspard Kœnig : Il est essentiel de permettre aux individus de vivre différemment, de ne pas être systématiquement intégrés dans ces écosystèmes numériques et de reprendre le contrôle de leurs propres données. À cet égard, il existe déjà certaines politiques publiques en Europe. Le RGPD, par exemple, malgré ses limites, établit des principes fondamentaux concernant la protection de la vie privée et l’utilisation des données par les plateformes. Personnellement, je défends l’idée que nous devrions aller plus loin en patrimonialisant les données. Autrement dit, il faut les protéger en utilisant le droit de propriété, qui est un droit parmi les plus robustes, en accordant aux individus l’usus, le fructus et l’abusus des data qu’ils génèrent.
Certaines réflexions en cours à Bruxelles vont d’ailleurs en ce sens. Historiquement, le droit de propriété s’est adapté aux innovations : l’imprimerie a conduit au droit d’auteur et l’industrialisation a répandu les brevets. Il serait tout à fait logique que l’ère numérique étende le droit de propriété aux données personnelles.

Oui, mais avec ChatGPT, c’est différent puisque les données sur lesquelles travaille la machine sont déjà là, disponibles sur le web et dans les bases de données…

Gaspard Kœnig : C’est tout le problème ! Les débats récents autour du règlement européen sur l’IA posent la question centrale : peut-on protéger les auteurs contre l’utilisation non consentie de leurs œuvres par l’IA générative ? En Allemagne, de nombreux auteurs refusent de signer des contrats standards de numérisation de leurs livres parce qu’ils ne souhaitent pas que les traces numériques des textes qu’ils ont produits soient exploitées par l’IA. La sensibilité allemande à ces questions de confidentialité, enracinée dans un contexte historique évidemment chargé, met en
lumière la complexité et l’importance de ces enjeux. Peut-être aussi les Allemands nous montrent-ils la voie…

Cédric Villani : Je pense moi aussi qu’adopter un modèle de développement distinct est, pour les Européens, une option intéressante. Il se pourrait qu’un jour, nous découvrions que notre moindre investissement dans certaines technologies nous ait, paradoxalement, conféré une plus grande résilience. C’est exactement ce qui s’est passé en Ukraine, pays qui a remarquablement résisté aux cyberattaques russes non pas seulement de l’expertise de ses programmeurs, mais aussi parce qu’ils avaient conservé des systèmes de sauvegarde low-tech – que nous avons, nous, probablement déjà remplacés par des solutions techniquement plus avancées, mais en réalité plus vulnérables. Il est donc essentiel de garder ses distances
vis-à-vis de cette quête incessante de la performance technologique dans laquelle communient tant de beaux esprits.
Un point en particulier mérite une vigilance accrue : notre dépendance aux infrastructures matérielles. C’est là, je l’ai dit, que réside notre véritable vulnérabilité. Nous ne possédons pas, en Europe, le savoir-faire nécessaire pour fabriquer à grande échelle les puces nécessaires à l’IA, et c’est une vraie et grande faiblesse.
Quant au cloud, l’échec retentissant du projet de cloud souverain européen illustre parfaitement nos lacunes… Mais nous avons symétriquement un avantage « culturel » par rapport aux Américains dans les modèles linguistiques avancés tels que ChatGPT, c’est notre moindre aliénation à une certaine vision du monde. Les GAFAM sont très puissants mais ils ont leur idéologie comme talon d’Achille. Sur bien des sujets dits « sensibles » (genre, race, mœurs etc.), les outils d’IA qu’ils développent ont des pudeurs de gazelle qui les amènent à donner des réponses distordues et insatisfaisantes.
Cela donne une chance aux outils alternatifs d’être plus performants, parce que plus neutres. Yann Le Cun lui-même prédit que les modèles « ouverts » seront les plus efficaces à long terme, d’une part parce qu’ils bénéficieront d’un effet de communauté gigantesque (un peu comme les programmes du logiciel libre), mais aussi parce qu’ils ne sont pas restreints par les considérations politiques ou les risques réputationnels qui obsèdent les opérateurs américains. Wikipédia, que nous avons évoqué, est un parfait exemple de la neutralité, donc de la qualité, d’un projet ouvert. Il doit nous inspirer pour l’IA.

À vous entendre, on se demande si l’on tend, en Europe, à surestimer notre retard en IA ou si – pardon ! – vous ne sous-estimez pas, vous, l’importance économique de ce retard, sa gravité en matière de souveraineté…

Gaspard Kœnig : Qu’il faille être vigilant sur le plan géopolitique, j’en conviens. Mais cette peur panique d’être « en retard » confine à l’idée délirante. J’ai récemment échangé avec le responsable d’un groupe hôtelier qui se lamentait du « retard » de son entreprise en matière d’IA. Intrigué, je lui ai demandé pourquoi il était impératif d’intégrer l’IA dans son activité et il a été incapable de fournir une réponse convaincante. Posons-nous la question ! L’IA dans l’hôtellerie, pour quoi faire ? Pour optimiser la gestion interne, pourquoi pas. Mais l’impact de la technologie sur l’expérience client, même si elle fait rêver les hôteliers, me semble beaucoup plus discutable. Personnellement, en tant que client, je trouve désagréable d’être
accueilli par mon nom sur un écran dans ma chambre ou que le personnel anticipe mes demandes avant même que je ne les exprime. Cela déshumanise l’interaction.
Les bienfaits du « rattrapage » en matière d’IA, conviction tenace et largement répandue dans les milieux économiques, me semblent largement fantasmés. Cela pourrait bien aller à l’encontre des attentes réelles des consommateurs ! Le projet d’une société automatisée avec des algorithmes qui préviennent vos moindres désirs semble un futur souhaitable et inévitable à beaucoup de décideurs, mais elle demeure, j’en suis convaincu, une repoussante dystopie pour la plupart des citoyens. Et elle nous empêche de considérer des alternatives low-tech qui sont souvent très efficaces.

Pour illustrer ce point, dans mon dernier roman12, l’un des personnages peine à obtenir un prêt pour développer une entreprise de traitement des déchets organiques fondée sur l’utilisation de lombrics, car cela n’est pas reconnu comme une « innovation de rupture ». Le paradoxe est que si quelqu’un prétendait avoir inventé une solution d’IA avec des « petits tubes autorégénérateurs » pour labourer les sols à la place des humains (c’est-à-dire des lombrics…), il attirerait sans doute des milliards d’investissements. Mais, parce que la solution proposée est naturelle et déjà existante, elle semble sans valeur. Cette anecdote s’inspire de rencontres réelles. Nous espérons trop de la technologie et ne regardons pas assez le potentiel
de ce qui existe autour de nous. 91 milliards d’euros sont dépensés annuellement dans l’IA, contre seulement 18 milliards pour les « solutions fondées sur la nature », pourtant bien plus prometteuses pour restaurer la biodiversité. Il y a de quoi s’interroger…

Puisque vous évoquiez l’utilisation pratique de l’IA dans la relation client, et même la perspective de voir des robots servir les clients grâce à l’IA, je vous suggère que nous évoquions les rapports entre l’intelligence artificielle et l’emploi. Va-t-on, comme le pensent certains, vers des destructions massives d’emplois ?

Gaspard Kœnig : Yann Le Cun affirme qu’il y a un aspect de la cognition humaine que l’IA ne peut structurellement pas remplacer : le bon sens. Comme l’écrivait Descartes, le bon sens est « la chose du monde la mieux partagée », mais aussi la plus énigmatique, la plus difficile à définir. Le bon sens peut être compris comme la capacité d’avoir une conscience de l’environnement global dans lequel on évolue et de lui donner un sens. Par exemple, assis ici avec vous, je suis conscient de votre présence, de la raison de notre rencontre, de qui est Cédric Villani à nos côtés, etc.
Cette compréhension globale me permet d’ignorer de nombreux détails mais de saisir l’ensemble du contexte et d’agir en conséquence de manière sensée. Dans cette perspective, les emplois qui disparaissent ne sont pas nécessairement ceux de moindre valeur ajoutée ou les moins productifs, mais plutôt ceux qui demandent le moins de bon sens.
Prenons l’exemple extrême des « bullshit jobs », où l’on applique simplement des process bureaucratiques. Ces emplois sont devenus superflus parce qu’ils ont été réduits à de simples tâches, effectivement exécutables par une IA. Nous avons d’abord déshumanisé ces métiers : ne nous étonnons pas alors qu’ils soient remplacés par une machine non-humaine !
En revanche, les métiers nécessitant du bon sens et une capacité de jugement autonome dans des situations complexes sont, par nature, irremplaçables. Prenons comme Sartre l’exemple du garçon de café : c’est probablement l’un des derniers métiers qui seront remplacés par l’IA parce qu’il requiert de gérer un nombre incroyable de variables simultanées, certaines irrationnelles, dans un contexte de relations humaines dense et imprévisible. Cela requiert une immense dose de bon sens, bien que le poste ne nécessite pas en lui-même de compétences techniques très poussées. Le garçon de café ne sera donc jamais menacé par l’IA, à moins que l’on ne décide de transformer radicalement l’expérience du café en installant des
systèmes de commande automatisés et des robots serveurs… Mais alors, nous ne serions plus dans un café au sens plein du terme : les gens ne
se rendent pas uniquement dans les cafés pour boire un verre, puisqu’ils pourraient tout aussi bien le faire chez eux, mais pour l’ambiance, pour « voir du monde », pour écouter les conversations des autres et s’en nourrir. Le serveur fait partie intégrante de cette expérience. D’ailleurs, si l’on suivait jusqu’au bout la logique de la substitution par la machine ou l’IA, alors on pourrait tout aussi bien isoler les gens dans des chambres individuelles avec des casques de réalité virtuelle ce qui serait « plus productif »… Cela n’arrivera pas.
Ce que nous montre la parabole du garçon de café est que premièrement, la plupart des métiers, qui nécessitent un bon sens fondamental, sont par définition irremplaçables. Et deuxièmement, que si nous voulions vraiment introduire à marche forcée les robots, il nous faudrait adapter toute la société à leur vision segmentée de la réalité. Mais la plupart des gens ne souhaitent pas vivre dans cette société-là. La productivité n’est pas l’ultime finalité de l’emploi humain !

Cédric Villani : Cet exemple me rappelle une anecdote personnelle : lorsque j’étais professeur invité à Atlanta, le serveur de la cafétéria me reconnaissait et m’apportait systématiquement mes boissons favorites, une attention que je trouvais particulièrement agréable, car elle témoignait d’une reconnaissance personnelle de mes habitudes et de mes goûts. Avant mon départ, j’ai pris le temps de remercier ce serveur pour ses attentions. Si à la place, j’avais été servi par un robot programmé pour reconnaître mes préférences via reconnaissance faciale, j’aurais trouvé cela non seulement impersonnel, mais aussi quelque peu inquiétant. Cela souligne l’importance d’une dimension biologique, d’une forme d’empathie qui ne peut être
remplacée par la technologie. Les études montrent d’ailleurs que l’usage excessif des réseaux sociaux tend à diminuer notre bonheur, soulignant que l’essence de l’humanité transcende la simple fonctionnalité. D’ailleurs, même les concepteurs et développeurs de technologies numériques ont commencé à reconnaître le besoin impérieux d’interactions humaines.
Par exemple, face à la réaction négative des consommateurs qui se voyaient proposer des produits de manière trop ciblée, comme des landaus pour les femmes enceintes détectées par des algorithmes, les entreprises ont dû adapter leur approche. Elles ont introduit des concepts tels que « IA centrée sur l’humain », ou « human inside » dans leur publicité, pour mettre en avant l’aspect humain de leurs services. On a vu ces dernières années le même changement de paradigme à l’œuvre pour les « villes intelligentes ». Les premières approches qui favorisaient des environnements totalement programmés ont été progressivement délaissées au profit de modèles où l’interface reste profondément humaine, même si l’IA joue un rôle
dans la planification. C’est particulièrement nécessaire en Occident, pour les raisons culturelles que nous avons déjà évoquées : les sociétés asiatiques semblent ainsi avoir moins de réticences à l’égard des interactions avec des robots que les sociétés occidentales. Donc, oui, l’IA détruira des emplois (et personne n’a de prédiction fiable là-dessus) mais, d’une part, il y aura d’autres emplois ou d’autres modèles qui en résulteront, et, d’autre part la relation humaine demeurera une attente fondamentale de chacun d’entre nous.

Le vrai piège en revanche serait celui où nous demanderions aussi à l’IA de prendre la place affective des humains – à l’instar de ces agents conversationnels pourfendus par Laurence Devillers, les « fées clochettes » destinées aux célibataires en mal d’affection, et qui leur envoient des SMS dégoulinant d’amour, générés automatiquement… Le constat de l’épidémie de solitude, et même de la baisse implacable de la sexualité « réelle » dans nos sociétés, incite au pessimisme, mais c’est notre boulot de faire de la mise en garde et de tracer les lignes entre le souhaitable et le repoussoir. Et puis, en revenant sur les métiers, j’insiste, l’IA accomplit des tâches, pas des métiers, ce n’est pas elle qui peut endosser une responsabilité, mener ou animer une équipe, accomplir l’ensemble des tâches techniques et humaines qui, d’habitude, constituent un métier.

Faut-il donc alors plutôt parler d’évolution des métiers ?

Cédric Villani : Absolument. Il existe de nombreuses études menées sur plusieurs années concernant le remplacement des emplois par la robotisation ou le numérique. Sur une période de dix ans, la plupart de ces prédictions ont été contredites par les faits. On ne peut d’ailleurs pas attribuer le remplacement des emplois uniquement à la technologie. Les économistes savent que des facteurs exogènes, souvent tout aussi significatifs, si ce n’est plus, jouent un rôle majeur – crises économiques, conflits armés, inflexion dans les politiques monétaires. L’IA a certes
commencé à remplacer, et remplacera encore, certains emplois, mais il s’agit principalement de postes où les tâches humaines sont réduites à de simples fonctions.
Parfois, on y perd certes en termes d’ « individualité » de la production humaine : le photographe qui alimente une banque de données pour la presse peut à juste titre se sentir menacé par l’avènement de technologies capables de produire automatiquement des images par l’IA, donc sans droits d’auteur. Mais, le plus souvent, les emplois détruits sont des « bullshit jobs » où l’humain est réduit à une fonction mécanique de validation des décisions prises par une machine, agissant comme une sorte de « tampon humain ». Une IA, c’est une fonction : se poser même la question du remplacement d’un humain par une IA, c’est presque obscène, c’est réduire cet humain à une fonction… La question de l’impact quantitatif de l’IA sur l’emploi reste ouverte. La meilleure approche consiste à mon sens à observer, expérimenter et évaluer. L’un de mes plus grands regrets concernant le rapport sur l’IA que j’ai remis au président de la République en 2018 est justement que notre proposition de créer une unité dédiée à la collecte des statistiques, à la conduite d’expérimentations et de tests pour conseiller le ministère du Travail sur l’évolution des métiers et sur leur automatisation n’ait pas été mise en œuvre. Nos recommandations sur ces questions ont pourtant été presque intégralement reprises dans le nouveau
rapport publié en mars 2024…

Se pose également, dans beaucoup de métiers intellectuels, la question de la formation des nouvelles recrues. Souvent, leurs compétences professionnelles initiales s’acquièrent aujourd’hui via des tâches austères et/ou répétitives – on pense aux revues de jurisprudence chez les avocats ou aux revues de presse ou de littérature dans le secteur du conseil. Or ces tâches sont faciles à exécuter par une IA… Comment nos enfants entreront-ils dans la carrière s’ils n’ont pas cette période d’apprentissage accélérée par la réalisation de tâches ingrates, mais formatrices ?

Cédric Villani : Il n’y a pas, je pense, de « parcours idéal » du « collaborateur idéal ». Mais il est essentiel à mes yeux de commencer par dispenser, dans tous les métiers, une formation traditionnelle, à l’écart de toute technologie avancée, pour que les fondamentaux soient vraiment acquis et intégrés. C’est ensuite qu’une transition vers l’usage et la maîtrise des outils technologiques peut être envisagée.
Cette approche permet une compréhension authentique des tâches de base, mais elle prépare aussi à ne pas être ébloui ou pris au dépourvu par des technologies qui peuvent parfois être trompeuses ou défaillantes. En prime, elle favorise le développement d’une fierté liée au savoir-faire personnel : n’oublions jamais que le moteur principal de l’apprentissage est la motivation, laquelle trouve justement sa source dans la fierté de ce que l’on apprend parce qu’on le comprend, mais aussi de ce que l’on devient – c’est-à-dire du rôle que l’on acquiert au fil du temps. C’est cette fierté, que le seul usage de technologies ne procure pas, qui rend un employé véritablement « irremplaçable ».

Gaspard Kœnig : Matthew Crawford, qui est à l’origine professeur de philosophie mais s’est reconverti dans un atelier de réparation de motos, a exploré dans son essai Éloge du carburateur13 la signification du travail manuel et, à l’inverse, les limites de la division du travail. Il soutient, ce qui vaut aussi pour le travail « intellectuel », que le travail prend d’autant plus de sens que le producteur est proche du produit final, que ce produit soit tangible ou non, bénéfique à l’humanité ou pas. Le travail perd son sens lorsque le lien avec le produit final se perd, lorsque le résultat devient trop abstrait.
L’erreur des chefs d’entreprise est souvent de segmenter les tâches en pariant uniquement sur la productivité immédiate, sans intégrer le coût futur de « réintroduire de l’humain », sous la pression des employés comme des consommateurs… Une tâche souvent difficile quand on a détruit les conditions d’émergence du sens. « L’humain » ne peut devenir une fonction spécialisée !

Il est frappant que, dans l’ensemble, vous ne sembliez pas réellement inquiets à la perspective de destructions d’emplois liées à l’IA, alors même que de nombreux experts sont très alarmistes sur ce point…

Cédric Villani : En toute honnêteté, les prévisions sont difficiles à faire dans cette matière et je me méfie des prophètes de malheur. L’Armageddon technologique n’est pas une fatalité ! Les études sur l’impact de l’IA sur l’emploi sont d’ailleurs plutôt contradictoires.
Pour être honnête, et pardon d’y revenir, il me semble que l’humanité devrait aujourd’hui d’abord se préoccuper de ce péril bien plus grand pour elle qu’est le risque climatique. Les catastrophes hypothétiques liées à l’IA sont bien plus… hypothétiques !

Gaspard Kœnig : Ce débat n’est pas nouveau et il ressurgit à chaque avancée technologique significative. Aristote, déjà, imaginait un monde où, si les lyres pouvaient jouer de la musique seules, il n’y aurait plus besoin d’esclaves. En termes modernes, cela signifierait qu’il n’y aurait plus besoin de « travail » puisque dans l’Antiquité, celui-ci était réservé aux esclaves. En pleine révolution industrielle, l’anarchiste (et gendre de Marx) Paul Lafargue a écrit Le Droit à la paresse14, se félicitant du remplacement du travail humain par les machines. Dans les années 1930, l’économiste Jacques Duboin a de nouveau évoqué cette idée dans La Grande Relève des Hommes par la Machine15, faisant des chômeurs les nouveaux aristocrates. Et à l’aube de la révolution numérique, Jeremy Rifkin, penseur de la Silicon Valley naissante, a prophétisé « the end of work »16… Or l’Histoire nous montre empiriquement que les emplois ont été sans cesse plus nombreux malgré la mécanisation.
Tous ces prophètes ont omis de penser la valeur intrinsèque du travail. Comme Blaise Pascal l’écrivait, « tout le malheur des hommes vient de ne pas savoir demeurer en repos dans une chambre ». La question fondamentale n’est pas celle de l’élimination du travail, mais plutôt de comprendre ce qui rend le travail gratifiant et signifiant, au-delà de sa simple nécessité économique ou technologique ; bref, ce qui nous fait sortir de notre chambre ! Ce que la machine pourrait apporter en revanche, c’est la distinction entre travail-activité et travail-rémunération (ce pourquoi je prône depuis longtemps un revenu universel).

Cédric Villani : Scientifiques et économistes se retrouvent sur ce sujet : la disparition du travail est un fantasme éternel, jamais devenu réalité mais auquel s’attachent beaucoup de visions idéologiques, d’ailleurs très variées. Keynes dessinait la perspective d’une semaine de travail de 15 heures pour le XXIe siècle et s’inquiétait de son impact sur une humanité qui pourrait se trouver désœuvrée. Non sans ironie, il craignait la généralisation de l’exemple des bourgeois oisifs de son temps, jugeant que ceux qui n’avaient plus besoin de travailler pouvaient, à leur image, « dégénérer »…
Je voudrais aussi résolument avancer que le partage de la valeur est avant tout une question politique, qui ne doit pas être asservie à la technologie : c’est le devoir d’une société digne de ce nom que d’attribuer à ses individus des tâches valorisantes et des revenus dignes, quels que soient les accomplissements de la technique.

Gaspard Kœnig : Il faut bien comprendre que la capacité nouvelle d’une machine à réaliser une tâche humaine n’implique pas que les humains renoncent à cette tâche. Depuis plus de vingt ans, les machines surpassent les humains aux échecs, et pourtant, ce jeu n’a jamais été aussi populaire. Des grands maîtres comme Magnus Carlsen sont vénérés et leurs parties sont largement suivies et commentées. Il y a toujours un « style » propre à chaque grand maître, irréductible à une puissance de calcul.

Cédric Villani : Même chose avec le jeu de Go ! Demis Hassabis, fondateur de DeepMind, avait beau jeu de rappeler que, après la victoire inédite d’AlphaGo contre des grands maîtres tels que Ke Jie ou Lee Sedol, l’intérêt pour le Go avait redoublé et que les ventes de jeux avaient explosé…

Gaspard Kœnig : Et c’est pourquoi ma vraie inquiétude n’est pas que la machine remplace l’homme, mais plutôt que l’homme construise volontairement un monde adapté aux machines. L’urbanisme offre une excellente illustration de la permanence de l’intérêt des productions humaines « spontanées ». Lorsque nous visitons une ville, nous sommes tous attirés par les centres historiques qui se sont développés de manière non planifiée : c’est cette spontanéité qui crée la beauté.

Cédric Villani : Oui, cela est vrai dans notre partie du monde. Mais, si l’on regarde ailleurs, ce peut être différent. L’Arabie Saoudite est en train de construire Neom, une ville nouvelle et futuriste s’étendant sur plus de 100 kilomètres entre la mer Rouge et des montagnes et culminant à plus de 2 500 mètres. Ce projet représente une vision radicalement différente, où tout est conçu de manière artificielle… Et, pour moi, c’est une vraie dystopie, niant le fait que nos cités sont avant tout façonnées par les pratiques, la culture, les tâtonnements humains.

Nous nous éloignons un peu de notre sujet initial…

Cédric Villani : Oui et non. On nous promet que Neom sera gorgée d’IA… Ce détour illustre ainsi un point central : plus que l’IA en elle-même, c’est la manière dont elle sera exploitée par les hommes pour servir des objectifs spécifiques qui peut préoccuper.
Nous avons parlé d’urbanisme, mais l’IA est également utilisée, à l’heure où nous parlons, pour perfectionner les méthodes de guerre, asservir des populations, manipuler les opinions, ou encore maintenir l’humanité dans ses addictions. L’enjeu n’est donc pas l’IA en tant que concept, mais en tant que technique transversale, en tant qu’outil ajouté à un arsenal pouvant servir des intérêts variés, pas toujours louables.

Gaspard Kœnig : Cela vaut également pour des domaines comme la monnaie. Je suis particulièrement préoccupé par les « Central Bank Digital Currencies » (CBDC), déjà en usage en Chine et actuellement en discussion à la BCE. L’objectif serait de créer une monnaie électronique qui, à terme, remplacerait progressivement la monnaie fiduciaire et serait « plus ou moins » traçable. Tout est dans ce « plus ou moins »… Dans une version ultra-centralisée, les CBDC pourraient permettre de recenser chaque transaction et de détecter toutes les fraudes, mais cela déboucherait sur un univers sans zones d’ombre, où une part de notre liberté serait inévitablement perdue. À l’autre extrême, un système en blockchain reviendrait à créer
un « cash virtuel » tout aussi anonyme qu’un billet de banque. Cela montre que les préoccupations soulevées par Cédric sont fondamentalement politiques et non inhérentes à la technologie elle-même qui peut être mise au service d’objectifs aussi bien émancipateurs qu’autoritaires.

Cédric Villani : J’en tire pour ma part une sorte de morale : l’IA requiert un État politiquement fort, qui régule. Et qui soit fort tout en étant démocratique, respectueux des libertés individuelles. Hélas, aujourd’hui, les gouvernements autoritaires, qui tendent à utiliser la technologie pour renforcer leur contrôle tant interne qu’externe, sont en expansion à travers le monde, tandis que, pour les États plus libéraux, ces outils représentent, d’une part une tentation à l’illibéralisme, d’autre part un facteur de déstabilisation.

Comment conclure cette discussion ?

Gaspard Kœnig : L’IA est aujourd’hui un sujet majeur. Mais je prends le pari qu’on en parlera beaucoup moins dans 20 ans, parce que nous serons confrontés à des problèmes bien plus graves. Débattre sur l’IA et la technologie est un luxe dans une société qui jouit d’un confort dont elle ne soupçonne pas la fragilité. Lorsque nous serons occupés à chercher de l’eau non polluée, ces questions de technologie nous sembleront appartenir à
une ère plus insouciante.

Cédric Villani : Je suis entièrement d’accord avec Gaspard.

Peut-être l’intelligence artificielle peut-elle cependant nous aider à relever ces défis ?

Gaspard Kœnig : L’IA peut permettre d’optimiser certaines pratiques, y compris agricoles, mais elle n’est pas le cœur de la solution : nous disposons déjà des connaissances et des outils nécessaires pour faire face aux défis écologiques, il faut maintenant faire des choix.

Cédric Villani : Tout à fait, nos défis majeurs résident moins dans le développement de nouvelles technologies que dans la volonté politique d’appliquer des solutions déjà à notre portée, même si elles sont politiquement difficiles. Pour mettre les pieds dans le plat : si l’IA est un enjeu important, l’écologie l’est encore bien plus. Mais je voudrais finir sur une note plus centrée sur l’IA, et plus positive. Rétrospectivement, le rapport que j’ai rendu en 2018 a bien fonctionné, et pour de bonnes raisons, l’une était que c’était une équipe vraiment pluridisciplinaire qui travaillait sous ma responsabilité, avec un bon dosage entre sciences techniques et sciences humaines. L’autre, c’est que nous avions pu, encouragés par le gouvernement, mettre en publicité cette mission et la construction du rapport, alors qu’il était encore en cours de rédaction. Cela a permis de lancer un large débat autour des enjeux de l’IA, favorisant une meilleure appropriation du sujet. L’appropriation et le débat public sont fondamentaux ! Un certain nombre de collectivités l’ont repris, par exemple la métropole de Montpellier avec laquelle j’ai eu grand plaisir à travailler pour sa Convention citoyenne sur l’intelligence artificielle.
Cette importance de l’appropriation est vraie à tous les niveaux. Par exemple, chaque entreprise doit aujourd’hui expérimenter l’IA pour identifier en quoi elle peut lui être utile, sans se précipiter mais sans ignorer l’importance de la vague à venir.

Ensuite, le corps social qu’elle constitue doit réfléchir aux questions importantes que soulève l’IA, du partage du pouvoir à l’éthique professionnelle en passant par le contrôle et la propriété des données. La consultation des artistes, la lecture des philosophes de la technique et des traités classiques sur les dangers de l’IA – Cathy O’Neil, David Chavalarias – aidera et stimulera les discussions. Dans la plupart des secteurs, l’IA viendra d’abord faciliter les tâches. Il revient donc aux dirigeants d’instaurer un climat de confiance permettant aux employés d’expérimenter en toute sérénité. Pour réussir collectivement l’appropriation de l’IA au niveau d’une organisation, il est crucial d’installer l’idée que l’on travaille à un projet commun visant à progresser ensemble, à tirer le meilleur de la technologie pour tous.
L’organisation doit avoir confiance en elle et les collaborateurs doivent avoir confiance dans le projet.
Source : Note Institut Messine, juin 2024

(1) Think tank fondé en 2014 avec le soutien de la Compagnie Nationale des Commissaires aux Comptes, l’Institut Messine rassemble des représentants de la société civile et de la profession qui se sont donnés pour mission de réfléchir aux grands enjeux économiques et sociétaux. S’attachant plus particulièrement aux questions de transparence et de confiance, il formule puis soumet au débat des idées et des solutions susceptibles de nourrir la réflexion et l’action des décideurs publics.
L’Institut Messine s’efforce de créer les conditions de travail les plus propices au traitement d’un sujet, notamment par la composition de groupes de travail qui réunissent les meilleures compétences pour chacun des thèmes abordés, la diversité du recrutement garantissant une réelle diversité d’analyses. Dès lors, les opinions exprimées dans les Rapports sont celles de la collectivité du groupe, mais elles ne sauraient engager chacun de ses membres en particulier. A fortiori, les Notes, Recueils et Rapports publiés sous l’égide de l’Institut ne l’engagent ni lui-même, ni ses organes de gouvernance, ni la CNCC.
(2) Cédric Villani, mathématicien français. Il fait ses études à Toulon, au lycée Dumont d’Urville, puis intègre une classe préparatoire au lycée Louis-le-Grand. Il se place quatrième au concours d’entrée à l’École normale supérieure. De 1996 à 2000, il est agrégé préparateur à l’ENS.
Il soutient sa thèse en 1998 sur « La théorie mathématique de l’équation de Boltzmann et de Landau en théorie cinétique des gaz et des plasmas ». De 2000 à 2010, il devient professeur des universités à l’ENS Lyon. Il a été professeur invité dans différentes universités dont Georgia Tech, Berkeley ou encore Princeton. De 2007 à 2010, il est membre de l’Institut Universitaire de France. En juin 2009, il devient directeur de l’institut Henri-Poincaré à Paris ainsi que professeur à l’université Claude-Bernard-Lyon-I en 2010. Ses travaux ont été récompensés par de nombreuses distinctions, parmi lesquelles le Prix Henri-Poincaré (2009) et, surtout, la Médaille Fields (2010). En 2017, il est élu député LREM (La République en marche) de l’Essonne. À la demande du Premier ministre Édouard Philippe, Cédric Villani rend en 2018 un rapport sur l’Intelligence Artificielle (IA), qui a servi à construire la stratégie nationale en IA. Parmi les nombreuses pistes proposées : créer un réseau d’Instituts interdisciplinaires d’intelligence artificielle, mettre en place un supercalculateur conçu spécifiquement pour les applications d’IA, ou encore rendre plus attractives les carrières dans la recherche publique afin d’éviter la fuite des cerveaux vers les géants américains.
(3) Gaspard Kœnig, philosophe, essayiste, romancier et homme politique français. Il a étudié au lycée Henri-IV puis a été reçu major au concours d’entrée de l’École normale supérieure de Lyon en 2002 et est devenu agrégé de philosophie. Il a enseigné à l’université Lille-III puis a travaillé ensuite pendant deux ans comme plume au cabinet de Christine Lagarde, alors ministre de l’Économie. En 2009, il rejoint la Banque Européenne pour la Reconstruction et le Développement (BERD) à Londres, où il s’occupe d’affaires institutionnelles.
Il est membre des promotions 2017 des Young Leaders de la French-American Foundation et 2019 des Young Leaders de la France-China Foundation. En 2018-2019, il enseigne la philosophie et la culture générale à la SKEMA Business School. Engagé en politique, il a été candidat en 2012 dans la 3e circonscription des Français de l’Étranger (Europe-Nord). En 2013, il a fondé le think-tank Génération Libre. Il a souhaité être candidat à l’élection présidentielle en 2022. Ses travaux s’inscrivent dans la tradition du libéralisme classique. Il est l’auteur d’une
quinzaine d’essais et romans. Pour la rédaction de son ouvrage consacré à l’intelligence artificielle – « La fin de l’individu : Voyage d’un philosophe au pays de l’intelligence artificielle », (L’Observatoire, 2019) – il a voyagé dans différents pays (États-Unis, Chine, Israël) afin de rencontrer différents acteurs sur le sujet.

 

S’abonner
Notifier de

0 Commentaires
Inline Feedbacks
View all comments
L’IA serait capable de nous tromper délibérément
Article précédent

L’IA serait capable de nous tromper délibérément

Derniers articles de Intelligence artificielle

REJOIGNEZ

LE CERCLE DE CEUX QUI VEULENT COMPRENDRE NOTRE EPOQUE DE TRANSITION, REGARDER LE MONDE AVEC LES YEUX OUVERTS. ET AGIR.
logo-UP-menu150

Déjà inscrit ? Je me connecte

Inscrivez-vous et lisez trois articles gratuitement. Recevez aussi notre newsletter pour être informé des dernières infos publiées.

→ Inscrivez-vous gratuitement pour poursuivre votre lecture.

REJOIGNEZ

LE CERCLE DE CEUX QUI VEULENT COMPRENDRE NOTRE EPOQUE DE TRANSITION, REGARDER LE MONDE AVEC LES YEUX OUVERTS ET AGIR

Vous avez bénéficié de 3 articles gratuits pour découvrir UP’.

Profitez d'un accès illimité à nos contenus !

A partir de 1.70 € par semaine seulement.

Profitez d'un accès illimité à nos contenus !

A partir de $1.99 par semaine seulement.
Partagez
Tweetez
Partagez
WhatsApp
Email
Print