L’IA serait-elle l’événement le plus significatif de l’histoire de l’humanité ? Voilà au moins une raison suffisante pour y réfléchir de manière lucide et informée dès maintenant. Quelle que soit l’aboutissement de cette aventure gageons que nous en apprendrons autant sur ce qui fait l’essence de l’humanité que sur les capacités cognitives d’une machine. Notamment grâce au dernier livre blanc réalisé par Weave, cabinet de conseils en stratégie opérationnelle, qui aborde les différents aspects de l’IA : sa définition, son histoire et son évolution, son aspect éthique et légal, ainsi que son influence dans le secteur du conseil.
L’étude a été réalisée par trois auteurs : Pirmin Lemberger, data scientist, physicien de formation, quianime et dirige le data lab de Weave ; Jonathan Lepan, Senior Manager au sein de l’entité Business Technology Weave ; et Olivier Reisse, membre du comité exécutif de Weave est associé fondateur de la practice Business Technology.
Ces trois experts déclarent qu’ « il semble inadéquat d’envisager l’IA comme une simple invention supplémentaire dans une époque déjà fertile en innovations. Les technologies d’IA sont plutôt assimilables à une ressource créatrice de valeur, ou à un socle pour l’innovation future au même titre que le web il y a 25 ans ou même comme l’électricité il y a 150 ans (Ng, 2016). A ce titre, le potentiel disruptif de l’IA est probablement difficile à surestimer.
Chaque technologie ouvre un nouveau champ des possibles, avec ses risques et ses opportunités. Les Grecs anciens, encore eux, avaient déjà formalisés cette idée dans leur concept de pharmakon désignant par ce terme l’ambivalence inhérente à toute technologie, qui est tout à la fois un poison et son propre remède. Nulle raison en l’occurrence que l’IA fasse exception. »
L’histoire de l’IA est jalonnée d’une succession d’ambitions grandioses et d’espoirs déçus. Dans les années 1950 les chefs de files de l’IA naissante s’imaginaient par exemple que des progrès significatifs sur la conception de systèmes qui pensent comme les humains pourraient être réalisés durant un séminaire de deux mois (voir P.21 de l’étude). Des approches techniques et conceptuelles disparates ont ainsi pendant longtemps coexisté et empêché de concevoir l’IA comme une discipline unifiée.
Même si le sujet est dorénavant mieux structuré, il n’existe à ce jour aucune unanimité parmi les spécialistes sur les objectifs que l’on devrait assigner à l’IA, comme le démontre l’étude (voir P. 13) à travers quatre points de vue développés par Russel et Norvig dans leur ouvrage monumental Artificial Intelligence a Modern Approach (Norvig, et al., 2009).
A l’origine de cette absence d’unanimité se trouve naturellement la difficulté à définir ce qu’est l’intelligence ou même seulement certains de ses aspects comme la créativité, l’intuition ou la capacité d’abstraction.
Une autre difficulté que l’on rencontre lorsqu’on cherche à définir ce qu’est une IA est le caractère subjectif d’une telle définition. Les problèmes dont on estime qu’ils exigent une « authentique » IA pour être résolus varient en effet au cours de l’histoire. Ainsi une machine capable de battre un grand maître aux échecs aurait été considérée il y a cinquante ans comme « intelligente ». Une telle machine fut effectivement construite en 1997 lorsque Deep Blue démontra sa supériorité dans un match contre le champion Kasparov. Du statut de prouesse on passa alors très rapidement à celui de produit grand public et plus personne ne songerait désormais qu’un programme d’échecs exécuté sur un PC soit doté d’une « authentique » intelligence.
Il y a encore deux ans peu de gens auraient parié sur la possibilité qu’un ordinateur puisse battre un grand maître au jeu de Go, du moins avant une bonne vingtaine d’années. L’avis des experts était qu’une réelle maîtrise de ce jeu requérait une intuition, une imagination (voire pour certains une sensibilité mystique) inaccessibles à une machine.
C’est pourtant chose faite depuis le début de l’année (2016) avec le système AlphaGo de Google qui a battu le champion Lee Sedol lors d’un tournoi historique. Une nouvelle fois cette performance n’est désormais plus considérée comme de l’IA. On pourrait aisément multiplier les exemples.
Bref, l’IA est souvent perçue comme ce qui n’a pas encore été réalisé. Il y a donc fort à parier qu’il n’y aura jamais de moment Eurêka dans la quête de l’IA mais plus vraisemblablement une succession de phases de progrès et d’accoutumance qui s’étaleront sur plusieurs décennies.
Comment reconnaître une intelligence généraliste (on parle parfois d’IA forte) d’un simple simulacre qui agit de manière à faire illusion ? L’idée qu’un simulacre d’IA serait immanquablement détecté après une mise à l’épreuve suffisamment longue est l’essence même du célèbre test de Turing. Celui-ci consiste à mettre à l’épreuve un système prétendument intelligent pour mesurer sa capacité à simuler une conversation humaine sans contact physique. Bien entendu aucun système à ce jour n’a encore passé ce test. Toutefois certaines applications pourraient dès aujourd’hui instiller un doute quant à leur capacité à « comprendre le monde ». Un système comme le logiciel de Google capable de décrire par un texte la scène représentée par une photo (voir P. 34) est-il intelligent dans le sens où nous le souhaiterions ? La réponse est : probablement non. Nous vivons cependant une période passionnante dans la mesure où la réponse à cette question n’est désormais plus tout à fait évidente.
Face aux difficultés à définir clairement ce qu’est une IA, une possibilité consiste à mieux définir les objectifs que l’on attend d’un tel système. En d’autres termes, il faut poser la question de savoir quels problèmes une IA devra être capable de résoudre. On peut schématiquement regrouper les approches de l’IA en quatre catégories représentées dans le tableau ci-dessous. Celui-ci définit deux axes : l’axe vertical distingue « penser » et « agir » et l’axe horizontal distingue l’idéal de comportement visé : un comportement « humain » ou un comportement rationnel (Norvig, et al., 2009).
Penser comme un humain : Dans cette approche on cherche à comprendre comment fonctionne l’esprit humain pour le modéliser, l’espoir étant de pouvoir, un jour peut-être, reproduire ses facultés cognitives dans un système artificiel. Les sciences cognitives suivent cette voie et élaborent des méthodes expérimentales sur des humains ou des animaux pour développer un modèle de l’esprit susceptible d’être testé expérimentalement. Certaines approches précoces de l’IA, comme celle du General Problem Solver élaborée au début des années 1960 par Herbert Simon, ont ainsi essayé de reproduire les étapes d’un raisonnement humain.
Agir comme un humain : Le test de Turing propose une définition opérationnelle de l’intelligence sans se préoccuper des processus internes à la machine. Construire un système capable de passer un tel test impliquerait cependant de résoudre une cascade de problèmes parmi les plus ardus de l’IA : le traitement du langage humain, la représentation des connaissances, le raisonnement et l’apprentissage automatique. A ce jour la recherche en IA privilégie plutôt la compréhension des mécanismes qui sous-tendent l’intelligence sur la reproduction d’une intelligence capable de passer le test de Turing. La démarche est en l’occurrence similaire à l’aéronautique dont les succès ont reposé sur une compréhension approfondie des lois de l’aérodynamique plutôt que sur l’imitation du vol des oiseaux.
Penser rationnellement : La pensée rationnelle repose avant tout sur la logique. Son histoire débute avec Aristote et aboutit à la logique mathématique moderne. Alors que l’arithmétique traite de la manipulation des nombres, la logique mathématique formalise les enchaînements de propositions de portées plus ou moins générale. L’approche logiciste de l’IA part du postulat que toutes les opérations mentales se réduisent en dernière analyse à des opérations logiques. Cette approche se heurte toutefois à des deux difficultés principales.
• D’une part il est difficile de formaliser logiquement un problème mal définit ou même un problème dont les données sont entachées d’incertitudes.
• D’autre part, il existe un gouffre entre résoudre un problème en principe, c.à.d. avec des ressources de calcul à priori infinies, et le résoudre en pratique, c.à.d. en utilisant des ressources limitées durant un laps de temps acceptable afin d’obtenir une solution acceptable plutôt qu’une solution parfaite qui résulterait d’un raisonnement strictement logique.
Agir rationnellement : Une action rationnelle peut être une conséquence d’un raisonnement rationnel… ou non ! Dans certaines situations d’urgence par exemple, une action rationnelle n’est pas nécessairement le résultat d’un long processus de délibération mais résulte plutôt d’un réflexe appris par expérience. Dans d’autres situations encore, une action est requise alors qu’aucun raisonnement rationnel n’existe qui permettrait de la déduire. L’approche par action rationnelle est donc plus générale que l’approche logiciste. Elle présente par ailleurs l’avantage de permettre une définition plus scientifique que les approches qui visent à agir ou à penser comme un humain, difficilement susceptibles de définitions rigoureuses. C’est le point de vue moderne de l’IA développé dans Norvig, et al., 2009.
« L’IA est la science de la conception d’agents rationnels, des agents qui optimisent la valeur d’attente d’une certaine notion d’utilité en fonction des perceptions passées de leur environnement.» L’action rationnelle n’est en réalité qu’une première étape vers l’objectif plus ambitieux et plus réaliste qui serait d’agir dans des environnements complexes avec une rationalité limitée sous contrainte de délais et de ressources, ce que les humains ont à faire tout au long de leur existence.
L’IA pourra-t-elle contribuer à augmenter notre potentiel d’humanité ou au contraire à la subvertir ? A chacun de nous d’utiliser ce qui lui reste de libre-arbitre pour faire bon usage de cette extension des possibles sans précédent que va représenter l’IA dans les décennies à venir.
(Source : Weave Business Technology – 2017)
Pour aller plus loin :
– Ecouter l’émission France Culture : « L’intelligence pas si artificielle de Catherine Malabou » pour son livre « Métamorphoses de l’intelligence : Que faire de leur cerveau bleu ? » (PUF – Août 2017)
– Livre « Dans la disruption : comment ne pas devenir fou ? « de Bernard Stiegler – Editions Les Liens qui Libèrent, 2016
S’abonner
Connexion
0 Commentaires
Les plus anciens
Les plus récents
Le plus de votes
Inline Feedbacks
View all comments