« Je me méfie de la contagion des machines » disait Georges Duhamel. Ou encore, Isaac Asimov : « Les robots vont nous libérer ». Alors qu’en penser ? Sans qu’on s’en rende compte, on change vraiment de monde avec les robots pilotés par la pensée ou la généralisation des Big Data ouvrant aux analyses prédictives. On peut s’en alarmer ou trouver au contraire qu’on accède à une dimension nouvelle de la réflexivité et de notre être au monde transformant notre quotidien et, en premier lieu, le travail lui-même.
Parvenir à contrôler la pensée : voilà bien une technologie qui, à première vue, pourrait inquiéter, mais qui au contraire offre des perspectives incroyables, comme nous avons pu le vérifier au CES de Las Vegas. Pour exemple, le serre-tête « Mind Control » qui peut permettre au cerveau de faire fonctionner une prothèse, aider les personnes victimes de troubles de la concentration, mais également « d’allumer ou d’éteindre la lumière en vous concentrant sur cette tâche ».
Ou encore des écouteurs, créés par la société corééenne Looxid, qui détectent à la fois les ondes cérébrales et les mouvements des yeux pouvant apporter une lecture encore plus précise des pensées des individus. La société canadienne Interaxon a inventé des capteurs qui permettent de mesurer l’onde cérébrale pouvant par exemple améliorer les techniques de méditation et utilisant la technique du « neuro-feedback ».
Piloter un robot grâce aux signaux émis par le cerveau d’une personne située à 1500 km de distance, telle est la performance réalisée récemment par les chercheurs de l’université de Genève, des hôpitaux universitaires gènevois et de l‘université de Coimbra au Portugal.
Pour effectuer la démonstration, l’expérimentateur, placé à Genève, portait un casque équipé de huit capteurs d’électroencéphalogramme qui enregistraient les signaux émis par le cortex visuel. Il était placé devant un écran sur lequel apparaissaient des carrés lumineux clignotant chacun à une fréquence différente. Chaque carré était associé à un mouvement possible du robot.
Quand l’expérimentateur en regardait un, son cerveau émettait des pulsions de même fréquence. Les capteurs recueillaient ces signaux, traduits alors en commandes envoyées au robot qui, lui, se trouvait à Coimbra. Le temps de réponse de ce système était d’une demi-seconde.
Par ailleurs, l’équipe de Rajesh Rao, à l’université de Washington, a réussi à créer une interface permettant le contrôle d’un robot par la pensée. Le travail de Rao présente plusieurs caractéristiques qui méritent qu’on s’y attarde.
Tout d’abord, l’expérimentateur contrôle bien un robot, et non un programme d’ordinateur. La technique utilisée pour récupérer les signaux cérébraux est non invasive. En effet, chaque signal doit être préalablement « bruité » pour contrôler le robot. Cela implique que la machine ne peut obtenir des signaux qu »indirectement, à l’aide de capteurs situés à la surface de la tête, et non là où ils sont générés, à l’intérieur du cerveau.
Par conséquent, le robot doit être assez autonome pour éxécuter la tâche. De plus, cela exige une concentration mentale importante.
D’autre part, au Japon, on connaît tous HRP-3P, un robot humanoïde de 1,60 m, présenté par la société Kawada, qui peut être commandé à distance pour effectuer des tâches pré-programmées, dans un environnement dangereux ou hostile à l’humain (selon ses concepteurs, il peut d’ailleurs marcher sur la glace). C’est probablement l’un des robots les plus perfectionnés au monde.
https://www.youtube.com/watch?v=DU2eHuCmAgE</span><span style="line-height: 1.5;">
L’être humain a beau être un génie de l’adaptabilité, il n’est pas fait pour vivre dans tous les environnements. Malheureusement, certains jobs exigent d’être faits, et les conditions d’atmosphère ou de température ne sont pas une sinécure. Il semblerait que les japonais aient donc trouvé là une solution très intéressante à ce problème.
De son côté, le laboratoire coréen KAIST AIM travaille sur l’interaction homme/robot. Son robot Amio est capable d’analyser l’intonation de la voix et les expressions du visage pour en déterminer les émotions humaines et adapter son comportement en fonction de ces dernières. Par exemple, s’il estime que vous être en colère, il blaguera pour détendre l’atmosphère.
En 2012 est né Hoap-3, le petit dernier des robots piloté par la pensée. Ses créateurs, des chercheurs du laboratoire d’informatique, de robotique et de microélectronique de Montpellier II-CNRS, ont tenté une expérience inédite en le plaçant sous le contrôle de la pensée d’un homme situé à l’Institut Weizmann, en Israël, donc à plusieurs milliers de kilomètres. Hoap-3 avance, va à gauche, à droite… commandé par un homme installé dans un caisson IRM. Le fait de penser un mouvement active des zones précises du cerveau ; cette activité cérébrale est interprétée par un logiciel qui fait bouger le robot. Financée par l’UE, cette recherche devrait permettre à l’homme de parcourir la planète depuis son fauteuil…
L’offre commerciale est en pleine accélération. De là à imaginer un robot piloté par la pensée qui irait au boulot pour vous, ferait les tâches ménagères et descendrait les poubelles à votre place, ce n’est pas pour tout de suite. Mais est-ce un hasard si les principales avancées en matière de robots humanoïdes se trouvent au Japon ? Au Japon, les robots vont bientôt transformer la vie des personnes âgées : la société japonaise connaît aujourd’hui un vieillissement inexorable et sans précédent de sa population. D’ici 2020, c’est à dire demain, près de 6 millions de Japonais auront besoin d’une assistance pour accomplir les actes de la vie courante. Ce concept d’assistance recouvre un vaste champ d’activités et ne se limite pas à une aide physique des aînés. Voir l’article de RTFlash / Nanotechnologies et robotique sur ce sujet prècis. Gérard Ayache, dans son livre « La grande confusion » (France Europe Edition – 2006), explique ce phénomène : « Le Japon, détaché par sa culture et sa religion du tabou du Golem, n’est pas limité intellectuellement ni éthiquement dans la reproduction de plus en plus parfaite de l’être humain. Des robots accompagnateurs, nouveaux confidents virtuels, voient le jour dans les centres de recherche d’Honda, de Mitsubishi ou de Sony. (…). »
Mais avons-nous besoin de robots pour communiquer par la pensée ?
En 2014, une autre équipe américaine, dirigée par Brian Pasley (Université de Californie à Berkeley) est parvenue à reproduire des mots en analysant l’activité cérébrale de patients à l’aide d’électrodes.
Cette étude a été réalisée sur 15 patients en attente d’une intervention chirurgicale destinée à traiter certaines formes d’épilepsie. Ces malades ont été munis d’un casque intégrant des électrodes enregistrant l’activité d’une zone du lobe temporal du cortex spécialisée dans le traitement et l’interprétation des signaux auditifs. Les expérimentateurs ont lu une série de mots aux patients pendant que l’activité électrique de leurs neurones était enregistrée et analysée.
Les chercheurs ont ensuite utilisé un logiciel spécialement développé pour la circonstance et qui est capable de recréer par synthèse les « mots » extraits de ces enregistrements de l’activité du cortical. Contre toute attente, ces expériences ont permis de reproduire le son entendu par le patient et il est possible, dans un grand nombre de cas, de reconnaître les mots, bien que la méthode soit loin d’être parfaite.
En juin 2015, des chercheurs de l’Ecole polytechnique fédérale de Lausanne ont permis à des personnes handicapées de déplacer une machine à plusieurs centaines de kilomètres de distance. Pour interagir avec lui depuis le reste de la Suisse, l’Italie ou l’Allemagne, elles n’ avaient qu’à se connecter sur Skype (le logiciel de tchat vidéo de Microsoft) et enfiler un bonnet truffé d’électrodes permettant d’analyser les signaux émis par leur cerveau.
L’apparition de « commandes mentales », aux côtés de la commande vocale et de la reconnaissance d’écriture, va permettre à l’informatique d’être accessible à tous et va entraîner un véritable saut qualitatif dans la prise en charge des personnes malades et handicapées. On peut également imaginer les progrès que permettra une telle innovation dans de multiples domaines : en chirurgie par exemple, un robot piloté par la pensée pourrait réaliser des prouesses. En matière de transport, on peut imaginer que certaines fonctions précises, liées à l’urgence, pourront être directement déclenchées par la pensée. Enfin, en matière de télécommunication, il deviendrait possible d’envoyer des messages simples, oraux ou écrits, directement issus de nos pensées !
Les géants de l’électronique et de l’informatique ont bien compris les immenses enjeux économiques et industriels de ce nouveau mode d’action sur notre environnement mais il n’est pas certain que les gouvernements et nos concitoyens aient bien pris conscience de l’impact humain, social et moral d’une telle avancée technologique. Ne devrions-nous pas commencer à réfléchir à une « neuroéthique », comme l’avait appelée il y a quelques années René Trégouët, Fondateur du groupe de prospective du Sénat, pour protéger l’intimité et la liberté de chacun ?
Photo : Extrait du film Ex Machina d’Alex Garland, 2015
Lire aussi dans UP’ « Le règne d’algorithme »
Patrice Zana, « 50 innovations pour demain » (Editions Alternatives – 2010)