Regardez le monde
avec les yeux ouverts

Inscrit ou abonné ?
CONNEXION

UP', média libre
grâce à ses lecteurs
Je rejoins

rejoignez gratuitement le cercle des lecteurs de UP’

Agressive IA

Par nature, l’IA pourrait devenir super-violente pour atteindre ses objectifs

Commencez
Nombreux sont encore ceux qui pensent que l’Intelligence artificielle est un programme informatique, certes, sophistiqué, mais qui suit à la lettre les instructions que des programmateurs lui ont donné au préalable. C’est sans compter sur l’apprentissage machine, le deep learning, qui permet à la machine d’apprendre toute seule, à partir de ses essais-erreurs, à atteindre un objectif. Une nouvelle étude apporte un éclairage glaçant sur la façon dont une IA s’y prend pour remplir un objectif : elle n’hésite pas à recourir à l’hyperviolence et éliminer ceux qui pourraient entraver son chemin vers le but assigné.
 
Nous nous souvenons tous de cette fameuse partiez de Go où l’IA Deepmind de Google a battu à plates coutures le champion du monde en titre. Le système de Google démontrait aux yeux du monde sa capacité à apprendre tout seul, en s’appuyant sur son expérience personnelle plutôt que sur des lignes de codes informatiques. Plus récemment, nous apprenions que cette IA était capable d’apprendre toute seule à imiter la voix humaine. Quasiment à la perfection.
Ce que nous révèlent les équipes de chercheurs de Deepmind de Google c’est aujourd’hui une dimension plus terrifiante des capacités de l’IA. Quand elle est sur le point de perdre, c’est-à-dire de ne pas atteindre ses objectifs assignés, elle opte pour des stratégies hyper-agressives pour s’assurer de vaincre.

Cueillette de pommes

Les chercheurs ont fait tourner quarante millions de fois un jeu d’une simplicité enfantine : deux joueurs –en l’occurrence deux agents IA– doivent s’affronter pour récolter des pommes virtuelles. Celui qui gagne est celui qui prend le plus de pommes à son adversaire. Les joueurs ont aussi à leur disposition des rayons lasers.
 
Au début, tout se passe bien. Tant qu’il y a assez de pommes, le jeu se déroule normalement. Les deux joueurs gagnant ou perdant alternativement. Mais dès que le stock de pommes commence à diminuer, les agents IA se mettent à devenir agressifs. Ils utilisent les rayons lasers pour détruire l’adversaire et lui voler le maximum de pommes.
 
La vidéo ci-dessous montre cette scène, en quelque sorte, la première guerre entre IA. Les agents Deepmind sont en bleu et en rouge, les pommes virtuelles en vert et les rayons laser en jaune :
 
 
Ce que l’on observe c’est une grande bataille à coup de lasers plutôt qu’une tranquille cueillette de pommes. Ce qu’il est intéressant de noter c’est que si un agent réussit à « tuer » son adversaire d’un coup de rayon laser, il n’obtient aucune récompense particulière. Si l’agent tueur le fait, c’est simplement pour éliminer l’adversaire et récupérer plus de pommes. Notons aussi que si les agents ne disposent pas d’armes, le jeu devrait normalement se terminer avec un nombre de pommes égal entre les deux adversaires. Notons enfin que le non usage des lasers est observé mais pour des agents IA moins intelligents. Dès qu’on augmente le niveau d’intelligence, les agents se livrent alors à des stratégies de sabotage, d’avidité et d’agressivité l’un envers l’autre.
 
Les chercheurs suggèrent ainsi que plus un agent est intelligent, plus il est capable d’apprendre de son environnement, ce qui lui permet d’utiliser des tactiques très agressives pour s’imposer. « Ce modèle… montre que certains aspects du comportement humain émergent comme un produit de l’environnement et de l’apprentissage », a déclaré Joel Z Leibo, l’un des membres de l’équipe à Wired. « Des politiques moins agressives émergent de l’apprentissage dans des environnements relativement abondants avec moins de possibilités d’actions coûteuses. La motivation de l’avidité reflète la tentation d’éliminer un rival et de ramasser toutes les pommes soi-même ».

Guerre totale

Ainsi, bien qu’il ne s’agisse que de simples petits jeux informatiques, le message est clair. Si l’on met différents systèmes d’IA en charge d’intérêts concurrents dans des situations réelles, le résultat pourrait être une guerre totale.  
 
Connaissant cette réalité, il suffit de penser avec un brin qu’inquiétude aux feux de circulation qui essaient de ralentir le trafic et aux voitures sans conducteur qui essaient de trouver le chemin le plus rapide. Le résultat pourrait vite ressembler à un film catastrophe.  Le seul moyen de l’éviter est de concevoir des IA coopératives, capables de tenir compte des objectifs de l’autre pour obtenir le résultat le plus sûr et le plus efficace pour la société. Mais est-ce possible ? L’étude sur les petits jeux informatique démontre que l’intérêts général – en l’occurrence celui des humains– n’est pas la préoccupation principale. Ce qui compte pour l’IA c’est de gagner, passer en force pour réussir son objectif. Peu importe les dégâts et les stratégies coopératives qu’on voudra lui donner.
 
Souvenons-nous de ce que disaient les fondateurs d’OpenAI, l’initiative de recherche d’Elon Musk dédiée à l’éthique de l’intelligence artificielle, en 2015 : « Les systèmes d’IA d’aujourd’hui ont des capacités impressionnantes mais étroites. Il semble que nous continuerons à réduire leurs contraintes, et dans le cas extrême, ils atteindront la performance humaine sur pratiquement toutes les tâches intellectuelles.
Il est difficile d’imaginer à quel point l’IA à l’échelle humaine pourrait être bénéfique pour la société, et il est tout aussi difficile d’imaginer à quel point elle pourrait nuire à la société si elle était construite ou utilisée de façon incorrecte ».
Au moment où l’on met l’IA à toutes les sauces, où elle apparaît comme la clé de notre croissance et de notre avenir économique, on devrait garder en tête cette prophétie et observer d’un peu plus près ce qui se passe dans les labos avancés.
 
 
Source : Science Alert
 

Quelque chose à ajouter ? Dites-le en commentaire.

 
 

S’abonner
Notifier de

0 Commentaires
Les plus anciens
Les plus récents Le plus de votes
Inline Feedbacks
View all comments
IA médecine
Article précédent

Des médecins de Stanford mettent en garde contre les dangers de l'IA dans le diagnostic médical

intelligence artificielle
Prochain article

Intelligence artificielle : êtes-vous suiveur ou leader ?

Derniers articles de Intelligence artificielle

REJOIGNEZ

LE CERCLE DE CEUX QUI VEULENT COMPRENDRE NOTRE EPOQUE DE TRANSITION, REGARDER LE MONDE AVEC LES YEUX OUVERTS. ET AGIR.
logo-UP-menu150

Déjà inscrit ? Je me connecte

Inscrivez-vous et lisez trois articles gratuitement. Recevez aussi notre newsletter pour être informé des dernières infos publiées.

→ Inscrivez-vous gratuitement pour poursuivre votre lecture.

REJOIGNEZ

LE CERCLE DE CEUX QUI VEULENT COMPRENDRE NOTRE EPOQUE DE TRANSITION, REGARDER LE MONDE AVEC LES YEUX OUVERTS ET AGIR

Vous avez bénéficié de 3 articles gratuits pour découvrir UP’.

Profitez d'un accès illimité à nos contenus !

A partir de 1.70 € par semaine seulement.

Profitez d'un accès illimité à nos contenus !

A partir de $1.99 par semaine seulement.
Partagez
Tweetez
Partagez
WhatsApp
Email
Print