Regardez le monde
avec les yeux ouverts

Inscrit ou abonné ?
CONNEXION

UP', média libre
grâce à ses lecteurs
Je rejoins

rejoignez gratuitement le cercle des lecteurs de UP’

Des bataillons de robots tueurs sur le champ de bataille ukrainien « dans les six mois » ?

Des bataillons de robots tueurs sur le champ de bataille ukrainien « dans les six mois » ?

Commencez

La mise à jour d’une directive du ministère de la Défense américain confirme l’intensification du développement et de l’utilisation d’armes autonomes. Publié le 25 janvier 2023, ce document est le premier en une décennie à se concentrer sur les armes autonomes à intelligence artificielle. Il fait suite à un plan de mise en œuvre connexe publié par l’OTAN le 13 octobre 2022, qui vise à préserver l' »avance technologique » de l’alliance dans ce que l’on appelle parfois les « robots tueurs ». Ces deux annonces reflètent la leçon cruciale que les armées du monde entier ont tirée des récentes opérations de combat en Ukraine et dans le Haut-Karabakh : L’intelligence artificielle militarisée est l’avenir de la guerre.

La pression de la guerre

À mesure que les pertes s’accumulent en Ukraine, la pression s’accroît pour obtenir des avantages décisifs sur le champ de bataille avec des armes totalement autonomes – des robots capables de choisir, de traquer et d’attaquer leurs cibles tout seuls, sans avoir besoin d’une supervision humaine.

Ce mois-ci, un important fabricant russe a annoncé son intention de développer une nouvelle version de combat de son robot de reconnaissance Marker, un véhicule terrestre sans équipage, pour renforcer les forces existantes en Ukraine.

Des drones entièrement autonomes sont déjà utilisés pour défendre les installations énergétiques ukrainiennes contre d’autres drones. Wahid Nawabi, PDG de l’entreprise de défense américaine qui fabrique le drone semi-autonome Switchblade, a déclaré que la technologie est déjà à portée de main pour convertir ces armes afin qu’elles deviennent entièrement autonomes.

Mykhailo Fedorov, ministre ukrainien de la transformation numérique, a affirmé que les armes entièrement autonomes sont la « prochaine étape logique et inévitable » de la guerre et a récemment déclaré que les soldats pourraient les voir sur le champ de bataille dans les six prochains mois.

Les partisans des systèmes d’armes entièrement autonomes affirment que cette technologie permettra de mettre les soldats à l’abri du danger en les éloignant du champ de bataille. Ils permettront également de prendre des décisions militaires à une vitesse surhumaine, ce qui permettra d’améliorer radicalement les capacités défensives.

Pourquoi ne pas profiter d’une lecture illimitée de UP’ ? Abonnez-vous à partir de 1.90 € par semaine.

À l’heure actuelle, les armes semi-autonomes, comme les munitions qui suivent et se déclenchent elles-mêmes sur les cibles, nécessitent un « humain dans la boucle ». Elles peuvent recommander des actions mais nécessitent que leurs opérateurs les initient. En revanche, les drones entièrement autonomes, tels que les « chasseurs de drones » actuellement déployés en Ukraine, peuvent suivre et neutraliser des drones de jour comme de nuit, sans intervention de l’opérateur et plus rapidement que les systèmes d’armes contrôlés par l’homme.

Appel à un temps d’arrêt

Depuis plus de dix ans, des critiques comme la Campagne contre les robots tueurs (The Campaign to Stop Killer Robots) préconisent d’interdire la recherche et le développement de systèmes d’armes autonomes. Ils évoquent un avenir où les systèmes d’armes autonomes sont conçus spécifiquement pour cibler les humains, et pas seulement les véhicules, les infrastructures et les autres armes. Ils affirment que les décisions de vie et de mort en temps de guerre doivent rester entre les mains des humains. Les confier à un algorithme équivaut à la forme ultime de déshumanisation numérique.

En collaboration avec Human Rights Watch, la Campagne contre les robots tueurs affirme que les systèmes d’armes autonomes ne possèdent pas le jugement humain nécessaire pour distinguer les civils des cibles militaires légitimes. Ils abaissent également le seuil de la guerre en réduisant les risques perçus, et ils érodent le contrôle humain significatif sur ce qui se passe sur le champ de bataille.

Les organisations affirment que les armées qui investissent le plus dans les systèmes d’armes autonomes, notamment les États-Unis, la Russie, la Chine, la Corée du Sud et l’Union européenne, lancent le monde dans une nouvelle course aux armements coûteuse et déstabilisante. L’une des conséquences pourrait être que cette nouvelle technologie dangereuse tombe entre les mains de terroristes et d’autres personnes échappant au contrôle des gouvernements.

La directive actualisée du ministère de la défense américain tente de répondre à certaines des principales préoccupations. Elle déclare que les États-Unis utiliseront des systèmes d’armes autonomes avec « des niveaux appropriés de jugement humain sur l’utilisation de la force« .

Human Rights Watch a publié une déclaration indiquant que la nouvelle directive ne précise pas ce que signifie l’expression « niveau approprié » et n’établit pas de lignes directrices pour déterminer qui doit le faire. Mais comme l’affirme Gregory Allen, un expert du groupe de réflexion sur la défense nationale et les relations internationales, le Center for Strategic and International Studies, cette formulation établit un seuil plus bas que le « contrôle humain significatif » exigé par les critiques. La formulation du ministère de la défense, souligne-t-il, permet la possibilité que dans certains cas, comme pour les avions de surveillance, le niveau de contrôle humain considéré comme approprié « puisse être faible ou nul ».

La directive mise à jour inclut également un langage promettant une utilisation éthique des systèmes d’armes autonomes, notamment en établissant un système de surveillance pour le développement et l’utilisation de la technologie, et en insistant sur le fait que les armes seront utilisées conformément aux lois internationales de la guerre existantes. Mais un responsable de l’ONG Article 36, a noté que le droit international ne fournit pas actuellement un cadre adéquat pour comprendre, et encore moins pour réglementer, le concept d’autonomie des armes. Le cadre juridique actuel ne précise pas, par exemple, qu’il incombe aux commandants de comprendre ce qui déclenchera les systèmes qu’ils utilisent, ou qu’ils doivent limiter la zone et la durée de fonctionnement de ces systèmes. « Le danger est qu’il n’y ait pas de ligne de démarcation nette entre la situation actuelle et celle où nous pourrions accepter l’inacceptable« , a déclaré M. Moyes.

Un équilibre impossible ?

La mise à jour du Pentagone démontre un engagement simultané à déployer des systèmes d’armes autonomes et à respecter le droit humanitaire international. Reste à savoir comment les États-Unis parviendront à équilibrer ces engagements, et si un tel équilibre est même possible.

Le Comité international de la Croix-Rouge, gardien du droit humanitaire international, insiste sur le fait que les obligations légales des commandants et des opérateurs « ne peuvent être transférées à une machine, un algorithme ou un système d’armes« . À l’heure actuelle, les êtres humains sont tenus de protéger les civils et de limiter les dommages causés par les combats en veillant à ce que l’usage de la force soit proportionnel aux objectifs militaires.
Si et quand des armes artificiellement intelligentes sont déployées sur le champ de bataille, qui doit être tenu responsable lorsque des civils meurent inutilement ? Il n’existe pas de réponse claire à cette question très importante.

James Dawes, professeur au Macalester College. James Dawes mène des recherches sur les droits de l’homme. Il est l’auteur de The Novel of Human Rights (Harvard University Press, 2018) ; Evil Men (Harvard University Press, 2013), lauréat de l’International Human Rights Book Award ; That the World May Know : Bearing Witness to Atrocity (Harvard University Press, 2007), finaliste du Independent Publisher Book Award ; et The Language of War (Harvard University Press, 2002). Il a écrit ou est apparu en tant qu’invité dans des médias tels que la National Public Radio, la BBC, la Bulgarian National Radio, le Boston Globe, le Chronicle of Higher Education et CNN.com.

Pour lutter contre la désinformation et privilégier les analyses qui décryptent l’actualité, rejoignez le cercle des lecteurs abonnés de UP’

Source : The Conversation-US

0 Commentaires
Retour d'information sur Inline
Voir tous les commentaires
L’IA part à la recherche des extraterrestres
Article précédent

L’IA part à la recherche des extraterrestres

Prochain article

Chat-GPT: une intelligence vraiment artificielle ?

Derniers articles de Intelligence artificielle

REJOIGNEZ

LE CERCLE DE CEUX QUI VEULENT COMPRENDRE NOTRE EPOQUE DE TRANSITION, REGARDER LE MONDE AVEC LES YEUX OUVERTS. ET AGIR.
logo-UP-menu150

Déjà inscrit ? Je me connecte

Inscrivez-vous et lisez trois articles gratuitement. Recevez aussi notre newsletter pour être informé des dernières infos publiées.

→ Inscrivez-vous gratuitement pour poursuivre votre lecture.

REJOIGNEZ

LE CERCLE DE CEUX QUI VEULENT COMPRENDRE NOTRE EPOQUE DE TRANSITION, REGARDER LE MONDE AVEC LES YEUX OUVERTS ET AGIR

Vous avez bénéficié de 3 articles gratuits pour découvrir UP’.

Profitez d'un accès illimité à nos contenus !

A partir de 1.70 € par semaine seulement.
Partagez
Tweetez
Partagez
WhatsApp
Email
Print