Des bataillons de robots tueurs sur le champ de bataille ukrainien « dans les six mois » ?

Des bataillons de robots tueurs sur le champ de bataille ukrainien « dans les six mois » ?

Start

La mise à jour d’une directive du ministère de la Défense américain confirme l’intensification du développement et de l’utilisation d’armes autonomes. Publié le 25 janvier 2023, ce document est le premier en une décennie à se concentrer sur les armes autonomes à intelligence artificielle. Il fait suite à un plan de mise en œuvre connexe publié par l’OTAN le 13 octobre 2022, qui vise à préserver l' »avance technologique » de l’alliance dans ce que l’on appelle parfois les « robots tueurs ». Ces deux annonces reflètent la leçon cruciale que les armées du monde entier ont tirée des récentes opérations de combat en Ukraine et dans le Haut-Karabakh : L’intelligence artificielle militarisée est l’avenir de la guerre.

La pression de la guerre

À mesure que les pertes s’accumulent en Ukraine, la pression s’accroît pour obtenir des avantages décisifs sur le champ de bataille avec des armes totalement autonomes – des robots capables de choisir, de traquer et d’attaquer leurs cibles tout seuls, sans avoir besoin d’une supervision humaine.

Ce mois-ci, un important fabricant russe a annoncé son intention de développer une nouvelle version de combat de son robot de reconnaissance Marker, un véhicule terrestre sans équipage, pour renforcer les forces existantes en Ukraine.

Des drones entièrement autonomes sont déjà utilisés pour défendre les installations énergétiques ukrainiennes contre d’autres drones. Wahid Nawabi, PDG de l’entreprise de défense américaine qui fabrique le drone semi-autonome Switchblade, a déclaré que la technologie est déjà à portée de main pour convertir ces armes afin qu’elles deviennent entièrement autonomes.

Mykhailo Fedorov, ministre ukrainien de la transformation numérique, a affirmé que les armes entièrement autonomes sont la « prochaine étape logique et inévitable » de la guerre et a récemment déclaré que les soldats pourraient les voir sur le champ de bataille dans les six prochains mois.

Les partisans des systèmes d’armes entièrement autonomes say que cette technologie permettra de mettre les soldats à l’abri du danger en les éloignant du champ de bataille. Ils permettront également de prendre des décisions militaires à une vitesse surhumaine, ce qui permettra d’améliorer radicalement les capacités défensives.

Why not enjoy unlimited reading of UP'? Subscribe from €1.90 per week.

À l’heure actuelle, les armes semi-autonomes, comme les munitions qui suivent et se déclenchent elles-mêmes sur les cibles, nécessitent un « humain dans la boucle ». Elles peuvent recommander des actions mais nécessitent que leurs opérateurs les initient. En revanche, les drones entièrement autonomes, tels que les « chasseurs de drones » actuellement déployés en Ukraine, peuvent suivre et neutraliser des drones de jour comme de nuit, sans intervention de l’opérateur et plus rapidement que les systèmes d’armes contrôlés par l’homme.

Appel à un temps d’arrêt

Depuis plus de dix ans, des critiques comme la Campagne contre les robots tueurs (The Campaign to Stop Killer Robots) préconisent d’interdire la recherche et le développement de systèmes d’armes autonomes. Ils évoquent un avenir où les systèmes d’armes autonomes sont conçus spécifiquement pour cibler les humains, et pas seulement les véhicules, les infrastructures et les autres armes. Ils affirment que les décisions de vie et de mort en temps de guerre doivent rester entre les mains des humains. Les confier à un algorithme équivaut à la forme ultime de déshumanisation numérique.

En collaboration avec Human Rights Watch, la Campagne contre les robots tueurs affirme que les systèmes d’armes autonomes ne possèdent pas le jugement humain nécessaire pour distinguer les civils des cibles militaires légitimes. Ils abaissent également le seuil de la guerre en réduisant les risques perçus, et ils érodent le contrôle humain significatif sur ce qui se passe sur le champ de bataille.

Les organisations affirment que les armées qui investissent le plus dans les systèmes d’armes autonomes, notamment les États-Unis, la Russie, la Chine, la Corée du Sud et l’Union européenne, lancent le monde dans une nouvelle course aux armements coûteuse et déstabilisante. L’une des conséquences pourrait être que cette nouvelle technologie dangereuse tombe entre les mains de terroristes et d’autres personnes échappant au contrôle des gouvernements.

La directive actualisée du ministère de la défense américain tente de répondre à certaines des principales préoccupations. Elle déclare que les États-Unis utiliseront des systèmes d’armes autonomes avec « des niveaux appropriés de jugement humain sur l’utilisation de la force"

Human Rights Watch a publié une déclaration indiquant que la nouvelle directive ne précise pas ce que signifie l’expression « niveau approprié » et n’établit pas de lignes directrices pour déterminer qui doit le faire. Mais comme l’affirme Gregory Allen, un expert du groupe de réflexion sur la défense nationale et les relations internationales, le Center for Strategic and International Studies, cette formulation établit un seuil plus bas que le « contrôle humain significatif » exigé par les critiques. La formulation du ministère de la défense, souligne-t-il, permet la possibilité que dans certains cas, comme pour les avions de surveillance, le niveau de contrôle humain considéré comme approprié « puisse être faible ou nul ».

La directive mise à jour inclut également un langage promettant une utilisation éthique des systèmes d’armes autonomes, notamment en établissant un système de surveillance pour le développement et l’utilisation de la technologie, et en insistant sur le fait que les armes seront utilisées conformément aux lois internationales de la guerre existantes. Mais un responsable de l’ONG Article 36, a noté que le droit international ne fournit pas actuellement un cadre adéquat pour comprendre, et encore moins pour réglementer, le concept d’autonomie des armes. Le cadre juridique actuel ne précise pas, par exemple, qu’il incombe aux commandants de comprendre ce qui déclenchera les systèmes qu’ils utilisent, ou qu’ils doivent limiter la zone et la durée de fonctionnement de ces systèmes. « Le danger est qu’il n’y ait pas de ligne de démarcation nette entre la situation actuelle et celle où nous pourrions accepter l’inacceptable« , a déclaré M. Moyes.

Un équilibre impossible ?

La mise à jour du Pentagone démontre un engagement simultané à déployer des systèmes d’armes autonomes et à respecter le droit humanitaire international. Reste à savoir comment les États-Unis parviendront à équilibrer ces engagements, et si un tel équilibre est même possible.

Le Comité international de la Croix-Rouge, gardien du droit humanitaire international, insiste sur le fait que les obligations légales des commandants et des opérateurs « ne peuvent être transférées à une machine, un algorithme ou un système d’armes« . À l’heure actuelle, les êtres humains sont tenus de protéger les civils et de limiter les dommages causés par les combats en veillant à ce que l’usage de la force soit proportionnel aux objectifs militaires.
Si et quand des armes artificiellement intelligentes sont déployées sur le champ de bataille, qui doit être tenu responsable lorsque des civils meurent inutilement ? Il n’existe pas de réponse claire à cette question très importante.

James Dawes, professeur au Macalester College. James Dawes mène des recherches sur les droits de l’homme. Il est l’auteur de The Novel of Human Rights (Harvard University Press, 2018) ; Evil Men (Harvard University Press, 2013), lauréat de l’International Human Rights Book Award ; That the World May Know : Bearing Witness to Atrocity (Harvard University Press, 2007), finaliste du Independent Publisher Book Award ; et The Language of War (Harvard University Press, 2002). Il a écrit ou est apparu en tant qu’invité dans des médias tels que la National Public Radio, la BBC, la Bulgarian National Radio, le Boston Globe, le Chronicle of Higher Education et CNN.com.

To fight against disinformation and to favour analyses that decipher the news, join the circle of UP' subscribers.

Source : The Conversation-US

0 Comments
Inline Feedbacks
View all comments
L’IA part à la recherche des extraterrestres
Previous article

L’IA part à la recherche des extraterrestres

Next article

Chat-GPT: truly artificial intelligence?

Latest articles in Artificial Intelligence

JOIN

THE CIRCLE OF THOSE WHO WANT TO UNDERSTAND OUR TIME OF TRANSITION, LOOK AT THE WORLD WITH OPEN EYES AND ACT.
logo-UP-menu150

Already registered? I'm connecting

Register and read three articles for free. Subscribe to our newsletter to keep up to date with the latest news.

→ Register for free to continue reading.

JOIN

THE CIRCLE OF THOSE WHO WANT TO UNDERSTAND OUR TIME OF TRANSITION, LOOK AT THE WORLD WITH OPEN EYES AND ACT

You have received 3 free articles to discover UP'.

Enjoy unlimited access to our content!

From $1.99 per week only.
Share
Tweet
Share
WhatsApp
Email
Print