
AdobeStock/Ratchadaporn
Un char militaire autonome et futuriste, encerclé par une flotte de drones de défense. L’image a été générée par intelligence artificielle.
Des drones tueurs aux robots militaires, en passant par les bases de données, l’intelligence artificielle s’est invitée sur le champ de bataille. Ce sujet suscite des interrogations d’ordre moral : à qui incombe la responsabilité ? Que se passe-t-il si la machine commet une erreur ? Et que se passe-t-il si la technologie échappe au contrôle humain ? Nous nous sommes entretenus avec le Dr Olivier Del Fabbro, un expert luxembourgeois en philosophie de la technique à l’ETH Zurich.

Infobox
Le Dr Olivier Del Fabbro est Senior Researcher (chercheur principal) à la chaire de philosophie de l'ETH Zurich. Ses principaux domaines de recherche couvrent la philosophie de la technique, et il porte un intérêt particulier à l’intelligence artificielle et aux systèmes complexes, ainsi qu'à la philosophie de la médecine et la philosophie de la guerre et des conflits. Le Dr Del Fabbro s’intéresse aussi à la dimension historique du pragmatisme américain et de l'épistémologie historique française. Il a effectué des séjours de recherche à la University of Massachusetts à Boston, à la University of California à Berkeley et au Santa Fe Institute.
Vous avez rédigé un article de recherche sur la militarisation de l’intelligence artificielle intitulé « The Weaponization of AI », dont la publication dans la revue militaire Stratos est prévue pour le mois de juin. Pourquoi avoir choisi ce sujet ?
Olivier Del Fabbro : La philosophie de la technique est un domaine de niche, mais je me suis toujours intéressé aux innovations technologiques, qui, bien souvent, trouvent leur origine dans le domaine militaire – comme Internet, le GPS ou encore le laser. Dès ses débuts, l’intelligence artificielle a été orientée vers des applications militaires. Selon Emmanuel Kant, seul l’être humain est un être autonome, car lui seul établit ses propres règles et normes. Mais aujourd’hui, nous prenons conscience que nous avons développé des machines dotées d'IA qui sont capables d’une certaine autonomie, ce qui peut les rendre dangereuses. C’est ce constat qui m’a poussé à étudier comment cette innovation est utilisée à des fins militaires et où les armes dotées d’IA sont déployées.
Comment l’IA est-elle mise en œuvre dans les conflits actuels et sur quels théâtres d’opérations ?
Comme il s'agit d'une technologie numérique polyvalente, l’IA trouve aujourd’hui de multiples usages dans la guerre conventionnelle, que ce soit dans l’armée de l’air, l’armée de terre ou la marine. À ma connaissance, c'est le cas aussi bien dans la guerre d’agression russe contre l’Ukraine que dans le conflit qui oppose Israël au Hamas. L'armée israélienne a par exemple eu recours à des systèmes d'identification et de recommandation de cibles. Il s’agit de bases de données basées sur l’IA qui localisent les combattants du Hamas et fournissent des recommandations à l’armée de l’air en ce qui concerne les positions à frapper. Les forces ukrainiennes utilisent notamment des drones autonomes.
Dans un rapport de force inégal, par exemple entre un groupe de guérilla et une armée d'État, l’adversaire en position d'infériorité doit utiliser d'autres méthodes que les méthodes conventionnelles. Dans les conflits asymétriques, l’IA joue un rôle clé, notamment dans le domaine de l’information. Le Hamas exploite l’IA générative pour produire des textes et des images en vue de diffuser des deepfakes sous la forme de vidéos et de chansons de propagande. Des acteurs étatiques comme la Russie se servent aussi de deepfakes pour mener des campagnes de désinformation et manipuler les élections dans d'autres pays.
Sommes-nous à l’aube de systèmes d’armes entièrement autonomes qui prennent des décisions sans aucun contrôle humain sur le front ?
Ces armes existent déjà, par exemple les drones mentionnés précédemment. Je me suis rendu en Ukraine, où j’ai échangé avec des soldats et je suis en contact avec des unités de drones. L’armée ukrainienne utilise la vision par ordinateur, qui permet aux drones de se positionner visuellement, de naviguer et d'examiner le terrain. Les soldats peuvent piloter les drones à distance via une caméra, mais, en règle générale, les drones effectuent leur vol de manière autonome. Le drone choisit lui-même sa cible et peut aussi attaquer sans intervention humaine. Il peut par exemple larguer un obus, sans que cet ordre soit donné par un soldat. Ces « drones augmentés » sont plus précis que les humains, car ils sont en mesure de mieux s'adapter aux systèmes de défense électromagnétiques.
Ces systèmes d'armes autonomes existent donc sur le plan technique, mais ils ne sont pas déployés de façon continue. Le plus souvent, ce sont les soldats qui prennent la décision finale d’une attaque. Dans ce contexte, l’Ukraine sert de terrain d’expérimentation, tout comme les guerres ont toujours été des laboratoires de test pour les nouvelles technologies. Il en allait de même pendant la Première Guerre mondiale, quand les mitrailleuses et les chars ont fait leur apparition et se sont imposés durablement.
L’IA est-elle une simple avancée technologique qui rend la guerre encore plus dangereuse ou modifie-t-elle fondamentalement la nature de la guerre ?
Nous touchons ici à une réflexion philosophique essentielle. Carl von Clausewitz, théoricien de la guerre du XIXᵉ siècle, faisait la distinction entre la nature de la guerre et sa forme – les Américains parlent de « nature » et de « character of war ». Clausewitz était convaincu que les innovations technologiques ne modifiaient que la forme ou le caractère de la guerre, sans en altérer la nature. Car la nature de la guerre est et restera un affrontement – à l’image de deux combattants cherchant à dominer l’autre et à le contraindre à céder : l’ajout d’une épée ne modifie pas le principe du combat. À mon sens, l’IA n’a, jusqu’à présent, pas altéré la nature ou l’essence du conflit. Mais elle est en train de s'intégrer avec succès aux nouvelles méthodes de guerre, de se diversifier et de renforcer les pratiques courantes. Avec l'IA, la manière de faire la guerre se voit « augmentée », elle est élargie et plus efficace.
Les philosophes de la technique sont-ils divisés sur cette question ?
Il est vrai que certains scientifiques voient les choses autrement, mais je reste sceptique. Avec la multiplication des drones, on parle aujourd’hui aussi de « champ de bataille transparent ». Mais, il y a environ un siècle, Erich Maria Remarque décrivait dans son célèbre roman « À l’Ouest, rien de nouveau » les champs de bataille de la Première Guerre mondiale comme une « cage » où les soldats étaient prisonniers sous un « treillis de tirs d’obus ». Les soldats ukrainiens que j’ai rencontrés s’exprimaient de manière très similaire. Si le ressenti est si proche, alors peu de choses ont changé, du moins pour ce qui est de la perception des soldats.
Y a-t-il eu des tournants majeurs dans l’histoire où la technologie a eu un impact décisif sur les stratégies et les résultats militaires ?
Les exemples sont nombreux, de l’utilisation des arcs longs par les archers anglais au Moyen Âge tardif jusqu’au rôle déterminant du mathématicien britannique Alan Turing dans le décryptage des messages radio allemands pendant la Deuxième Guerre mondiale. Dans mon article de recherche, j'ai montré que l'IA est présente dans la stratégie militaire depuis la Deuxième Guerre mondiale. Pendant la Première guerre du Golfe, les États-Unis ont par exemple utilisé l’IA symbolique – ce sont des procédés basés sur la logique – pour perfectionner leur logistique militaire. Mais ce n’est qu’au cours des deux dernières décennies que l’IA s’est imposée davantage dans la stratégie militaire, grâce à la révolution de l’information.
Quels dilemmes d'ordre moral se posent avec l’intégration de l’IA dans les systèmes d’armes modernes, lorsque les machines prennent des décisions sans intervention humaine ?
L'IA soulève en effet des problèmes d'ordre moral qui lui sont propres. Cela commence par le problème du biais d'automatisation : les êtres humains ont tendance à surestimer la fiabilité des décisions automatisées des machines. Un soldat israélien dans la bande de Gaza ne se demande pas forcément si l’IA a véritablement identifié un combattant du Hamas ou s’il s’agit d’un civil. Or, l’IA peut commettre des erreurs. Et les machines font des erreurs.
Nous touchons ici au deuxième problème d’ordre moral : une machine peut-elle réellement faire la différence entre un combattant et un civil ? Pour ce qui est des voitures autonomes, nous savons que le système informatique n’est plus en mesure de reconnaître un panneau stop quand un autocollant publicitaire y est apposé, alors que les humains sont capables de l’identifier sans difficulté. La machine traite l’image différemment et réagit de façon incohérente. De telles confusions peuvent avoir des conséquences tragiques, aussi dans un contexte de guerre. Un être humain peut-il réellement faire confiance à la machine ? À cela s'ajoute le problème du manque de transparence : l'IA fait des erreurs, mais elle est si complexe que nous n'en comprenons pas les raisons. Mais, le problème central demeure celui de l’« irresponsibility gap ». Ce terme fait référence à l’absence de responsabilité morale clairement définie en ce qui concerne les décisions prises par des systèmes d’armes autonomes. Peut-on attribuer la responsabilité à la machine ? Ou à l'utilisateur direct ? Ou à l'ingénieur et l'inventeur ? La réponse est loin d’être simple quand il s’agit de systèmes autonomes, qu’ils concernent des systèmes d'armes ou d’autres machines.
À qui incombe la responsabilité quand des drones opèrent des frappes mortelles de manière totalement autonome ?
Selon le droit international humanitaire, le commandant continue à porter la responsabilité. Mais, en raison du manque de transparence de l’IA, aucune théorie ne permet d’expliquer ses actions et ses choix, contrairement aux lois physiques qui sont en mesure de décrire le comportement des objets. L’IA est une sorte de boîte noire, ce qui entraîne un problème de confiance et de responsabilité. Pour toutes ces questions, on pourrait faire une distinction entre les problèmes d'ordre moral inhérents à l'IA, les problèmes résultant des actions de l'IA et les problèmes liés à la relation entre l’homme et la machine. Ces aspects doivent être clarifiés, puis transposés dans le droit.
Existe-t-il déjà des réglementations internationales apportant des réponses à ces questions ?
Non, ces problèmes éthiques n'ont pas encore été tranchés, mais ils sont activement débattus dans des équipes de recherche et des groupes de réflexion à travers le monde. Il existe d’innombrables approches théoriques, méthodologies, publications et travaux de recherche à ce sujet. Rien que la définition de l’autonomie et les restrictions à imposer aux armes autonomes font l’objet de vastes discussions. Personnellement, je pense que les considérations éthiques et morales sont cruciales, mais que ces questions doivent avant tout être intégrées dans un cadre juridique.
Que doit faire la politique à votre sens ?
L’IA dans les systèmes d’armes doit être régulée au même titre que les autres technologies. Cette régulation devrait relever du droit humanitaire international, mais ce dernier ne contient à ce jour aucune disposition sur les systèmes d’armes basés sur l’IA. L’Europe dispose certes de l'« EU AI Act », mais cette réglementation reste insuffisante en matière de systèmes d’armes. La communauté politique internationale pourrait encadrer l’usage de l’IA dans la guerre comme elle l’a fait pour le recours aux armes nucléaires – à l’aide d’accords de réduction, d’interdictions, etc. Mais, au vu de la situation mondiale, la mise en œuvre à court terme d’une telle régulation semble incertaine.
L’IA représente-t-elle uniquement une menace ou peut-elle aussi sauver des vies, réduire le nombre de victimes et désamorcer les conflits ?
En théorie, c’est possible. Les modèles sur lesquels elle repose ont de nombreuses applications – du domaine militaire au secteur médical. Un drone peut larguer un obus, mais aussi un kit de premiers secours. Cependant, les dangers d’escalade liés à l’IA dans les guerres surpassent largement les bénéfices potentiels à l’heure actuelle.
Quels sont, selon vous, les principaux risques ? Les champs de bataille pourraient-ils échapper à tout contrôle ?
Aujourd’hui, une véritable course à l’armement autour de l’IA est en cours. Selon les données scientifiques actuelles, le plus grand danger réside dans ce que les scientifiques appellent le « singularity battlefield ». Il s'agirait d'une sorte d’hyperguerre où les machines prendraient toutes les décisions, du déploiement de chars à l’utilisation de radars, en passant par les tirs d’artillerie. En d'autres termes, une guerre totalement pilotée par des machines. C'est une idée théorique qui relève presque de la science-fiction. Personnellement, je ne pense pas qu’un commandant accepterait de céder complètement le contrôle ni à un autre être humain ni à une machine. Au lieu de cela, l’IA est incorporée dans les méthodes de guerre classiques, comme expliqué au début. Sinon, le risque d’escalade serait trop élevé – pour toutes les parties en conflit.
Auteure : Britta Schlüter
Rédaction : Michèle Weber (FNR)
Traduction : Nadia Taouil (www.t9n.lu)
Infobox
« 24 Stunden schrien die Gefolterten im ersten Stock »: Zwei Ukrainer berichten aus ihrer Kriegsgefangenschaft in Russland. Le couple ukrainien Olexi Kabakow et Walentina Petrowa était détenu dans un camp russe jusqu’au printemps 2023. Ils font part de leurs expériences.
Der permanente Krieg sichert in Russland und in Kongo die Macht der Kleptokraten. Selon la théorie de Clausewitz, la guerre aboutit à la paix. Mais dans les faits, les dictateurs adoptent souvent la stratégie de la guerre perpétuelle : la violence masque la véritable faiblesse, permet le pillage du pays et assure la pérennité du pouvoir.