AdobeStock/Ratchadaporn

Ein futuristischer, autonomer Militärpanzer, umgeben von einem Schwarm von Verteidigungsdrohnen. Das Bild wurde mithilfe von KI generiert.

Killerdrohnen, Militärroboter, oder Datenbanken, die Ziele empfehlen: Künstliche Intelligenz wird auch im Krieg genutzt. Das wirft moralische Fragen auf: Wer trägt die Verantwortung? Was, wenn die Maschine sich irrt? Und was, wenn der Mensch die Kontrolle über die Technik verliert? Wir sprachen mit dem Luxemburger Experten für Technikphilosophie Dr. Olivier Del Fabbro von der ETH Zürich.

Infobox

Mehr über Dr. Olivier Del Fabbro

Dr. Olivier Del Fabbro ist Senior Researcher (Oberassistent)  an der Professur für Philosophie der ETH Zürich. Seine Forschungsschwerpunkte sind Technikphilosophie mit besonderem Interesse an Künstlicher Intelligenz und Komplexen Systemen, Philosophie der Medizin und Philosophie von Krieg und Konflikten. Dr. Del Fabbro hat auch historische Interessen am US-amerikanischen Pragmatismus und an der französischen historischen Epistemologie. Er hat Forschungsaufenthalte an der University of Massachusetts Boston, der University of California Berkeley und dem Santa Fe Institute absolviert. Copyright Foto: Olivier Del Fabbro.

Sie haben „The Weaponization of AI“ einen wissenschaftlichen Artikel über die Militarisierung der Künstlichen Intelligenz verfasst, der im Juni in der militärwissenschaftlichen Zeitschrift Stratos erscheinen wird. Wieso dieses Thema?

Olivier Del Fabbro: Technikphilosophie ist ein Nischengebiet, doch ich interessiere mich grundsätzlich sehr für technische Innovationen und diese haben ihren Ursprung sehr häufig im Militär - das Internet zum Beispiel, das GPS oder der Laser. Auch Künstliche Intelligenz war von Anfang an auf dem Weg zur Militarisierung. Nach Immanuel Kant ist allein der Mensch ein autonomes Wesen, nur er setzt sich selbst Regeln und Normen. Doch nun wird uns bewusst: Wir haben mit der KI Maschinen entwickelt, die ebenfalls auf eine bestimmte Art und Weise autonom agieren und demnach gefährlich werden können. Das war der Auslöser, um zu untersuchen, wie genau diese Innovation militärisch genutzt wird und wo KI-gestützte Waffensysteme zum Einsatz kommen.

Wie wird KI in der modernen Kriegsführung denn konkret eingesetzt – und auf welchen Kriegsschauplätzen?

Als digitale Allzwecktechnik erlaubt KI in der konventionellen Kriegsführung - in Luftwaffe, Heer oder Marine - heute vielfältige Anwendungen. Das gilt, soweit ich sehe, für den russischen Angriffskrieg gegen die Ukraine ebenso wie für den Israel-Hamas-Konflikt. So nutzte das israelische Militär zum Beispiel Zielidentifikations- und Empfehlungssysteme. Das sind KI-gestützte Datenbanken, die etwa den Aufenthaltsort von Hamas-Kombattanten identifizieren und dann der Luftwaffe Empfehlungen geben, welche geographische Position sie angreifen sollte. Die Ukraine nutzt insbesondere autonome Drohnen.

Wenn einer der Kriegsgegner deutlich schwächer ist, etwa eine Guerillaorganisation gegenüber einer staatlichen Armee, muss dieser andere Methoden nutzen als die konventionellen. In dieser sogenannten asymmetrischen Kriegsführung hat sich KI vor allem im Informationsraum bewährt. So nutzt die Hamas generative KI, die Text und Bild erstellt, um Deep-Fakes in Form von Propagandavideos oder -liedern zu verbreiten. Auch staatliche Akteure wie Russland verwenden Deepfakes für Desinformationskampagnen, um sich in die Wahlen anderer Länder einzumischen.

Wie nah sind wir an vollständig autonomen Waffen, die Entscheidungen an der Front ganz ohne menschliches Eingreifen treffen?

Die gibt es bereits, zum Beispiel die bereits erwähnten Drohnen. Ich war selbst in der Ukraine, habe mit Soldaten gesprochen und stehe in Kontakt mit Drohneneinheiten. Die ukrainischen Streitkräfte nutzen Computer Vision, die Drohnen in die Lage versetzt, sich visuell zu positionieren, zu navigieren und das Gelände zu untersuchen. Die Soldaten können die Drohnen über eine Kamera fernsteuern, aber in der Regel führen die Drohnen den Flug autonom durch. Die Drohne sucht ihr Ziel selbst aus und kann auch autonom angreifen, also zum Beispiel eine Granate fallen lassen, ohne dass dieser Befehl von einem Soldaten gegeben wird. Diese sogenannten „augmented drones“ treffen das Ziel besser als Menschen, weil sie besser auf elektromagnetische Abwehrmaßnahmen reagieren können.

Diese autonomen Waffensysteme sind also technisch möglich, werden aber nicht ständig eingesetzt. Meist sind Soldaten die letzte Instanz, die den Angriffsbefehl erteilen. Die Ukraine ist hier ein Experimentierfeld, so wie Kriege schon immer Labore für neue Technologien waren. Das war im Ersten Weltkrieg genauso, als Maschinengewehre oder Panzer aufkamen und sich dann etablierten.

Ist KI einfach eine technische Innovation, die Kriegsführung noch gefährlicher macht – oder verändert KI das Wesen des Krieges an sich?

Das ist eine sehr tiefgründige philosophische Frage. Carl von Clausewitz, Kriegstheoretiker aus dem 19. Jahrhundert, unterschied zwischen der Natur des Krieges und der Gestalt des Krieges – die Amerikaner sprechen von „nature“ und „character of war“. Clausewitz war überzeugt, dass technologische Innovationen nur die Gestalt oder den Charakter, nicht aber die Natur des Krieges verändern. Denn die Natur des Krieges ist und bleibt der Wettkampf – wie der zweier Ringer, die versuchen, den anderen zu unterwerfen und ihm den eigenen Willen aufzuzwingen: Ein Schwert dazu zu nehmen, ändert nichts am Prinzip des Wettkampfs. Auch KI hat meiner Meinung nach bisher nicht die Natur oder das Wesen des Krieges beeinflusst. Sie ist vielmehr dabei, sich erfolgreich in moderne Methoden der Kriegsführung zu integrieren, sich zu diversifizieren und gängige Praktiken zu verstärken. Mit KI wird Kriegsführung „augmented“, also erweitert, und effizienter.

Ist diese Frage unter Technikphilosophen umstritten?

Manche Forscher sehen das in der Tat anders, aber ich bleibe skeptisch. Man spricht heute wegen der Drohnen auch gerne vom gläsernen Schlachtfeld. Aber vor rund hundert Jahren schrieb Erich Maria Remarque in seinem berühmten Werk „Im Westen nichts Neues“ über die Schlachtfelder des Ersten Weltkrieges, die Front gleiche einem „Käfig“, Soldaten seien gefangen unter einem „Gitter der Granatbögen“. Die ukrainischen Soldaten heute, mit denen ich sprechen konnte, drückten sich sehr ähnlich aus. Wenn das Empfinden so ähnlich ist, dann hat sich wohl nicht viel geändert, zumindest für das Empfinden der Soldaten…

Gab es Schlüsselmomente in der Geschichte, in denen Technologie die Militärstrategie oder -ergebnisse maßgeblich beeinflusst hat?

Da gibt es viele Beispiele, angefangen bei den Langbogen der englischen Bogenschützen im Spätmittelalter bis zu dem britischen Mathematiker Alan Turing, der im Zweiten Weltkrieg maßgeblich an der Entschlüsselung der deutschen Funksprüche beteiligt war. Ich habe in meinem Forschungsartikel aufgezeigt, dass KI seit dem Zweiten Weltkrieg immer schon in der Kriegsführung präsent war. So nutzten die USA im ersten Irak-Krieg symbolische KI – das sind logikbasierte Verfahren - um ihre Kriegslogistik zu optimieren. Doch erst in den vergangenen zwei Jahrzehnten hat sich KI durch die Datenrevolution breiter in die Kriegsführung eingebracht. 

Welche moralischen Fragen wirft der Einsatz von KI in modernen Waffensystemen auf, wenn Maschinen auf dem Schlachtfeld allein entscheiden?

KI hat in der Tat ihre eigenen moralischen Probleme. Das beginnt mit dem Problem des Automatisierungsbias: Menschen neigen dazu, den automatisierten Entscheidungen von Maschinen übermäßig zu vertrauen. Der israelische Soldat im Gazastreifen stellt sich womöglich nicht die Frage, ob die KI tatsächlich einen Hamas-Kämpfer identifiziert hat, oder ob es sich vielleicht doch um einen Zivilisten handelt. Doch die KI kann sich irren. Auch Maschinen machen Fehler.

Damit sind wir beim zweiten moralischen Problem: Kann die Maschine tatsächlich unterscheiden zwischen Kämpfer und Zivilist? Wir kennen von autonomen Autos das Problem, dass das Computermodell ein Stoppschild nicht mehr erkennt, sobald ein Werbeaufkleber darauf klebt – während wir Menschen das Schild dann immer noch erkennen. Doch die Maschine klassifiziert anders und reagiert dann verwirrt. Das kann fatal sein, wenn es um Menschenleben geht, auch im Krieg. Kann der Mensch der Maschine also überhaupt vertrauen? Dazu kommt die Intransparenz: Die KI macht Fehler, ist aber so komplex, dass wir die Gründe dafür nicht verstehen. Und über allem steht das „Irresponsibility gap“. Damit ist das Vakuum gemeint, wenn die moralische Verantwortung für Handlungen autonomer Waffensysteme nicht eindeutig zugeordnet werden kann. Ist die Maschine verantwortlich? Oder der direkte Nutzer? Oder der Ingenieur und Erfinder? Diese Frage ist nicht so einfach zu beantworten bei autonomen Systemen, egal ob Waffensystem oder andere Maschinen.

Wer ist denn verantwortlich, wenn Drohnen komplett autonom handeln und töten?

Laut internationalem humanitärem Völkerrecht bleibt der Befehlshaber verantwortlich. Aber wegen der Intransparenz der KI gibt es keine Theorie, die die Handlungen und Entscheidungen der Maschine erklären kann, so wie eine Theorie in der Physik das Verhalten von Körpern voraussagen kann. Die KI ist eine Art Black box, und das führt zu einem Vertrauens- und Verantwortungsproblem. Man könnte bei all diesen Fragen unterscheiden zwischen moralischen Problemen, die der KI inhärent sind, Problemen in Folge der KI-Handlungen sowie Problemen des Verhältnisses von Mensch zu Maschine. All das muss noch geklärt werden und dann auch ins Recht einfließen.

Gibt es schon internationale Regelungen, die auf diese Fragen Antworten liefern?

Nein, diese ethischen Probleme sind noch nicht geklärt, werden aber in internationalen Forschergruppen und Think Tanks viel diskutiert. Es gibt zahlreiche Frameworks, Ansätze, Literatur und Working papers dazu. Allein schon um die Definition von Autonomie und die Frage, was bei autonomen Waffensystemen erlaubt sein soll und was nicht, laufen große Diskussionen. Persönlich meine ich, dass Ethik und Moral zwar wichtig sind, diese Fragen sich aber vor allem im Rechtssystem niederschlagen müssen.

Was muss die Politik tun, Ihrer Ansicht nach?

KI in Waffensystemen muss reguliert werden wie andere Technologien auch. Die Instanz, die das klären könnte, wäre das geltende internationale humanitäre Völkerrecht, aber das enthält noch keinen Paragraphen zu KI-gestützten Waffensystemen. Europa hat zwar den „EU AI Act“, doch die Verordnung ist ebenfalls nicht ausreichend wenn es um Waffensysteme geht. Die internationale politische Gemeinschaft könnte den Einsatz von KI im Krieg so regulieren, wie man auch den Einsatz von Atomwaffen reguliert hat – mit Abbau, Atomwaffenverboten etc. Ob das angesichts der Weltlage in absehbarer Zeit geschehen wird, ist eine andere Frage.

Ist KI nur Gefahr, oder kann sie auch eine Chance sein, Leben zu retten, Opferzahlen zu reduzieren oder Konflikte zu deeskalieren?

Theoretisch ja. Die ihr zu Grunde liegenden Modelle können vielen Zwecken dienen, vom Militär bis zur Medizin. Eine Drohne kann eine Granate abwerfen, aber auch ein Erste-Hilfe-Paket. Allerdings sind die Eskalationsgefahren, die KI im Krieg zur Zeit mit sich bringt, so viel größer als deren Chancen.

Wo sehen Sie denn die größten Risiken? Könnten Schlachtfelder völlig außer Kontrolle geraten?

In Sachen KI gibt es mittlerweile ganz klar ein Wettrüsten. Die größte Gefahr liegt nach Stand der Wissenschaft in dem, was Forscher das „Singularity Battlefield“ nennen. Das wäre eine Art Hyper-Kriegsführung, bei der Maschinen alle Entscheidungen vom Einsatz der Panzer über Radar bis zur Artillerie treffen. Quasi ein vollautomatischer Krieg. Das ist eine theoretische Idee und hat schon etwas Science-Fiction-Mäßiges. Persönlich glaube ich allerdings, dass kein Befehlshaber gern die Zügel komplett aus der Hand gäbe, weder an andere Menschen noch an Maschinen.  Statt dessen wird KI, wie eingangs erwähnt, eingebunden in die klassische Kriegsführung. Andernfalls ist die Gefahr der Eskalation einfach zu groß - für alle Kriegsparteien.

Autorin: Britta Schlüter
Redaktion: Michèle Weber (FNR)

 

 

Infobox

Artikel von Olivier Del Fabbro in der "Neue Zürcher Zeitung"

«24 Stunden schrien die Gefolterten im ersten Stock»: Zwei Ukrainer berichten aus ihrer Kriegsgefangenschaft in Russland. Das ukrainische Ehepaar Olexi Kabakow und Walentina Petrowa war bis im Frühling 2023 in einem russischen Lager inhaftiert. Sie erzählen von ihren Erfahrungen.

Der permanente Krieg sichert in Russland und in Kongo die Macht der Kleptokraten. In der Theorie von Clausewitz führt der Krieg zu Frieden. In der Praxis verfolgen Diktatoren aber oft die Strategie des andauernden Krieges: Die Gewalt bemäntelt die eigentliche Schwäche, sie ermöglicht die Ausbeutung des Landes und den Machterhalt.

Aussi dans cette rubrique

Sexe biologique, identité de genre et orientation sexuelle LGBTIQ+ – Tout ce qu’il faut savoir

Une femme est une femme et un homme est un homme. L'idée paraît simple, mais, en réalité, le sujet est bien plus complexe. Nous apportons des éléments d’information dans le contexte de ce vif débat.

FNR
Entretien Comment se développent l'identité de genre et la sexualité ?

Les thématiques LGBTIQ+ doivent-elles être abordées dans l’enseignement ? Cette question sera bientôt débattue au parlement. Nous avons sollicité l'avis d'un expert international.

FNR
VÉRIFICATION DES FAITS Ziel mir keng: Qu’est-ce que cela signifie d’être pauvre ?

Qu’est-ce que la pauvreté au juste ? Comment peut-on la mesurer ? Et quelles sont les conséquences pour les gens qui vivent dans la pauvreté ?

FNR