Tomer Libal, Forscher an der Universität Luxemburg und Assistenzprofessor an der American University of Paris

Infobox

Biografie

Tomer Libal ist Forscher im Department für Informatik an der American University of Paris und leitender Forscher mehrerer Projekte an der Universität Luxemburg. Er konzentriert sich hauptsächlich auf symbolische und hybride Ansätze zu KI und Recht.

Anfang Februar 2023 machte die Meldung die Runde, dass ein Richter in Kolumbien erstmals mit Hilfe des KI-Bots ChatGPT ein Urteil gesprochen hat. Während so etwas in der Öffentlichkeit als Missbrauch bewertet wird, arbeitet die KI-Forschung bereits an einer neuen ethisch korrekten Künstlichen Intelligenz.

 

Nicht nur im Bereich des Rechts fürchten Viele, dass sie unter Fehlentscheidungen einer Künstlichen Intelligenz leiden könnten. Eine einfache Lösung wäre, den Einsatz von KI zu boykottieren oder zu verbieten. Dann hätte sich auch der Hype erledigt, der derzeit um den Bot ChatGPT und die US-Firma OpenAI gemacht wird, die ihn entwickelt hat.

"ChatGPT und ähnliche KI-Systeme werden immer mehr Verbreitung finden werden, weil die Technologie sehr leistungsfähig ist und viele Vorteile hat. Dabei ist sie definitiv unzuverlässig, das geben die Hersteller in ihren Haftungsausschlüssen selbst zu. ChatGPT sollte deshalb nur experimentell als eine Art Spielzeug genutzt werden - die Menschen setzen die KI aber trotzdem im echten Leben ein, weil sie eine Menge Zeit spart. Und dafür gehen sie auch das Risiko ein, dass sie Fehler macht. Auch ich benutze ChatGPT häufig. Ich tue nichts Hochriskantes, aber ich benutze die KI zum Beispiel, um Informationen zu suchen oder spezielle Beispiele zu finden. Es geht viel schneller als die Suche mit der Suchmaschine von Google. Nichts wird die Menschen davon abhalten, eine KI auch dann zu benutzen, wenn viel auf dem Spiel steht.

Denken sie mal an einen Arztbesuch: Sie erzählen dem Arzt ihre Geschichte, und der schreibt dann meist mit – oft auch direkt am Computer. Sie werden es nicht bemerken, wenn er anstatt zu protokollieren ChatGPT nach einer Diagnose fragt."

Wenn ich dadurch besser behandelt werde und es meiner Gesundheit guttut, kann mir das doch sogar recht sein.

"Hier kommt eines der Probleme von ChatGPT zum Tragen. Der Bot antwortet immer, selbst wenn er über etwas nur wenige Daten hat und die Antwort deshalb sehr unzuverlässig ist. Und er benennt diese Unsicherheit auch nicht. Ein guter Arzt würde dagegen in solch einem Fall sagen: ich weiß die Antwort nicht, gehen sie zu einem Experten. Meiner Meinung nach ist eine solche generative KI zwar sehr nützlich, zugleich aber auch sehr gefährlich. Wir brauchen deshalb in Zukunft klare Vorschriften für die Anwendung von KI."

Infobox

Generative KI

Generative KI ist die neuere Form der Künstlichen Intelligenz, die die neuronalen Netze des Gehirns als Vorbild hat. Dieses Maschinenlernen (bzw. Deep Learning) verwendet Daten aus unterschiedlichen Quellen, mit deren Hilfe es sich selbst trainiert (Bottom-up-Ansatz). Besonders effektiv ist diese Methode, wenn es um sehr viele Daten geht, deren Verarbeitung Menschen überfordern würde. Dafür ist ein Algorithmus zuständig. Der Computer löst auf diese Weise Probleme ohne menschliches Eingreifen. Die Regeln, nach denen eine Generative KI eine Lösung kreiert, sind nicht nachvollziehbar. Maschinenlernen stellt insofern eine „Black Box“ dar

Infobox

Symbolische KI

Symbolische KI ist die ältere Form der Künstlichen Intelligenz, auch Good Old-Fashioned AI (GOFAI) genannt. Sie basiert auf der Vorstellung, dass menschliches Denken unabhängig von konkreten Erfahrungen auf einer logischen Struktur basiert. Diese wird auf einer begrifflich-symbolischen Ebene rekonstruiert und in ein Computerprogramm eingespeist (Top-down-Ansatz). Eine Symbolische KI beinhaltet dementsprechend menschliche Wissens- und Verhaltensregeln und sind in deren Code sichtbar. Damit ist sie im Gegensatz zum Maschinenlernen eine „transparente Box“.

Meiner Meinung nach sollten alle Inhalte, die von einer generativen KI stammen, gekennzeichnet werden und im Web ist das besonders wichtig!

Tomer Libal 

Wie sollen solche Vorschriften aussehen?

Im Dezember 2022 hat der Rat der EU ein neues Gesetz über künstliche Intelligenz skizziert. Demzufolge gibt es klar verbotene Praktiken und Hochrisikosysteme, die besonders reguliert werden müssen. Und dazu gehört der Gesundheitsbereich.

 

Brauchen wir aus Ihrer Sicht zusätzlich eine generelle Kennzeichnungspflicht im Web für Inhalte, die von einer KI kommen?

Schon heute gibt es einige Bereiche, in denen angegeben werden muss, ob eine KI verwendet wurde. Zum Beispiel auch in der akademischen Welt. Bei einigen Publikationen, Konferenzen oder Veranstaltungen ist es verboten, ChatGPT oder eine andere KI zu verwenden. Bei anderen reicht es aus, die Herkunft zu nennen, wie andere Quellen auch. Wenn ein Inhalt von einer generativen KI stammt, ist nicht transparent, wie zuverlässig der ist. Meiner Meinung nach sollten solche Inhalte immer gekennzeichnet werden und im Web ist das besonders wichtig!

 

Um so etwas durchsetzen zu können, muss man ja erst einmal herausfinden, welche Inhalte von einer KI stammen!

Es gibt Werkzeuge dafür, die aber auch wieder KI verwenden. Einige Unternehmen entwickeln derzeit solche Tools.

 

Wie funktioniert das?

Das ist nicht mein Fachgebiet, aber eine KI zur Erkennung solcher Inhalte ähnelt einer zu deren Erzeugung. Sie analysiert die Wortkombination, um zu erraten, ob bei diesem Text eine hohe Wahrscheinlichkeit besteht, dass er von einer KI erzeugt wurde. Aber natürlich kann man auch eine generative KI erschaffen, die zum Beispiel kleine Fehler einbaut und auf diese Weise vielleicht nicht erkannt wird.

 

Einige Unternehmen entwickeln gemeinsam ein System gegen Fake News, mit dem sich der Ursprung der Inhalte im Web zurückverfolgen lässt.

Tomer Libal 

Ist das auch relevant im Zusammenhang von Fake News?

Fake News sind tatsächlich sehr empfänglich für generative KI. Mit Hilfe von Künstlicher Intelligenz lassen sich mit geringem Aufwand falsche Inhalte generieren, die aber sehr echt aussehen – Bilder zum Beispiel.

Es gibt auch Anstrengungen, das zu unterbinden. Einige Unternehmen entwickeln gemeinsam ein System gegen Fake News, mit dem sich der Ursprung der Inhalte im Web zurückverfolgen lässt. Und dieses Projekt wird von der Europäischen Kommission unterstützt. Der Standard heißt C2PA. Dafür wird ein Verhaltenskodex unter der Führung von Microsoft entwickelt. Demzufolge muss sich jedes Bild, oder jeden Text rückverfolgen lassen. Dann sieht man, wann ein Text oder ein Bild zum ersten Mal hochgeladen wurden. So lässt sich die Quelle identifizieren und ihre Vertrauenswürdigkeit prüfen. Man kann niemanden zwingen, diesen Standard zu verwenden, aber man kann z.B. Zeitungen oder Zeitschriften dazu verpflichten, nur Inhalte zu veröffentlichen, die rückverfolgbar sind oder zumindest anzugeben, ob sie rückverfolgbar sind oder nicht.

Die Idee dahinter ist, Menschen aufzuklären und ihnen ein Werkzeug an die Hand zu geben, mit dem sie selbst entscheiden können, ob sie einer Quelle vertrauen oder nicht.

Wenn man jedoch einen genauen Herkunftsnachweis haben will, müsste jeder, der etwas hochladen will, sich vorher in ein System einloggen und identifizieren. Sie sehen, das ist die Kehrseite der Medaille. Denn wenn alles auf den jeweiligen Urheber rückverfolgbar ist, ist das unvereinbar mit der Datenschutz-Grundverordnung.

 

Nicht nur das Thema Datenschutz ist schwierig, KI ist ein Bereich, in dem es bisher nur wenige erfolgreiche Akteure gibt. Steuern wir mit ChatGPT vielleicht sogar auf ein KI-Monopol zu?

Im Prinzip gibt es ja Konkurrenz, und die beste KI setzt sich durch. Deshalb sehe ich hier nicht unbedingt ein ethisches Problem. Wenn jedoch ein Marktführer Daten speichert, und diese Daten dann dafür nutzt, seine Vorrangstellung auszubauen, sieht es anders aus. Die KI von ChatGPT z.B. lernt mit allen Anfragen ständig dazu und kann zusätzlich speichern, wer welche Fragen stellt. Das lässt sich kommerziell nutzen, wie wir von Google beispielsweise wissen. Wenn das also zu einem Monopol führt, liegt eindeutig ein ethisches Problem vor. Ich gehe davon aus, dass es regulatorische Möglichkeiten geben wird, so etwas zu verhindern.

Ein Chatbot kann Klienten in einer Kanzlei willkommen heißen und fragen, um was es geht, und das vielleicht sogar besser als Rechtsanwaltsfachangestellte.

Tomer Libal

Das Rechtssystem kann KI regulieren – gleichzeitig verändert KI aber auch das Rechtssystem. Was ändert sich bei den Rechts-Berufen?

Die Veränderung hat schon mit der Digitalisierung begonnen. Früher gab es viele Rechtsanwaltsfachangestellte. Ich habe mir mehrere Studien dazu angesehen und deren Zahl ist in den letzten 20 Jahren stark zurückgegangen. Eine KI kann tatsächlich viele der Aufgaben von Rechtsanwaltsfachangestellten übernehmen, aber nicht alle.

 

Welche, zum Beispiel?

Beim Onboarding von Mandanten können Sie einen Chatbot einsetzen. Der kann die Klienten in einer Kanzlei willkommen heißen und fragen, um was es geht, und das vielleicht sogar besser als Rechtsanwaltsfachangestellte. Denn ein Bot ist sofort bereit, so dass niemand warten muss. Außerdem kann eine KI Besprechungen planen und auch andere Sekretariatsarbeiten erleichtern. Dann könnte es für Anwälte praktischer sein, die wenigen verbleibenden Aufgaben, dann selbst zu erledigen.

Auf der anderen Seite gibt es Berufe, die sich durch die KI völlig verändert haben, aber immer noch wichtig sind, zum Beispiel juristische Übersetzer. Früher haben die selbst übersetzt und in Zweifelsfällen ein Wörterbuch zu Rate gezogen. Heute verwenden sie Tools, die auf neuronalen Netzen basieren, wie z.B. die DeepL Translation Engine. Aber da bei juristischen Übersetzungen jede feine Nuance wichtig ist, besteht die deren neue Aufgabe darin, die Maschinenübersetzungen sorgfältig zu redigieren. So wurden die juristischen Übersetzer zu Post-Editoren, aber sie sind immer noch notwendig.

Die KI verändert den Bereich des Rechts eher im Sinne einer Unterstützung des Menschen und nicht, indem sie ihn ersetzt. Im Moment werden tatsächlich nur sehr wenige Berufe von KI verdrängt.

 

Wie sieht es mit den Rechtsanwälten selbst aus? Eine KI kann ja zum Beispiel auch Verträge schreiben.

Eine Generative KI kann mit dem Erstellen von Dokumenten wunderbare Dinge tun, durch die Juristen viel Zeit sparen. Ich gehe davon aus, dass Juristen KI ständig nutzen, auch für Verträge. Dabei gehen auch sie das Risiko ein, dass die Lösung einer KI nicht perfekt ist. Aber deren Qualität wird immer besser.

 

Es steht dem Menschen in solch einem Fall ja frei, das Ergebnis der Maschine zu prüfen.

Das wäre die perfekte Lösung. Das ist ja auch genau das, was juristische Übersetzer tun: Sie redigieren das Ergebnis der KI. Dies ist auch ein Beispiel dafür, dass KI nicht die Menschen ersetzt, sondern nur den Arbeitsprozess verändert. Der Beruf des Rechtsanwalts verschwindet nicht, die Stellenbeschreibung ändert sich nur.

 

Welche Veränderungen gibt es noch?

Heute werden viele juristische Recherchen mit Hilfe von KI durchgeführt. Wenn sie ein junger Anwalt sind, der an der Universität studiert, müssen sie wissen, wie man diese Werkzeuge nutzt. Auch später im ersten Job müssen sie gerade am Anfang viele juristische Recherchen durchführen. Und das macht eine KI schneller und besser als der Mensch.

Wenn sie beispielsweise nach einem Gerichtsurteil zu einem bestimmten Thema suchen, stehen Ihnen durch KI sehr leistungsfähige Suchwerkzeuge zur Verfügung - zum Beispiel, wenn sie nach einer bestimmten Gerichtsentscheidung suchen, die im Widerspruch zu einer anderen Entscheidung steht. Es geht dabei um die Bedeutung einer Entscheidung. Nach so etwas können sie mit einer KI tatsächlich suchen. Das ist sehr weit verbreitet, zum Beispiel für Due-Diligence-Prüfungen. Dabei geht es beispielsweise um die Qualität eines Unternehmens, im Kontext einer Übernahme.

Für andere komplexe Aufgaben, bei denen eher wenige Daten von Bedeutung sind, gilt das bisher noch nicht. Wenn sie ein sehr erfahrener Anwalt sind, haben sie wahrscheinlich weniger mit KI zu tun, als ein junger Anwalt.

Die Rolle des Richters besteht nicht nur darin, Entscheidungen auf der Grundlage früherer Fälle zu treffen, sondern auch darin, auf gesellschaftliche Veränderungen einzugehen.

Tomer Libal 

Wie stark wird KI denn im Bereich des Rechts eingesetzt, gerade in Luxemburg?

Aus Luxemburg sind mir keine speziellen Beispiele bekannt, außer bei Anwälten. Ich habe im Dezember 2022 an einer Konferenz in Saarbrücken teilgenommen, und dort war der Tenor, dass von Richtern bis zum Aufkommen von ChatGPT oder ähnlicher Tools nicht viel KI eingesetzt wurde.

Aber aus Kolumbien gibt es so ein Beispiel: Dort hat ein Richter ChatGPT für eine Entscheidung herangezogen. Bei dem Fall ging es, glaube ich, um die medizinische Versorgung eines Kindes. Und der Richter hat ChatGPT benutzt, um zu fragen, ob das Kind einen Anspruch hat oder nicht. Und die KI gab eine Antwort. Die hat der Richter übernommen und behauptete, er habe anschließend alle Fakten überprüft, die die KI verwendet hat.

 

Reicht es denn aus, die verwendeten Quellen zu prüfen? Vielleicht ist ja auch die Argumentation der Gegenseite mit korrekten Quellen untermauert?

Ganz genau. Im juristischen Bereich geht es immer um Abwägungen. Wenn man also einen Fall hat und tatsächlich beweisen kann, dass das Argument richtig ist, könnte es trotzdem ein Gegenargument geben, das auch richtig ist. Das könnte auch für ein weiteres Argument gelten, das keine der Parteien vorgebracht hat. Dazwischen abzuwägen, ist die Aufgabe eines Richters.

Wenn es eine vom Gesetz abweichende Rechtspraxis gäbe, die seit vielen Jahrzehnten Einwanderer benachteiligt. Dann könnte ich mich Dank KI als Straftäter darauf verlassen, dass diese Praxis fortgesetzt wird.

Tomer Libal 

Bei vielen Urteilssprüchen muss eine sehr große Zahl an komplexen Daten berücksichtigt werden. Könnte da eine Maschine nicht wirklich besser sein, als der Mensch? Was halten sie von einer KI-Rechtsprechung?

Es gibt ein grundsätzliches Problem, das dagegen spricht: Die Rolle des Richters besteht nicht nur darin, Entscheidungen auf der Grundlage früherer Fälle zu treffen, sondern auch darin, auf gesellschaftliche Veränderungen einzugehen. Das bedeutet, bewusst und gut begründet von der bisherigen Praxis abzuweichen.

Darauf wies auf der Konferenz in Saarbrücken Paul Nemitz hin. Der ist Berater für Rechts- und Justizpolitik. Ihm zufolge muss die Rechtsprechung über das hinausgehen können, was sie bisher hervorgebracht hat. Wenn zum Beispiel bei Urteilen immer nur die alten Urteile wiederholt werden, dann wird sich nie etwas ändern. So gerät man in eine Art Blase.

 

Wie muss ich mir das vorstellen? Können Sie dazu bitte ein Beispiel geben.

Nehmen wir an, eine Gesellschaft ändert sich. Es gibt zum Beispiel mehr Menschen mit Migrationshintergrund. Das kann dazu führen, dass die alte Urteilspraxis nicht mehr angemessen ist. Aber eine Rechtsprechung, die sich auf eine Generative KI stützt, kennt ja nur die Daten der Vergangenheit und wird auf dieser Basis eine Urteilspraxis zementieren, ohne die veränderten Umstände zu berücksichtigen. Solch ein Roboter-Richter bliebe auf ewig in seiner Welt der Vergangenheit gefangen. Und das könnten Straftäter sogar gezielt nutzen.

Profiling ist etwas sehr Gefährliches. (…) Es wird also aus gutem Grund verboten, soziale Entscheidungen auf der Grundlage von menschlichen Merkmalen zu treffen, insbesondere von gefährdeten Menschen.

Tomer Libal 

Wie wäre das möglich?

Ein extremes Beispiel: Wenn es eine vom Gesetz abweichende Rechtspraxis gäbe, die seit vielen Jahrzehnten Einwanderer benachteiligt. Dann könnte ich mich Dank KI als Straftäter darauf verlassen, dass diese Praxis fortgesetzt wird. Ich könnte also gegen das Gesetz handeln, ohne eine Strafe befürchten zu müssen. Und die Justiz würde immer weiter solche Entscheidungen auf der Grundlage der Vergangenheit treffen und damit diese Voreingenommenheit sogar noch verstärken.

 

In Estland wird KI bereits eingesetzt, um über Strafzettel für illegales Parken zu entscheiden und auch im Zivilrecht bei einem Streitwert unter 7000 €. Ist das für Sie in Ordnung?

Ich glaube wirklich, dass KI in solchen Fällen sehr hilfreich sein kann, dies ist meine subjektive Meinung. Das Motiv dahinter ist, dass sich Richter auf schwerere Verbrechen und schwerere Fälle konzentrieren sollen – gerade, wenn es bei diesen Fällen einen großen Arbeitsrückstand gibt.

Es ist aber klar, dass eine generative KI, die auf maschinellem Lernen basiert, Fehler machen kann. Denn sie basiert auf Statistik. Das birgt das ethische Problem, dass das Urteil einer KI nicht gerecht sein kann.

 

Bei welchen Fällen besteht diese Gefahr denn besonders?

Solche Fehlurteile einer KI betreffen normalerweise Fälle, die nicht so häufig vorkommen. Wenn ein Fall zum Beispiel vom Geschlecht, Migrationshintergrund oder anderen Merkmalen einer Person abhängt, kann man sehr viel Unrecht tun. Aber das ist das Risiko, das eine Regierung vielleicht eingehen will, um sicherzustellen, dass ihr Justizsystem als Ganzes besser funktioniert.

 

Auch beim Thema Falschparken wäre eine rassistische Diskriminierung nicht akzeptabel. Im Justizsystem der USA entscheidet eine KI sogar darüber, wer eine gute Prognose hat und Haftverschonung bekommt und wer nicht (das Programm heißt COMPAS, Correctional Offender Management Profiling for Alternative Sanctions). Was sagen Sie dazu?

Im Vergleich zu einer Ordnungswidrigkeit hat das eine ganz andere Qualität. Wenn man solche Entscheidungen auf Grundlage einer KI treffen will, ist das viel gefährlicher. Denn dafür muss man Profile von Menschen erstellen. Selbst wenn man dabei zum Beispiel keinen Migrationshintergrund einbezieht, sondern nur den Beruf, könnte der aber mit einem Migrationshintergrund verknüpft sein, so dass es auf Dasselbe hinausläuft. Es ist nicht so einfach, solch eine Entscheidung zu treffen, ohne dass es ethische Probleme gibt. Und ich bin sicher, dass es in diesem Fall unmöglich ist. Profiling ist etwas sehr Gefährliches. Und das KI-Gesetz, das in der EU eingeführt werden soll, verbietet Profiling ausdrücklich. Es wird also aus gutem Grund verboten, soziale Entscheidungen auf der Grundlage von menschlichen Merkmalen zu treffen, insbesondere von gefährdeten Menschen.

In den Vereinigten Staaten hat man beim Einsatz von KI einen anderen Ansatz. Dort geht es mehr um Wettbewerbsfähigkeit und Kommerz. In Europa reguliert man KI viel stärker, und das kann der Wettbewerbsfähigkeit auch schaden.

Auch wenn wir nicht verstehen, warum das maschinelle Lernen eine Lösung gefunden hat, können wir sie mit einer symbolischen KI analysieren und sicherstellen, dass sie einer Reihe von ethischen Regeln entspricht.

Tomer Libal 

Gehen wir noch einen Schritt weiter: Eine KI, die über Leben und Tod entscheidet – beim autonomen Fahren beispielsweise. Sollten wir so etwas zulassen?

Die Entscheidungen beim autonomen Fahren hängen vom maschinellen Lernen ab. Und das birgt verschiedene Probleme: Wer ist verantwortlich, wenn das Auto einen Unfall baut? Der Fahrer ist es nicht, denn die Idee des autonomen Fahrens beruht ja darauf, dass das System die Entscheidungen trifft. Auf der anderen Seite kann man auch den Algorithmen nicht die Schuld geben, die ja nur Befehle ausführen. Aber auch die Programmierer sind nicht verantwortlich, weil das System ja selbstlernend ist und auf Daten basiert. Und auch Diejenigen, die für das Sammeln der Daten verantwortlich sind, kann man nicht zur Verantwortung ziehen, denn es sind zu viele Daten, um sie zu überprüfen.

Bei solch einer Anwendung trifft das System eine Entscheidung, ohne dass die Regeln bekannt sind, nach denen Entschieden wurde.

 

Wieso kennt man die Regeln nicht?

Eine auf Maschinenlernen basierende KI ist sehr genau und trifft ihre Entscheidungen auf der Grundlage von sehr vielen Daten. Aufgrund dieser Datenflut und den Strukturen des Maschinenlernens bleiben die Entscheidungen für uns Menschen intransparent.

 

Könnten Sie das bitte konkreter beschreiben.

Nehmen wir also an, dass das Auto eine Entscheidung treffen muss. Es steuert auf ein Kind auf der Straße zu, und wenn es ausweicht, tötet es einen Erwachsenen. Wie auch immer die KI entscheidet, sie wird jemand töten. Wenn man es also dem maschinellen Lernen überlässt - ich weiß nicht genau, was das Ergebnis sein wird - aber es könnte sein, dass die generative KI es für das insgesamt geringere Risiko hält, nicht auszuweichen. Beispielsweise könnte es sein, dass sie berücksichtigt, dass die Insassen des Autos bei einem Ausweichmanöver zu Schaden kommen könnten.

 

Auf welcher Basis entscheidet denn eine KI in dieser Situation?

Auf Grundlage von Daten: Sie weiß, dass das Fahrzeug mit einer bestimmten Geschwindigkeit in eine bestimmte Richtung fährt, in der sich ein Kind befindet. Außerdem weiß sie, dass sich in der einzigen Ausweichrichtung ein Erwachsener befindet. All diese Informationen werden in die generative KI gespeist und das maschinelle Lernen liefert eine Entscheidung, ohne dass die Regeln dafür nachvollziehbar sind.

 

Wie könnte denn eine KI für autonomes Fahren aussehen, deren Regeln nachvollziehbar sind?

Es gibt tatsächlich solch einen Ausweg, der auch in anderen Bereichen helfen kann: Ich kann zwei unterschiedliche Formen von KI kombinieren. Dabei macht eine KI, die auf Maschinenlernen und neuronalen Netzen basiert, einen Entscheidungsvorschlag. Dieser Vorschlag wird dann von einer zweiten KI kontrolliert. Das ist eine klassische Symbolische KI, die nach klar vorgegebenen ethischen Regeln prüft. Ganz vereinfacht, könnte die Regel programmiert sein, im Zweifelsfall nie ein Kind, sondern stattdessen einen Erwachsenen zu töten. Nur als Beispiel, ich weiß nicht, ob das eine gute ethische Theorie ist.

Das heißt, das wäre eine Hybridsystem, bei dem eine Symbolische KI dem Maschinenlern-Algorithmus sagen würde, dass dessen Entscheidung, nicht auszuweichen, unethisch ist. Sie muss revidiert werden. Die Entscheidungen des maschinellen Lernens werden also nach ethischen oder rechtlichen Regeln gefiltert, die von Menschen aufgestellt wurden. So kann die Verantwortung den Personen zugeschrieben werden, die die Regeln aufgestellt haben. Auch wenn wir nicht verstehen, warum das maschinelle Lernen eine Lösung gefunden hat, können wir sie mit einer symbolischen KI analysieren und sicherstellen, dass sie einer Reihe von ethischen Regeln entspricht.

 

Funktioniert so eine Symbolische KI nur im Nachhinein, um eine getroffene Entscheidung zu analysieren oder kann so ein Hybridsystem beim autonomen Fahren wirklich in Echtzeit reagieren?

Eine symbolische KI ist normalerweise langsamer als eine auf Maschinenlernen basierende KI, aber das muss nicht unbedingt so sein. Es hängt vom Einzelfall ab. Ein Hybrid-System, das in Echtzeit Entscheidungen für autonomes Fahren trifft, wäre durchaus vorstellbar.

Eine symbolische KI kann aber auch ohne Zeitdruck verwendet werden, um einen generativen Algorithmus vorab zu trainieren. Sie analysiert dessen Entscheidungen kontinuierlich und gibt Feedback darüber, was erlaubt ist und was nicht. Das wirkt sich dann aber nur auf zukünftige Entscheidungen aus.

 

Ist das so etwas wie eine ethische Erziehung für Maschinen?

Ganz genau. Normalerweise lernt ein Algorithmus beim Maschinenlernen vom Benutzer. Er kann aber auch von einer symbolischen KI lernen, bestimmte Regeln einzuhalten.

Man kann sich zum Beispiel auch vorstellen, eine hybride KI zu verwenden, um synthetische Beispiele zu erzeugen. Die Idee dabei ist, dass auf Maschinenlernen basierende KI nicht alle Szenarien für autonomes Fahren kennt. Das gilt besonders für sehr seltene, sehr unwahrscheinliche Szenarien. Wenn eine Generative KI in einer solchen Situation entscheiden muss, fehlen ihr Daten und ihre Entscheidung ist entsprechend unzuverlässig. Das kann durch Trainingsbeispiele ausgeglichen werden, die von einer symbolischen KI kreiert werden. Es gibt viele Möglichkeiten, wie symbolische und generative KI zusammenspielen können. Diese neue Form der KI wird in der Forschung immer beliebter. Dagegen wird sie in der Industrie noch nicht so häufig eingesetzt.

 

Wo könnte denn solche ein KI-Hybridsystem noch eingesetzt werden?

Wenn ChatGPT zum Beispiel ein juristisches Urteil fällt, könnte der Bot keine Begründung dafür liefern. Das könnte dann eine zweite Symbolische KI übernehmen. Sie würde das Urteil auf Basis von zuvor eingespeisten Regeln rekonstruieren und überprüfen.

Diese Zusammenarbeit unterschiedlicher Formen der KI schränkt die Leistung der auf maschinellem Lernen basierenden Generativen KI zwar etwas ein, aber es ermöglicht ethischen Aspekte einzubringen und Ergebnisse erklärbar und überprüfbar zu machen.

 

Interviewer und Autor: Reinhart Brünig
Editoren: Jean-Paul Bertemes, Lucie Zeches (FNR) 

Auch in dieser Rubrik

Finanzen und Steuern Steuerlast und Kaufkraft: wie gerecht ist unser Steuersystem?

Trotz Steuersenkungen zum 1. Januar 2024 ebben die Forderungen nach Steuerreformen und weiterer Entlastung der Erwerbstätigen nicht ab. Was eine Forscherin zur Steuergerechtigkeit sagt.

Lindsay B. Flynn
Wohnungspolitik Teures Wohnen in Luxemburg: ein sozialer Sprengstoff

Extreme Mieten, Grundstückspreise, Kreditraten: Wohnen wird für immer mehr Menschen zur Existenzfrage. Prof. Lindsay Flynn von der Universität Luxemburg über Wohnungspolitik und ihre Wirkung.

Nobel Prizes 2023 Nobel prize in economics: Research in Luxembourg on gender differences in the labour market

Economist Dr. Eva Sierminska comments on the Nobel laureate's work, which is related to her own research at LISER.

KI im Wirtschaftssystem Wie Künstliche Intelligenz das Wirtschaftssystem verändert

In einem Interview erläutert Dr. Alexandru-Adrian Tantar vom LIST unter anderem, wie KI den Wirtschaftsbereich verändern wird und ob diese Technologie die Entstehung von Monopolen begünstigt.