Der heutige Nobelpreis für Physik wurde an John Hopfield and Geoffrey Hinton für ihre „grundlegenden Entdeckungen und Erfindungen“ im Bereich maschinelles Lernen vergeben. Maschinelles Lernen (ML) ist ein Teilbereich der Künstlichen Intelligenz (KI), in der Computer eingesetzt werden, um aus Daten zu lernen und Muster zu erkennen. ML-Algorithmen benutzen mathematische Modelle, um Vorhersagen oder Entscheidungen zu treffen.

Wir haben mit zwei Experten von der Universität Luxemburg über den Nobelpreis gesprochen: Prof. Christoph Schommer, Associate Professor in Artificial Intelligence, und Prof. Alexandre Tkatchenko, Full professor in Theoretical Condensed Matter Physics. Beide nutzen Machine Learning in ihrer Forschungsarbeit.

 

Können Sie in ein paar Sätzen den heutigen Nobelpreis erklären? Inwiefern ist er im Bereich Machine Learning und KI-Forschung gerechtfertigt?

Prof. Schommer: „Der Nobelpreis ist an zwei Wissenschaftler vergeben worden, die beeindruckende Pionier-Arbeit geleistet haben. Erste Anfänge finden sich bereits in den 60er Jahren. Die Grundidee war, mit Hilfe mathematischer Modelle die neuronalen Aktivitäten zu simulieren, sprich, die Funktionsweise des menschlichen Gehirns nachzuahmen. ML ist nicht nur ein mathematisches Modell, sondern eine interdisziplinäre Disziplin, die der Bionik naheliegt: die Natur wird als Vorbild genommen. Im Laufe der Zeit ist es zu einer fantastischen Weiterentwicklung gekommen.“

Prof. Tkatchenko: “Machine Learning is a set of methods which is trained on data. It is trying to make a representation of the problem you are interested in, given data. That is very different from the traditional physical approach, where you first have a model with a fixed representation that you can then adjust with the data. Here, you do it the other way round. That change in perspective is quite revolutionary.

The first artificial neural networks that have been developed, the Hopfield networks (Ed. note: named after the current Nobel Prize winner, see infobox), came from statistical physics; they were the first generation. Then the algorithms were trained and made more powerful, and now they are used in all domains of science and technology. For that reason, for that fundamental, foundational development, the Nobel Prize is very justified.”

 

Welchen Einfluss hatte ML auf Ihren eigenen Werdegang?

Prof. Schommer: „Die 80er Jahre wurden durch die Weiterentwickelung der KI im Allgemeinen und auch der neuronalen Netzwerke im Speziellen geprägt. Damals habe ich die Hopfield Netzwerke (NDLR: benannt nach dem heutigen Nobelpreisträger, siehe Infobox), andere Neuronale Netz-architekturen und auch den Konnektionismus studiert und war sofort fasziniert von der Frage, ob und wenn ja, wie wir künstlich das kognitiv-bedingte Problemlösen simulieren können. In einer meiner Arbeiten beschäftigte ich mich der Disambiguierung von mehrdeutiger Sätzen, also etwa syntaktisch mehrdeutigen Sätzen ("Peter sieht Susan mit dem Fernrohr" - wer hat das Fernrohr?) oder Sätzen, in denen ein Wort mehrere Bedeutungen haben kann ("The astronomer marries a star" was bedeutet „star“?). Im Übrigen übersetzen die gängigen Übersezungssystem den Satz "The astronomer marries a star" immer noch falsch - probieren Sie es doch mal aus!“

Prof. Tkatchenko: “My bachelor’s degree was in computer science, but neural networks at the time were not very impressive. They were already very interesting though as a tool for developers. You could use neural networks to compress songs in WAV format; that was before we had MP3. You lost some accuracy, but the song was recognisable.

10 years later, ML was a completely different field. It was not so much a single breakthrough, rather than multiple ones in many directions that revolutionised ML: computer hardware, software, algorithms… This is why NVIDIA is now a 3 trillion Dollar company! The computer architecture is becoming more and more powerful, and that makes our progress in quantum chemistry and physics possible.”

Ein Hopfield-Netzwerk ist ein rekurrentes neuronales Netzwerk, das als assoziatives Gedächtnis dient. Es wurde von John Hopfield in den 1980er Jahren entwickelt und ist in der Lage, Muster zu speichern und abzurufen. Hier sind einige zentrale Merkmale:

  1. Architektur: Ein Hopfield-Netzwerk besteht aus einer Schicht von Neuronen, die miteinander verbunden sind. Jedes Neuron ist mit jedem anderen verbunden, jedoch nicht mit sich selbst.
  2. Speicherung von Mustern: Das Netzwerk kann eine Anzahl von Mustern speichern, indem es die Gewichtungen zwischen den Neuronen entsprechend anpasst.
  3. Abruf von Mustern: Wenn das Netzwerk mit einem Teilmuster oder einem verrauschten Muster gefüttert wird, kann es das ursprüngliche Muster rekonstruieren. Dies geschieht durch das Anwenden von Energieminimierungsprinzipien.
  4. Energiefunktion: Ein Hopfield-Netzwerk hat eine Energie-Funktion, die die Stabilität der gespeicherten Muster beschreibt. Das Netzwerk tendiert dazu, in Zustände mit niedrigerer Energie zu konvergieren, was den Abruf gespeicherter Muster erleichtert.

Hopfield-Netzwerke finden Anwendung in verschiedenen Bereichen, einschließlich Mustererkennung, Optimierungsproblemen und sogar in der Biologie zur Modellierung neuronaler Prozesse.

 

Welche Forschung betreiben Sie und Ihr Team im Bereich Machine Learning?

Prof. Schommer: „Wir benutzen ML in unzähligen Gebieten. Das spannende an dieser Technologie ist ihre Vielseitigkeit: da sie ein Werkzeug zur Problemlösung darstellt, kann man sie in nahezu jedem Bereich verwenden. Wir arbeiten an Chatbots, die die Kommunikation zwischen Menschen stimulieren sollen, an der (semi-)automatischen Zusammenfassung von Texten, an Themen aus dem Bereich der Künstlichen Kreativität (was unterscheidet ein Deep Fake von einem Meistergemälde?); selbst in Fächern wie Ethik, Jura oder Historie arbeiten wir an Themen, die die Auswirkungen von Machinellem Lernen für die Gesellschaft  betreffen. Aktuell entwickeln wir z.B. auch ein Lernsystem, um den ersten Weltkrieg zu erklären, in Zusammenarbeit mit dem C2DH."

Prof. Tkatchenko: “What we really do is building tools. At the moment, we are making foundation models (like ChatGPT) of biomolecular dynamics. Basically, we are developing a specialized model trained on all the data that we and others have produced over the last 20 years on quantum mechanical calculations of molecular fragments. We demonstrate that once we train such a model, we can apply it to simulate biomolecular systems that are not there in the data. This means that we can assess a much larger range of questions. All biomolecules are dictated by quantum mechanical interactions; so, once you have a model that has learned those interactions from the data, in principle, eventually you could even simulate a whole cell. This really pushes the field.

In quantum chemistry, ML produces a lot of useful data. For example, you can calculate the properties of drugs (like bioavailability) or of materials like solar cells. ML changes the way that we ask scientific questions: what if I want a molecule or a material that has all the properties that I need, instead of computing the properties of a set of molecules?”

 

Welche Risiken birgt diese Technologie?

Prof. Schommer: "Es gibt in der Tat gewisse Nachteile, etwa die Erklärbarkeit von Ergebnissen oder die Anwendung von Programmierbibliotheken, ohne die darin enthaltenen Architekturen komplett zu verstehen. Das führt eben auch dazu, dass man Ergebnisse annimmt und sich darauf verlässt, jedoch nicht die nötigen Grundkenntnisse besitzt, sie in Frage zu stellen."

Prof. Tkatchenko: “To me, AI is more intelligent than us in many domains, but much more ignorant in others. The danger comes from not understanding the tools we use. If we use an algorithm without understanding how it works, and this leads to new results, is this really a breakthrough, or a hallucination? With Chat GPT, those hallucinations are easy to debunk but in molecular simulations, things are much more complicated. That could be a danger.

On the other hand, we still don’t understand in all glorious details why planes fly (and when they fail), but we still use them daily. So, it’s perfectly fine to use ML, but we have to decompose it little by little to understand all the pieces. One needs new standards for new science, and ML is a new science.”

 

Autor: Diane Bertel
Editor: Michèle Weber (FNR)

Auch interessant

KI im Wirtschaftssystem Wie Künstliche Intelligenz das Wirtschaftssystem verändert

In einem Interview erläutert Dr. Alexandru-Adrian Tantar vom LIST unter anderem, wie KI den Wirtschaftsbereich verändern...

Künstliche Intelligenz in der Medizin Wie wird künstliche Intelligenz in der medizinischen Diagnostik eingesetzt?

Wo wird KI in der medizinischen Diagnostik schon in der Praxis benutzt? Wird sie das medizinische Personal ersetzen? Ein...

LIH
SCIENCE-CHECK Kënschtlech Intelligenz: Wat, wéi, wéini?

Kënschtlech Intelligenz: Wat ass dat iwwerhaapt? Wéi funktionnéiert se? A wäerte mer et iergendwann mat enger KI ze di k...

FNR

Auch in dieser Rubrik

Artifizielle Intelligenz
Die Entwickler der Zukunft Wer wird die Software der Zukunft programmieren?

Angesichts der steigenden Nachfrage nach Software gibt es nicht genügend Entwickler um diese zu programmieren. Der Forscher Jordi Cabot erklärt, wer diese Lücke in Zukunft füllen könnte.

KI und Sportstatistik Wer wird Fußball-Europameister?

Mit Hilfe einer KI haben Forscher (u.a. aus Luxemburg) ermittelt, wer am wahrscheinlichsten Europameister wird. Wer? Welche Faktoren bestimmen die Siegeschancen? Und wie wurde die KI trainiert?

Fußball und Wissenschaft BVB: Wird ein luxemburgischer Forscher Borussia Dortmund in Zukunft helfen?

Am 1. Juni spielt Borussia Dortmund gegen Real Madrid im Champions League Finale. In Zukunft könnte der BVB auf die Dienste von Christophe Ley und dem MIDAS-Team der Uni Luxemburg, zurückgreifen

Cybersecurity Cyberangriff auf Luxemburg: Fragen an Experten

Prof. Marcus Völp der Universität Luxemburg über die Cyberangriffe der vergangenen Woche und der Zukunft.