Missing Link: Stephen Wolfram über die Rolle der KI in der Forschung (Teil 1)

Seite 3: Dinge, die in der Vergangenheit funktioniert haben

Inhaltsverzeichnis

Bevor man sich mit den Einzelheiten dessen befasst, was moderne, auf maschinellem Lernen basierende KI bei der "Lösung wissenschaftlicher Probleme" leisten könnte, scheint es lohnenswert, sich daran zu erinnern, was in der Vergangenheit funktioniert hat – nicht zuletzt als eine Art Grundlinie für das, was moderne KI jetzt ergänzen könnte.

Ich selbst setze seit mehr als vier Jahrzehnten Computer und Berechnungen ein, um Dinge in der Wissenschaft zu entdecken. Mein erster großer Erfolg stellte sich 1981 ein, als ich beschloss, alle möglichen Regeln einer bestimmten Art (elementare zelluläre Automaten) aufzuzählen und sie dann auf einem Computer auszuführen, um zu sehen, was sie bewirken:

(Bild: Stephen Wolfram)

Ich war davon ausgegangen, dass bei einfachen zugrundeliegenden Regeln auch das endgültige Verhalten entsprechend einfach sein würde. Aber in gewisser Weise ging der Computer nicht davon aus: Er zählte einfach die Regeln auf und berechnete die Ergebnisse. Und so konnte er, obwohl ich es mir nie vorgestellt hatte, so etwas wie "Regel 30" entdecken.

Ich haben immer wieder ähnliche Erfahrungen gemacht: Ich kann nicht erkennen, wie ein System etwas "Interessantes" tun kann. Aber wenn ich systematisch die Möglichkeiten aufzähle, ist es da: etwas Unerwartetes, Interessantes und "Kluges", das der Computer tatsächlich entdeckt hat. Anfang der 1990er-Jahre habe ich mich gefragt, was die einfachste mögliche universelle Turing-Maschine sein könnte. Ich selbst wäre nie in der Lage gewesen, es herauszufinden. Die Maschine, die den Rekord seit den frühen 1960er-Jahren hielt, hatte sieben Zustände und vier Farben. Aber der Computer ließ mich durch systematische Aufzählung die Maschine mit zwei Zuständen und drei Farben entdecken, die 2007 als universell bewiesen wurde (und ja, es ist die einfachste universelle Turing-Maschine).

(Bild: Stephen Wolfram)

Im Jahr 2000 interessierte ich mich dafür, wie das einfachste mögliche Axiomensystem für die Logik (Boolesche Algebra) aussehen könnte. Das einfachste bis dahin bekannte System umfasste neun binäre (Nand-)Operationen. Durch systematisches Aufzählen von Möglichkeiten fand ich schließlich ein einziges Axiom mit sechs Operationen ((p · q) · r) · (p · ((p· r) · p)) = r (dessen Richtigkeit durch einen automatisierten Theorembeweis bestätigte). Noch einmal: Ich hatte keine Ahnung, dass es dieses Axiom gab, und ich wäre sicherlich nie in der Lage gewesen, es selbst zu konstruieren. Aber allein durch systematische Aufzählung war der Computer in der Lage, ein Ergebnis zu finden, das mir sehr "kreativ" erschien.

Im Jahr 2019 führte ich eine weitere systematische Aufzählung durch, dieses Mal von möglichen Hypergraphen-Umschreibregeln, die der niedrigsten Struktur unseres physikalischen Universums entsprechen könnten. Als ich mir die erzeugten Geometrien ansah, hatte ich das Gefühl, dass ich als Mensch das, was ich sah, grob einordnen konnte. Aber gab es Ausreißer? Ich wandte mich an etwas, das der "modernen KI" näher stand, um die Wissenschaft zu betreiben - die Erstellung einer Merkmalsraumdarstellung visueller Aufnahmen:

Es brauchte mich als Menschen, um es zu interpretieren. Aber ja, es gab Ausreißer. Diese waren praktisch "automatisch entdeckt" worden vom neuronalen Netz, das das Merkmalsraumdiagramm erstellte.

(Bild: Stephen Wolfram)

Ich möchte noch ein weiteres Beispiel aus meiner persönlichen Erfahrung anführen, ein Beispiel ganz anderer Art. Damals, im Jahr 1987, waren wir Teil der Entwicklung von Version 1.0 der heutigen Wolfram Language. Unser Ziel war es, Algorithmen zu entwickeln, um Hunderte von mathematischen Spezialfunktionen über einen riesigen Bereich von Argumenten zu berechnen. Früher hatte man mühsam Reihenapproximationen für bestimmte Fälle berechnet. Unser Ansatz war jedoch anders.

Wir entschieden uns für eine Art maschinelles Lernen und investierten monatelang Computerzeit, um Parameter an rationale Näherungen anzupassen. Heutzutage könnten wir etwas Ähnliches mit neuronalen Netzen anstelle von rationalen Näherungen machen. Aber in beiden Fällen zielt das Konzept darauf ab, ein allgemeines Modell der "Welt", mit der man es zu tun hat (in diesem Fall die Werte spezieller Funktionen), zu finden. Dann versucht man, die Parameter des Modells anhand tatsächlicher Daten zu lernen. Dies ist nicht gerade "lösende Wissenschaft", und es erlaubt einem nicht, "das Unerwartete zu entdecken". Es ist jedoch ein Bereich, in dem "KI-ähnliches" Wissen über allgemeine Erwartungen bezüglich der Glattheit oder Einfachheit es ermöglicht, das Analogon eines wissenschaftlichen Modells zu konstruieren.

Das ist nicht die einzige Aufgabe der Wissenschaft. Die folgenden Abschnitte widmen sich weiteren Aspekten. Was jedoch oft als Kennzeichen erfolgreicher wissenschaftlicher Arbeit galt, ist ihre Vorhersagekraft: Kann vorhergesagt werden, was geschehen wird? Es stellt sich somit die Frage, ob KI dramatisch verbesserte Möglichkeiten für solche Vorhersagen bietet.