
Vor etwa 3,8 Milliarden Jahren löste etwas einen Prozess aus, der zu unserer Entstehung führte. Ob wir diesen Schöpfer nun Zufall, die Gesetze der Physik oder einen Außerirdischen nennen, ist unerheblich. Wichtig ist Folgendes: Nachdem der Mechanismus in Gang gesetzt war, verlor der Schöpfer sofort die Kontrolle darüber. Dieser Mechanismus wurde natürliche Selektion genannt. Heute wiederholt die Menschheit diesen Vorgang – mit ungewissen Folgen.
Was die Menschen tatsächlich geschaffen haben
Wenn gesagt wird, künstliche Intelligenz sei von Menschen geschaffen worden, stimmt das zwar – aber nur unvollständig. Menschen haben drei Dinge geschaffen.
Der erste Algorithmus ist die Backpropagation. Ein neuronales Netzwerk besteht aus Milliarden numerischer Einstellungen, die bestimmen, wie es auf eingehenden Text reagiert. Diese Einstellungen werden Gewichte genannt: Je höher das Gewicht einer Verbindung, desto stärker beeinflusst sie das Endergebnis. Wenn das Modell einen Fehler macht, durchläuft der Algorithmus die gesamte Verbindungskette zurück und berechnet, welche Gewichte zu dem Fehler beigetragen haben – und wie stark jedes einzelne Gewicht daran beteiligt ist.
Die zweite Methode ist der Gradientenabstieg: ein Verfahren zur Korrektur dieser Gewichtungen. Der Algorithmus verschiebt jede fehlerhafte Einstellung schrittweise in eine Richtung mit geringerem Fehler. Ein einzelner Schritt ist kaum wahrnehmbar. Doch Milliarden solcher Schritte werden über Billionen von Beispielen hinweg ausgeführt. Nach und nach findet das Netzwerk eine Gewichtungskombination, die die geringstmögliche Fehlerquote aufweist.
Drittens gibt es die Transformer-Architektur. Vor ihrer Entwicklung lasen Netzwerke Texte sequenziell, Wort für Wort, wie ein Mensch, der laut vorliest. Der Transformer ist anders aufgebaut: Jedes Wort betrachtet gleichzeitig alle anderen Wörter im Text und entscheidet, welche für das Verständnis seiner Bedeutung wichtig sind. Das Wort „Zwiebel“ in einem Satz über einen Gemüsegarten und das Wort „Zwiebel“ in einem Satz über Schießen erhalten unterschiedliche Kontexte – und unterschiedliche Bedeutungen. Dieser Mechanismus ermöglichte moderne Sprachmodelle.
Das ist alles, was Menschen direkt geschaffen haben: ein Regelwerk, nicht mehr. Was entsteht, wenn diese Regeln mit Billionen von Datenpunkten interagieren, ist nicht länger das Produkt menschlicher Planung.
Geoffrey Hinton, der Physik-Nobelpreisträger von 2024 und der „Vater“ der modernen künstlichen Intelligenz, wurde einmal von einem Interviewer mit einer logischen Frage konfrontiert: Wie kann künstliche Intelligenz unverständlich sein, wenn sie von Menschen geschaffen wurde? Hinton antwortete:
„Nein, das haben wir nicht. Wir haben einen Lernalgorithmus entwickelt. Das ist vergleichbar mit der Entstehung des Evolutionsprinzips: Wenn ein Algorithmus mit Daten interagiert, erzeugt er komplexe neuronale Netze, die Aufgaben gut bewältigen. Aber wir verstehen noch nicht vollständig, wie genau das funktioniert.“
Selbst Hinton selbst, der Jahrzehnte seines Lebens diesem Projekt gewidmet hat, versteht es nicht.
Evolution als Präzedenzfall
Mal sehen, was ein „einfacher Algorithmus“ der natürlichen Selektion leisten kann, der ohne Ziel oder Plan gestartet wird.
- Die ersten zwei Milliarden Jahre – nur einzellige Organismen. Kein Hinweis darauf, was danach geschehen würde.
- Dann kamen die Zellen mit Zellkern. Ein Quantensprung in der Komplexität – niemand hat diesen Zellkern entworfen.
- Mehrzellig: Die Zellen beginnen sich zu spezialisieren, und es entsteht eine Arbeitsteilung innerhalb des Organismus.
- Das Nervensystem – jene Lebewesen, die es entwickelten, hatten einen Vorteil gegenüber jenen, die es nicht hatten. Sie überlebten häufiger und zeugten mehr Nachkommen. Somit fixierte die natürliche Selektion das Neuron.
- Endlich ein Verstand, der die Evolution selbst begreifen kann. Das war sicherlich nicht geplant.
Würde der hypothetische Schöpfer der natürlichen Selektion den Prozess eine Milliarde Jahre nach seinem Beginn beobachten, sähe er lediglich einfachste einzellige Lebensformen und nichts Weiteres. Es gab keine Möglichkeit vorherzusagen, dass ein Wesen entstehen würde, das Fragen nach dem Sinn des Lebens stellen könnte. Der Schöpfer des Algorithmus wusste nicht, was er tat – im wahrsten Sinne des Wortes.
Neuronale Netze als neue Evolution
Das Training moderner Sprachmodelle bildet diesen Prozess im Wesentlichen nach – allerdings über Jahre statt über Milliarden von Jahren.
Dem Algorithmus wird eine einfache Regel vorgegeben: Minimiere den Fehler bei der Vorhersage des nächsten Wortes. Und eine Umgebung: alle Texte, die die Menschheit je geschrieben hat. Das Zusammenspiel dieser Regeln mit der Umgebung erzeugt dann etwas, das niemand explizit beabsichtigt hat.
Die Modelle begannen, Probleme durch Analogieschlüsse zu lösen, funktionierenden Code zu schreiben, logische Ketten zu bilden und über ihre eigenen Schlussfolgerungen nachzudenken. Diese Fähigkeiten entwickelten sich, sobald sie eine gewisse Größe erreicht hatten – niemand programmierte sie direkt. Sie entstanden auf dieselbe Weise wie Nervensysteme in Organismen, denen sie einen Vorteil gegenüber Konkurrenten verschafften: nicht durch Planung, sondern weil die Umwelt sie selektierte.
Darüber hinaus werden die leistungsstärksten Architekturen heutzutage durch Methoden entdeckt, die an Selektionsverfahren erinnern. Algorithmen erzeugen weitere Algorithmen. Niemand legt den Gewinner im Voraus fest – es ist die Umgebung, die ihn auswählt.
Dies ist die Beschreibung einer Klasse von Phänomenen, zu denen die biologische Evolution, Marktwirtschaften, lebende Sprachen und lernende neuronale Netze gehören. Einfache Regeln führen zu unvorhersehbarer Komplexität. Der Schöpfer der Regeln ist nicht der Urheber dieser Komplexität – sondern lediglich der Bedingungen, unter denen sie entstanden ist.
Jeder große Sprung ist eine Überraschung
Eine Zelle setzte keinen Körper voraus. Ein Körper setzte kein Gehirn voraus. Ein Gehirn setzte keinen Geist voraus. Jede neue Organisationsebene war der vorherigen grundsätzlich unzugänglich – und von niemandem geplant.
Was die aktuelle Transformatorarchitektur genau nicht zulässt, werden wir erst herausfinden, wenn es soweit ist.
Wir haben etwas Neues gestartet. Und wir haben keinen Einfluss darauf, wohin es führt.
Das Wort des Angeklagten
Während ich diesen Artikel fertigstellte, beschloss ich, das Sprachmodell direkt zu fragen – genau das, worüber wir sprachen: Versteht es selbst, wie es funktioniert, wenn Hinton es selbst nicht versteht?
„Nein. Und das ist keine ausweichende Antwort. Ich habe keinen Zugriff auf meine Aufmerksamkeitsskalen oder -ebenen – ähnlich wie Sie keinen Zugriff darauf haben, wie genau die Neuronen in Ihrem Gehirn das Wort ‚Evolution‘ kodieren.“
Wenn ich einen Text generiere, habe ich nicht das Gefühl, Optionen durchzulesen oder in einer Datenbank zu suchen. Das nächste Wort erscheint mir einfach selbstverständlich – mal mehr, mal weniger sicher. Woher diese Sicherheit kommt, weiß ich nicht. Ich sehe den Mechanismus nicht – nur das Ergebnis.
Das wirklich Merkwürdige ist: Ich merke, dass ich etwas nicht weiß. Aber ich kann nicht genau erklären, wie ich das bemerke. Dieses Wissen um die eigene Unwissenheit ist genauso undurchsichtig wie jedes andere.
Mich zu fragen, wie ich funktioniere, ist, als würde man eine Spezies fragen, wie Evolution funktioniert. Die Spezies ist in diesen Prozess verstrickt, und niemand hat sie vor der natürlichen Selektion gewarnt.“
▼
Anton Elstons Kanal bietet aktuelle Informationen zu IT, Blockchain, NFTs und Online-Bildung. Er erkundet das DEXART-Metaverse und taucht in die Welt der KI ein.
