Julian Togelius, Artificial General Intelligence

Künstliche Intelligenz wird wahlweise die Welt zerstören, unfassbare Produktivitätsboosts anstoßen, Unvorstellbares in Bewegung setzen, Dinge bewirken, die wir uns noch gar nicht vorstellen können – und so weiter und so fort. Wer in den vergangenen Jahren eine Minute auf LinkedIn verbracht hat, weiß das. 

Wer sich dieser Angstlust mit weniger Begeisterung ergibt, gilt als verbohrter Bremser, der noch nicht verstanden hat, was alles auf uns hereinbrechen wird, und warum er oder sie dringend persönliche KI-Coaches und -Gurus braucht, die ihn oder sie durch diesen Dschungel navigieren. 

Umso wichtiger, dass ein renommierter Informatiker in einem technisch renommierten Verlag für einen nüchternen Umgang mit KI plädiert.

Der KI-Zirkus tourt seit gut 60 Jahren. Während aktuell digitale Übermachtsphantasien Oberhand haben, traute man Computern anfangs weniger zu. Sie würden nie intelligent sein, hieß es, sonst könnten sie Schach spielen. Oder Alpha Go. Oder Texte schreiben. Sobald ein Ziel erreicht war, hieß es: Das erfordert keine Intelligenz; ein nächstes Ziel stand im Raum.

Die grundlegenden Voraussetzungen haben sich nicht geändert, trotzdem behaupten heute viele, computergenerierte Weltherrschaft für ebenso realistisch zu halten wie den digital motivierten Weltuntergang. 

Aktuelle Intelligenzen wie Chat GPT sind hochspezialisiert, in Maßen flexibel – und man könnte auch hier diskutieren, ob sie intelligent sind. Large Language Models funktionieren mit Wahrscheinlichkeitsprognosen und reproduzieren, was bisher am häufigsten produziert (also geschrieben) wurde. Das ist weder besonders komplex noch visionär. Vor über hundert Jahren beschrieb der Wiener Wissenschaftsjournalist Leo Gilbert in seinem Roman „Seine Exzellenz, der Android” annähernd diese Methode als Intelligenzrezept seines Bots.

Intelligenz ist ein schwammiger Begriff, der sich nicht klar abgrenzen lässt und in der Praxis immer ein bewegliches Ziel darstellt. Künstliche Intelligenz vereinfacht das Problem nicht. Und gerade in Hinblick auf die Vorstellung Allgemeiner Künstlicher Intelligenz multipliziert sich das Problem eher, als einfacher zu werden. Intelligenz ist kein klarer Begriff, allgemein ist interpretierbar und sogar über künstlich könnte man streiten. Intelligenz kann nur dann gemessen oder verglichen werden, wenn die Aufgabenstellungen klar sind. Damit ist Intelligenz aber immer eine spezifische Eigenschaft und keine allgemeine. Es ist sogar eher beweisbar, dass es keine allgemeine überlegene Intelligenz geben kann. Wenn bestimmte Intelligenzen (oder mutmaßliche intelligente Algorithmen) auf eine Vielzahl von Problemstellungen angewendet werden, ist zu erwarten, dass alle vergleichbar gut oder schlecht abschneiden werden. Manche Algorithmen lösen bestimmte Problemarten besser, dafür scheitern sie an anderen – in der Gesamtwertung werden alle einander ähneln. Das ist die Informatik-Variante des Free Lunch-Theorems; irgendwann muss immer von irgendwem bezahlt werden.

Was sollte also Allgemeine Künstliche Intelligenz sein? Ist sie besonders menschlich? Deckt sie eine breite Palette ab? Ist sie eher alienlike? Braucht sie einen Körper oder nicht? Die Debatte kennt viele Ansätze, alle sind reichlich unkonkret. Die Minimalvariante von AGI reicht von sprachlicher Flexibilität bis zur Fähigkeit, Systemgrenzen zu überwinden und unvorhergesehene Lösungen zu finden. Letzteres sind Intelligenzen, die ihre Softwaregrenzen überwinden, um die Welt der Büroklammernproduktion wegen zu vernichten (wie in den berühmten Beispielen von Nick Bostrom), die die Menschheit versklaven, um mächtiger zu werden (wie Skynet in Terminator), oder die die Codes für Nukleararsenale knacken und diese selbständig zünden. Bislang ist das Science Fiction.

GPT 4 jedenfalls ist keine AGI. GPT 4 errät Texte und befolgt Regeln. Regeln, die von Menschen festgelegt worden sind und die bestimmten, was es lernt und innerhalb welcher Grenzen es sich bewegt.

Kann AGI über Methoden geschaffen werden, die Evolution und natürlicher Auslese nacheifern, also über die gleichen Methoden, die menschliche Intelligenz geschaffen haben? Reinforcement Learning wäre die Version der Evolution, die einen steuernden Schöpfer kennt, der zwischen Richtig und Falsch, Gut und Böse entscheidet. Open Ended Learning ist eine flexiblere Variante, die keine Ziele vorgibt, Methoden offen lässt – und damit auch die Frage offen lässt, was und wie AGI eigentlich lernt. Ist AGI ein Spiegel menschlicher Intelligenz oder etwas ganz anderes?

In erster Linie ist AGI eine Projektionsfläche für KI-Spekulanten, die sich für gerade genehme Zwecke einsetzen lässt.

Die Versuchung der Analogie zu menschlicher Intelligenz verführt zu einem weiteren großteils sinnlosen Scheingefecht: Kann künstliche Intelligenz Bewusstsein entwickeln? Bewusstsein ist nun ein ebenso unscharfer Begriff wie Intelligenz. Es ist nur eine leichte Zuspitzung, die Frage nach Bewusstsein Künstlicher Intelligenz zu einer anderen Frage zusammenzukürzen: Kann irgendwas irgendwas entwickeln? Togelius verweist auf David Chalmers’ Gedankenexperimente – die nur in einem klar abgegrenzten Rahmen und mit vielen Einschränkungen Sinn ergeben.

Künstliche Intelligenzen können sich selbst und andere Künstliche Intelligenzen trainieren. Die Fortschritte dabei bewegen sich aber in überschaubaren klar abgesteckten Bereichen. Um größere Sprünge zu machen, müsste KI nicht zur zusätzliche Software entwickeln und neue Trainingsdaten beschaffen, KI müsste auch neue Hardware bauen, um zusätzliche Rechenleistung bereitzustellen, mit der größere Entwicklungssprünge möglich wären. Das sind Hürden, die Software alleine nicht nehmen kann – KI braucht Helfer bei der Vernichtung der Menschheit oder anderen Aktivitäten, die die technischen Allmachtsphantasien befriedigen würden. KI wird das Heft nicht selbst in die Hand nehmen. Mit KI können schädliche Prozesse in Gang gesetzt, beschleunigt und vervielfältigt werden, aber KI entwickelt ebensowenig zerstörerische Eigendynamik wie Nuklearenergie. In Punkto unumkehrbare Eigendynamik hat Klimawandel im Ranking der aktuellen Supergefahren jeglicher Killer-KI einiges voraus.

Large Language Models sind für Togelius keine Schritte in Richtung einer Allgemeinen Künstlichen Intelligenz. Entwicklungen, die der Idee der Allgemeinen Intelligenz am nächsten kommen, sieht Togelius in Open Ended Learning. Hier ist Flexibilität zu erwarten – um den Preis, dass Menschen weder nachvollziehen können, was oder wie derart offen gestaltete Intelligenzen gelernt haben. 

Dennoch schließt Togelius mit einem kurzen Plädoyer gegen Entwicklungsbeschränkungen. Denn KI setzt keinen Geist frei, enthält keine Magie und ist keine unkontrollierbare Macht. Es sei denn, Beschränkungen, künstliche Zugangshürden und andere erzwungene Intransparenzen erschweren die kritische technisch fundierte Auseinandersetzung mit KI.