Die Rede von Intelligenz ist der Fehler in der Diskussion künstlicher Intelligenz, meint Oswald Wiener. Die Suche nach Intelligenz in Rechenprozessen wirft Fragen auf, deren Grundbegriffe selbst noch stets viel Interpretationsspielraum aufweisen und deren wesentliche Merkmale zu unbestimmt sind, um klar diskutiert werden zu können. Das betrifft die Frage nach dem Wesen künstlicher Intelligenz, nach Fortschritten auf diesem Gebiet und nach der Bedeutung solcher Fortschritte.
Wiener beschäftigt sich stattdessen mit mechanistischen Fragestellungen nach der Entstehung von Gedanken, geistigen Abbildern und Vorstellungen. Diese scheinen ihm die relevanten Merkmale des menschlichen Geistes zu sein, die ein Algorithmus aufweisen müsste, um Spuren von Intelligenz für sich in Anspruch nehmen zu können.
Gleich zu Beginn dieses Textes – es ist eine Kompilation aus Vorträgen von Anfang der 90er Jahre – verwehrt sich Wiener gegen Behaviorismus als adäquate Beschreibungstechnik menschlichen Verhaltens. Behaviorismus, der heute durchaus wieder Auferstehung feiert, reduziert menschliches Verhalten auf ein Reiz-Reaktions-Schema, in dem die Gründe für Reaktionen recht egal sind. Das ist ein leichter Weg zu einfach quantifizierten Theorien darüber, wie sich menschliches Verhalten steuern lässt. Für Wiener wäre so ein Zugang allenfalls für Marsmenschen (die keinen Zugang zu menschlichen Überlegungen haben) oder für Beamten (denen oberflächlicher Formalismus zur regelgesteuerten Entscheidungsfindung ausreicht) zulässig.
Wiener betont stattdessen die Relevanz von Selbstbeobachtung und der Zusammenhänge von Wahrnehmung, Vorstellung und Begriffsbildung. Geistige Prozesse müssen verstanden werden – implizit ist das eine Voraussetzung, um sie nachbauen zu können. Wiener und seine Zeitgenossen hatten damals – vor 35 Jahren – eine scheint es deutlich aktivere KI vor Augen, als wir sie heute erreicht haben.
Wiener beschreibt geistige Prozesse und Begriffsbildung in der Sprache der Automatentheorie der theoretischen Informatik. Hier gibt es Eingaben, es werden Zeichenketten gebildet, verschiedene Zeichenketten aus unterschiedlichen Automaten können sich aneinanderreihen und werden in die Welt zurückgeschrieben. Solche Prozesse schaffen Neues und sie sind Bestandteil ihrer Umwelt. Automaten können nicht getrennt von ihrer Umwelt beschrieben werden und sie gestalten ihre Umwelt. Die Merkmale eines Gegenstands, meint Wiener, sind nicht nur Merkmale des Wahrgenommenen, sondern auch der Maschine, die die Wahrnehmung und das durch sie entstandene Abbild produziert hat.
Hier treffen einander Heisenbergs Diagnose der fehlenden Abgrenzung von Beobachter, Theorie und Welt, Datenmodelle, die Repräsentation durch Relation ersetzen und Konstruktivismus. Wiener selbst erwähnt nichts davon, er erwähnt allenfalls Strukturen. Wiener ist allerdings kein Strukturalist, der bestehende Strukturen oder deren Wirkung als Grundlage der Realität ansieht. Dazu ist seine Auffassung vom Verhältnis von Geist und Umfeld zu dynamisch; beide bedingen und gestalten einander.
Sinnesorgane, die Wahrnehmungen liefern und so Automaten in Gang setzen, sind für den Automaten teil der Außenwelt, für die Außenwelt Teil des Automaten, können als passive Rezeptoren gesehen werden oder als prägende Gestalter, denen entscheidende Rolle dabei zukommt, was in welcher Form mit welcher Relevanz weitergegeben wird. Schön ist in diesem Zusammenhang die Formulierung von Sinnesorganen als epistemischer Panzer: Strenger als Theorie bestimmen Sinnesorgane über Wahrnehmung und deren Einordnung.
Relevante Bestandteile dieser Prozesse vermisst Wiener in KI. In aktueller real existierender KI müsste er wohl noch mehr davon vermissen. GPTs bilde zwar auch Zeichenketten, aber nicht nach eigenen Regeln oder mit einem Ziel, sondern nach wie vor eher über die einfache Technik der n-Grams: Chat GPT „denkt“, indem es Zeichenwahrscheinlichkeiten berechnet. Je höher der N-Wert ist, also die Menge der Zeichen, die gleichzeitig berücksichtigt werden, desto näher rücken die Ergebnisse dieser vermeintlichen Denkprozesse an menschliche Sprache. Kreative Intelligenz dagegen fasse solche trivialen Maschinen und Abläufe zu neuen Klassen und Verfahren zusammen. Ablaufende Zeichenketten, Algorithmen und Automaten sind also nur Zutaten, derer sich Intelligenz bedient, um intelligent zu sein. Die Illusion der Intelligenz von Maschinen entstehe vielmehr durch unangebrachte Analogien und Versuche, die Rechenleistung von Maschinen nachzuvollziehen, also durch die Vermenschlichung von Maschinen.
Wiener verwendet auch bereits – 1990 – den Begriff der Halluzination. „Halluzinierte Übergänge“ sind Entscheidungen der Maschine, die Logik oder Algorithmen überspringen, es sind Fehlentscheidungen, die von Beobachtern als Indizien für Intelligenz interpretiert werden.
Intelligenz dagegen müsse gezielt solche neuen Verfahren anwenden oder neue Mechanismen erzeugen, um ihrer eigenen Theorie gerecht zu werden. Wiener stellt aber auch selbst die Frage, ob menschliches Denken das für sich in Anspruch nehmen kann, oder ob auch der Mensch grundsätzlich auf der Ebene eines flachen Formalismus verbleibt, den Wiener bei Automaten diagnostiziert. Letzteres ist eine Frage der Abstraktionslevels, in denen Entscheidungen betrachtet werden. Wo sie innerhalb bestimmter Regeln betrachtet werden, schaffen sie nichts Neues, denn die Regeln geben bereits den Weg vor. Wo Regeln außer Acht gelassen werden, sind neue Wege möglich, es fehlen allerdings – noch – Kriterien, nach denen über die Qualität dieser Wege entschieden werden könnte.
Das ist eine pragmatische Variante von Gödels Unvollständigkeitstheorem: Konsistente Systeme sind unvollständig. In ihren Grenzen funktionieren sie schlüssig. Der Versuch, diese Grenzen auszudehnen, geht zulasten der Konsistenz. Nur mit dem Versuch, Grenzen auszudehnen, können aber Antworten auf neue Fragen gesucht werden. Und nur so können Begründungen für die Wahl der Grenzen geliefert werden. Das es keine rational begründbaren letzten Gründe für Rationalität gibt, ist eine der konsistenten, aber unzufriedenstellenden Wahrheiten der Wissenschaftstheorie.
Wiener erwähnt Gödel; Schrödinger bleibt unerwähnt. Schrödingers Frage aus „Was ist Leben?“ beschreibt einen ähnlichen Perspektivenwechsel: Gesetzmäßigkeiten entstehen durch Zufälle und Statistik und sie funktionieren innerhalb dieses Rahmens. Je kleiner die betrachtete Gesamtheit wird, desto geringer wird aber der ausgleichende Effekt der Statistik. Für Schrödinger bleibt die Frage offen, wie Gene – die aus einer vergleichsweise verschwindend kleinen Menge von Molekülen bestehen – die Entwicklung des Lebens sicherstellen können, die sich nach immer gleichen Regeln vollzieht.
Wiener streift diese Fragen nur und kehrt dann schnell zu Pragmatischerem zurück. Ein pragmatisch klingender Vorschlag ist die Überlegung, Intelligenz in künstlicher Intelligenz durch Emergenz zu ersetzen: Entsteht hier etwas Neues, etwas, das nicht zwingend aus den vorangegangenen Schritten folgt? Das wäre eine nützliche Zielsetzung für produktive und kreative Technik. Aber letztlich auch eine müßige. Über Emergenz streitet die Wissenschaftsphilosophie fast so viel wie über Intelligenz (eigentlich mehr, weil Intelligenz in dieser Disziplin kaum Thema ist). Manche Autoren sehen in Algorithmen das Gegenteil von Emergenz, denn Algorithmen legen den nächsten Schritt immer genau fest und lassen dabei keinen Spielraum. Andere gestehen immerhin Fehlern in den Abläufen (die vielleicht durch undefiniertes Variablen oder falsche Speicherbelegungen entstehen) kreatives Potenzial zu.
Emergenz statt Intelligenz – diese Verschiebung macht die Einschätzung von KI und ihren Folgen nicht leichter. Aber Emergenz kann gerade auch in der Analyse von Artificial General Intelligence ein nützliches Kriterium sein: Schafft vermeintliche Intelligenz es, Systemgrenzen und Medienbrüche zu überwinden? Oder bleibt sie in den festgelegten Regeln verhaftet und kann diese um ein Vielfaches schnelle auslegen und austesten als jeder Mensch, wodurch der Eindruck neuartiger Entscheidungen entsteht – der aber letztlich Interpretation eines Betrachters ist, der sich selbst Intelligenz zuschreibt? Jede funktionierende KI, die ihren Zweck erfüllt, wäre damit ein Beweis für Gödels Unvollständigkeitstheorem. Und jede KI, die offene Fragen aufwirft, ebenso.