Henry Kissinger, Eric Schmidt: The Age of AI

Henry Kissinger, Eric Schmidt: The Age of AI

Ist KI ein nächstes Paradigma der Welterfassung, so wie Vernunft und davor Glaube?

Viel mehr an Flughöhe geht nicht für einen Text. Das ist aber auch nicht zu erwarten, wenn Henry Kissinger und Eric Schmidt, ehemaliger Google CEO, gemeinsam an einem Text zu KI arbeiten. Da werden schnell mal die letzten 2500 Jahre Geistesgeschichte gestreift und dann noch die Kriege der Zukunft verhandelt, um einem Thema wie dem KI-Zeitalter gerecht zu werden.

Der Bogen in die Vergangenheit stellt AI in den Kontext von Theorien über Wahrnehmung und Erkenntnis. In Kurzfassung: Platons Ideen blieben unerkennbar, der Wahrnehmung sind nur Phänomene zugänglich. Hume macht auf den Unterschied zwischen Wiederholung und Kausalität aufmerksam: Nur weil Dinge öfter in der gleichen Reihenfolge geschehen, ist das noch lange kein Hinweis auf kausale Zusammenhänge zwischen diesen Ereignissen. Kant schob das Ding an sich in den Bereich des Unerkennbaren und legte die Kategorien des Verstandes als Möglichkeiten und zugleich Grenzen des von diesem Verstand Erkennbaren fest. Heisenberg schließlich postulierte, dass der Weg eines Teilchens überhaupt erst dadurch entsteht, dass wir ihn beobachten und als solchen beschreiben. 

Kurzfassung: Da sind eine ganze Menge am Komplikationen im Spiel, die auch die fortgeschrittensten Erkenntnistheorien nicht zu lösen vermochten. Komplexere und raffiniertere Instrumente und Versuchsanordnungen haben erst dazu angesetzt, ein wenig mehr Klarheit zu schaffen, letztlich aber noch mehr Unschärfen offenbar gemacht.

Ist KI jetzt ein neues Instrument, mit dem wir Dinge erkennen können, die uns zuvor nicht zugänglich waren? Das ist möglich. Schafft KI noch mehr von diesen Unschärfen, mit denen wir zwar etwas erkennen, aber nicht verstehen, warum wir es erkennen? Das ist wahrscheinlich. Komplexe und oft schlecht dokumentierte oder geheim gehaltene Machine Learning Modelle funktionieren, aber der Wert der durch sie gewonnenen Erkenntnis ist fragwürdig – sobald man über die unmittelbare Auflösung zuvor formulierter Problemstellungen hinausgehen möchte. Das Problem ist gelöst, man darf aber nicht hinterfragen, wie und warum. Maschinen als Kandidaten von Turing-Tests sind so gesehen Vorreiter des Behaviorismus: Denn zur Disposition steht nur ihr sicht- und messbares Verhalten, nicht ihr innerer Mechanismus. Gemessen wird bei Turing-Tests nicht, ob eine Maschine mit einem Menschen mithalten kann, sondern ob der Mensch sich von der Maschine täuschen lässt. Das sind grundverschiedene Fragen.

In Bezug auf sinnvolle Positionen zu KI ist es sehr wichtig, den Unterschied zwischen diesen Fragestellungen verstehen zu können. 

Künstliche Intelligenz ist vor allem effizient. Sie prüft Alternativen schneller als Menschen und kommt auch in der Evaluierung der Folgen einzelner Entscheidungen schneller voran. Dabei ist der vorgegebene Rahmen relevant: Welches Problem soll KI lösen? Noch relevanter ist aber die Einschätzung der Umgebung, in der KI arbeitet: Welcher Stellenwert wird den Ergebnissen einer KI zugestanden? Wie weit ist diese Frage noch relevant oder wie weit wurde sie durch Prozesse bereits übergangen, das heißt wie umfassend ist eine KI an weitere Anwendungen angebunden, die ihr nicht nur algorithmische Entscheidungen, sondern auch so etwas wie Handlungen erlauben? Das ist der Punkt, an dem aus gewöhnlicher KI allgemeine KI oder AGI wird – Artificial General Intelligence. AGI bleibt nicht auf auf einem Bildschirm angezeigte Ergebnisse beschränkt, sie kann darüber hinaus Prozesse in Gang setzen und über Systemgrenzen hinweg Handlungen anstoßen. KI beschreibt, wie etwas gemacht werden könnte, AGI setzt das gleich um. – Noch ist AGI eine Vision.  

Weil KI vor allem effizient ist, ist die Frage, wie KI lernen soll, weniger drängend als die Frage, was KI lernen soll. Das Wie ist seit langem in Gang gesetzt, das Was kann noch gesteuert werden. Aus philosophischer Perspektive sind Wie und Was aber durchaus Begriffe, die ineinander übergehen können. Am Beispiel des KI-Trainings: Menschen können entscheiden, in welche Themengebiete sich KI einarbeitet (das ist das Was), im Detail eröffnet sich damit aber noch sehr viel Spielraum beim Wie des Lernens: supervised machine learning arbeitet Vorgaben ab und versucht Dinge nachzuvollziehen. Beispiele sind etwa klassische Sortieraufgaben. Unsupervised machine learning schlägt selbständig gefundene Muster vor, es bleibt allerdings dem Anwender – oder den weiteren Rechenschritten – vorbehalten, ob diese Muster als nützlich empfunden werden. Reinforcement learning schließlich integriert dieses Anwenderfeedback direkter in den Lernprozess. Zwischenstufen im Prozess nehmen Information darüber auf, ob ein Lernergebnis erwünscht ist oder nicht. Praktische Anwendungen dafür sind etwa Ethikregeln im machine learning: Modelle können schnell Strategien entwickeln, Probleme auf unethische oder illegale Weise zu lösen, Reinforcement greift ein und lässt solche Lösungen nicht als Lösungen gelten. Das ist ein Beispiel dafür, wie Was und Wie ineinandergreifen. Die Methode des Lernens, das Wie, beeinflusst auch das Was, indem auch bei vorerst weniger ethisch relevanten Fragestellungen ethische Dimensionen eine Rolle spielen.

Abstraktes machine learning wird so zu einer pragmatischen Angelegenheit, in der Kompromisse eine Rolle spielen. KI entdeckt nichts, KI schafft nichts Neues, KI arbeitet Regeln ab und geht manchmal trotzdem undurchsichtige Wege. Das sind mitunter gefährliche Momente, das sind Punkte, an denen man hartnäckig bleiben und versuchen müsste, zu entschlüsseln, was genau passiert ist.

Das stellt allerdings vor zwei Probleme: Zum einen arbeitet KI so schnell so viele Möglichkeiten ab, dass das Nachvollziehen solcher Prozesse menschliche Möglichkeiten übersteigt. Ein Beispiel dafür sind die zur Genüge nacherzählten Lerneffekte von Deep Mind beim Go-Spielen, als plötzlich neue Spielzüge im Raum standen. Zum anderen sind auch menschliche Erkenntnis und rationale Systeme nicht immer so rational und transparent, wie wir es für uns beanspruchen. Viele Wissenschaftstheorien, viele Welterklärungssysteme sind rund um dunkle Flecken gebaut, die sich mit diesen Systemen selbst nicht ausreichend erklären lassen. Vielleicht ist diese Gemeinsamkeit der intelligenteste und menschlichste Aspekt von KI.

Es kann aber ebenso der unangenehmste Aspekt sein. Am Beispiel von KI-gesteuerten Waffensystemen erklären Kissinger und Schmidt, dass es ebendiese dunklen Flecken sind, die den Umgang mit KI besonders riskant machen können. KI in Waffensystemen weiß mehr, hat mehr Informationen verarbeitet und Entscheidungen abgewogen, als Menschen es je können. Und KI taktiert nicht, hat keine Gewissensbisse und kennt keine psychologischen Spiele. Ob das ein Vorteil oder Nachteil für ihr Gegenüber ist – egal ob von menschlicher oder künstlicher Intelligenz – muss offen bleiben, betonen Schmidt und Kissinger. Auch das bedeutet letztlich: Der Umgang mit KI ist eine pragmatische Angelegenheit, in der man sich schrittweise vorantasten muss. In manchen Fällen geht das leichter, in anderen, wie dem Kriegsbeispiel, ist das riskanter.

Der Umgang mit KI ist für Kissinger und Schmidt ein derart breites Feld, dass sie KI als ein großes Paradigma des Welterfassens betrachten. KI steht für sie auf einer Stufe mit Glauben – einige Jahrhunderte war Glaube der vorherrschende Weg der Welterklärung, Welterklärungen mussten im Einklang mit Religionen sein – und Vernunft. Vernunft als dominierender Zugang zur Welt weckt die Erwartung, alles müsste erklärbar und begründbar sein. Eine Hoffnung, die sich gerade in den letzten Jahrzehnten auch als Täuschung erwiesen hat. Nicht etwa, weil sich Esoterik und Übernatürliches durchgesetzt hätten, sondern weil Physik und Logik bei Unschärfen, Unentscheidbarkeiten und Wahrscheinlichkeiten gelandet sind.

Es bleibt also offen, was dieses neue Prinzip des Weltzugangs über KI bedeutet wird. 

Generell geben Kissinger und Schmidt weniger Antworten. Ihr Anliegen ist es eher, die Dimension aktueller Fragestellungen erkennbar zu machen. Dem kann man entgegenhalten, dass das mitunter wenig ist. Man kann auch infrage stellen, ob KI als Instrument zwischen uns und der Welt einen so viel größeren Unterschied machen wird als Mikroskope, Teleskope oder Film und Fotografie. Auch das sind Techniken, die die ehemaligen Grenzen des Wahrnehmbaren gesprengt haben. Eine andere Art skeptischer Fragen ist bei all den Anleihen an Druckerpresse und Dampfmaschine, ob wir tatsächlich von diesen Innovationen der Vergangenheit aus in die Zukunft rechnen wollen. Und wo, wenn das möglich wäre, die bahnbrechende Disruption von KI angesiedelt wäre? Was hat man sich bei der Erfindung des Rades gedacht, bei der Instrumentalisierung des Feuers? Oder waren auch diese Ereignisse möglicherweise keine Ereignisse, sondern schleichende Entwicklungen, aus denen nachträglich einschneidende Wendepunkte herausdestilliert wurden? (Zur Frage, wann ein Ereignis ein Ereignis ist, hat Žižek eines seiner wenigen präzisen Argumente entwickelt).

All das führt zu einigen wenigen jedenfalls festzuhaltenden Punkten: Mit KI muss man arbeiten. KI muss man anwenden, einsetzen, testen. Man kann sie natürlich auch verweigern oder ignorieren. Aber KI ist kein Ereignis, dass sich mit eigenem Antrieb über die Welt verbreiten wird. KI wird sich verbreiten, aber jemand wird diese Verbreitung mitgestalten. Dem können wir uns ausliefern – wenn wir uns gern mit halluzinogenem Determinismus, Visionen und Dystopien beschäftigen. Oder wir können selbst mitgestalten – wenn wir uns mit einem pragmatischen Zugang anfreunden können. Und damit, dass Ergebnisse offen bleiben. Wir werden nicht die großen Weichen stellen. Die findet vielleicht später jemand. 

Michael Hafner

Michael Hafner

Technologiehistoriker, Comic-Verleger, Datenanalyst

Sonst noch neu

AI und Medien: Zurück in die Zukunft der kleinen LLMs

KI-Strategien der dritten und vierten Generation setzen zunehmend auf eigene, reduzierte und kontrollierbare Modelle. Wer auf generative Multi-Purpose-LLMs wie Chat GPT setzt, hat keine besonders ausgereifte KI-Strategie. Gerade in der Medienbranche ist das gut zu beobachten.

Die Lust an der KI-Angst

Wer den problematischen Seiten on KI mit inhaltlichen Regulierungen begegnen möchte, wünscht sich die mächtigsten Kontrollinfrastrukturen – so mächtig, dass man sie sich nicht wünschen sollte.

Eva Menasse, Alles und nichts sagen

Eva Menasses Internetkritik ist berührend altmodisch, oft ärgerlich unsauber argumentiert und eher eine Diagnose des eigenen Milieus als einer Digitalmoderne.

Meine Bücher