OMG, was wenn uns die Antworte von Chat GPT zu künstlich wissensbeschnittenen Konformisten machen? Macht uns die generative AI jetzt alle zu Halbgebildeten, die nur noch aus dem schöpfen, was ohnehin alle wissen? Und wird in Zukunft nur noch das als richtig gelten, was ohnehin schon immer für alle galt? Diese Fragen ventilieren zur Zeit geübte Kulturpessimisten aus aller Welt.
Ich frage das, seit Google zu digitalen Existenzbedingung geworden ist.
Existiert das, was durchsuchbare Daten nicht kennen, überhaupt? Kann man etwas, das nicht alle sagen, überhaupt verstehen? Und ist Entropie sowieso die Grundbedingung jeder Art von Kommunikation und Verständigung?
Dazu muss ich ein bisschen ausholen. Eines meiner liebsten Gedankenexperimente ist das Bar Hillel-Carnap-Paraxodon. Carnap und Bar Hillel greifen einfache Informationstheorien auf, die Information als Unterschied charakterisieren. Je mehr Unterschiede vorhanden sind, desto mehr Information ist möglich. Bei Claude Shannon etwa ist das schlicht zugespitzt: Je mehr unterschiedliche Zeichen ein Text enthält, desto informativer ist er.
Der größte Unterschied, meinen nun Carnap und Bar Hillel, ist der Widerspruch. Etwas, das im Widerspruch zu allem bestehenden steht, ist demnach am Informativsten. Das hat allerdings zwei Nachteile: Wir verstehen es nicht. Und wenn der Widerspruch tatsächlich radikal ist (und nicht bloß ein simpler Gegensatz) erkennen wir es vermutlich auch nicht.
Das bedeutet umgekehrt: Je gleichförmiger etwas ist, desto eher erkennen wir es wieder. Desto besser funktioniert es für uns. Und desto weniger führt es zu Neuem.
Diese Form der Erwartbarkeit ist seit jeher ein Grundprinzip funktionierender Medien. Medien müssen Formvorgaben einhalten, um erkannt zu werden, verschiedene Kanäle verlangen nach verschiedenen Formaten, und sie müssen spezifische Publika bedienen, die bestimmte Merkmale wiedererkennen wollen. Diese Erleichterung, etwas bekanntes wiederzuerkennen, ist nicht nur auf dem Medienmarkt zu beobachten: Menschen freuen sich, wenn sie sich nicht verirren. Es verbindet aber auch, wenn Menschen in einer Unterhaltung Anspielungen verstehen. Und Menschen lachen sogar erfreut, wenn sie während einer Theateraufführung ein Zitat zuordnen können, auch wenn nichts daran lustig ist.
Entropie, mehr vom Gleichen, ist heimelig. Das genießen gerade auch jede, die gern im Chor dazu aufrufen, die Komfortzone zu verlassen oder in neuen Bahnen zu denken. Hätte Entropie nicht so einen hohen Stellenwert für sie, sie wüssten ja gar nicht, was die Komfortzone ist – und sie wären schon gar nicht dort.
Was hat das mit Künstlicher Intelligenz zu tun?
Künstliche Intelligenz ist der fruchtbarste Nährboden für Entropie. Sprachmodelle berechnen Häufigkeiten aus möglichst breit angelegten Beispielen. Sie verwendet also den kleinsten gemeinsamen Nenner aus großen Mengen von Text und Meinungen – ohne eigene Meinung, Erfahrung oder Expertise. Künstliche Intelligenz ist ein Informations-Durchlauferhitzer, der weitergibt, worauf sich vermutlich alle einige können. Das bringt natürlich wenig neues. Das ist auch nicht der eigentliche Zweck von KI.
Also: Natürlich verstärkt KI Konformität und Entropie.
Das ist aber noch nicht das eigentliche Problem. Aktuelle KI-Lösungen fördern Entropie, weil sie das gleiche lesen. Aber wovon werden zukünftige KI-Generationen lernen? Experten-Blogs, Diskussionsforen, FAQs sind nicht mehr notwendig, wenn alle im Stillen ihre KI befragen können. Für künftige KI-Generationen wird es weniger öffentliche Daten als Lernmaterial geben. Werden künftige KI-Generationen wieder dümmer? Werden sie mehr Diversität ermöglichen? Aber wo werden wir nachsehen, wenn wir mit unserer KI nicht mehr zufrieden sind?