David Chalmers, Reality+

David Chalmers, Reality+

David Chalmers ist ein phantasievoller Philosoph mit ausgeprägtem Hang zur Spekulation über Digitales. Seine Thesen zeigen deutlich, wie schnell Digitaldiskurse heute veralten.

Chalmers ist bekannt für griffige Theorien. Er hat unter anderem postuliert, dass Smartphones Teil unsere Geistes sind, er hat sich intensiv und öffentlichkeitswirksam mit philosophischen Zombies beschäftigt, und er greift immer wieder Themen rund um Digitales und Virtuelles auf. In Reality+ argumentiert er, dass Virtuelles real ist und es wenig Grund gibt, Simulationen gegenüber einer vermeintlich realen Realität pauschal abzuwerten.

Um das ausufernde Programm etwas einzugrenzen, wählt Chalmers Descartes als Gegner. Dessen bekannte Suche nach Sicherheit gegenüber möglichen Hindernissen (Träume ich? Spielt mit ein Dämon alles, was ich erlebe, nur vor? Kann ich irgendetwas sicher wissen?) zieht sich als Hintergrund durch den ganzen Text. 

Statistisch gesehen sind Simulationen wahrscheinlicher als Realität

Eine von Chalmers‘ Prämissen, die belegen soll, warum die Fragestellung relevant ist, ist eine einfache Rechnung: Wenn nur ein Prozent der Menschen Simulationsspiele wie Sim City spielt und dabei in jedem Spiel nur tausend simulierte Charaktere einsetzt, gibt es zehn Mal mehr simulierte als echte Menschen auf der Welt. Also ist die Wahrscheinlichkeit, in einer simulierten Welt zu leben, zehn Mal höher als die, in einer echten Welt zu leben. 

Chalmers führt fünf wesentliche Kriterien für Realität an. Um real zu sein, muss etwas existieren, es muss Wirkkräfte haben (also in Kausalbeziehungen mit seiner Umwelt stehen), es muss von unserem Geist unabhängig sein (also auch dann existieren, wenn wir gerade nicht daran denken), es darf nicht eingebildet sein und es muss „echt“ oder „richtig“ sein. 

Dabei müssen nicht alle Eigenschaften auf einmal zutreffen. Das Vorliegen einzelner Eigenschaften ist mitunter ausreichend; überzeugender sind Kombinationen davon.

Chalmers‘ zentrale These ist der sogenannte Simulation Realism: Auch wenn wir in einer Simulation sind, sind die meisten Dinge trotzdem so, wie wir glauben.

Mit Strukturalismus ins Virtuelle

Das ist im Kern eine strukturalistische und konstruktivistische Aussage. Es gibt such in der Simulation Realität, weil Dinge oder Umstände, die wir als für Realität relevant erachten, bestimmte Kriterien erfüllen. Dazu bedarf es keiner Substanz, Strukturen und Eigenschaften sind ausreichend.

  • Dinge in Simulationen sind wirklich, weil sie da sind, so wie etwas in Simulationen eben da sein kann. Irgendwo gibt es Pixel, Algorithmen und Prozesse.
  • Elemente in Simulationen haben Wirkung. Sie rufen Stimmung hervor, lösen Entwicklungen aus, innerhalb und außerhalb der Simulation.
  • Sie sind unabhängig von unserem Geist und davon, ob wir gerade an die denken. Pixel sind da, Algorithmen laufen, so wie Dinge da sind, auch wenn wir gerade nicht hinsehen.
  • Sind Dinge, wie es scheint? Wenn wir nicht wissen, dass wir in einer Simulation sind, dann ja, sonst wäre es eine schlechte Simulation. und wenn wir wissen, dass wir in einer Simulation sind, dann erst recht, denn wir erwarten in einer Simulation Simulationen.
  • Ist es echt? Philosophen schlittern bei dieser Frage schnell in fröhliche Regresse. Es gibt aber keinen Grund, warum simulierte Katzen weniger echte simulierte Katzen sein sollten. Es ist eine Frage der Maßstäbe und der Abstraktionslevels.

Sind dann auch Alternative Facts und Deep Fakes real?

Alternative Facts wären real, wenn sie sich auf alternative Realitäten in Alternativ-Universen beziehen. Deep Fakes sind real; sie existieren, sie haben Wirkung – sie sind so real wie jede andere Lüge.

Chalmers‘ Argumentation hat im Detail allerdings einige Schwächen und geht an aktuelen Entwicklungen vorbei. Sein Argument, wir könnten einen untintelligent argumentierenden Obama als falsch entlarven, womit dieser Deep Fake seine Echtheit verlöre, verfehlt das Thema. Solche Deep Fakes richten sich nicht an Menschen, die Argumente ihrer Intelligenz wegen schätzen, sie richten sich an Menschen, die ihre Vorurteile bestätigt sehen wollen. Insofern kommt noch eine weitere Dimension ins Spiel: Deep Fakes werden nicht an ihren Vorbildern gemessen, sondern an den Erwartungen ihres Publikums. 

Fake News gesteht Chalmers auf jeden Fall Realität zu, auch wenn sie nicht echt sind (hier zeigt sich im übrigen einmal mehr, dass Deutsch die weitaus philosophietauglichere Sprache ist als Englisch).

Die Frage nach der Realität bemühter Deep Fakes – etwa von Menschen, die LLM-Chatbots von sich selbst erstellen, um ewig zu leben – stellt Chalmers nicht.

Wenn es also zwischen virtueller und traditioneller Welt wenig relevante Unterschiede gibt, gibt es dann im Virtuellen Bewusstsein? Haben Maschinen Bewusstsein?

Chalmers ist meines Erachtens etwas schnell damit, diese Frage zu bejahen. Sein Argument: Wenn mein Hirn Sitz des Bewusstseins ist und ich es Zelle für Zelle in eine Simulation hochlade – bei welcher Zelle sollte das Bewusstsein verlorengehen?

Das Problem liegt allerdings in der Fragestellung. Was bedeutet es, ein Hirn Zelle für Zelle in eine Maschine zu verwandeln? Welches Verfahren (außer einem Gedankenexperiment) ist das? 

Und was lernen wir aus solchen Fragestellungen für die Frage nach KI und Bewusstsein? Wir lernen vor allem, mit Metaphern vorsichtiger umzugehen. 

Chalmers tut sich nicht nur leicht mit der Vorstellung, Hirne in Maschinen hochzuladen, er ist auch ein Vertreter der Extended Mind-Hypothese. Derzufolge sind externe Denk- oder Gedächtnishilfen wie Notizen, Kritzeleien, Suchmaschinen oder Smartphones Teil unseres Geistes. Das ist grundsätzlich einleuchtend. Allerdings zeigt sich, und das vermisse ich bei Chalmers, dass mit zunehmender Komplexität der externen Tools die interne Leistung wieder relevanter wird. Wir müssen wissen, was und wie wir suchen. Und wir müssen erst recht wissen, wie wir prompten und wie wir die KI-generierten Ergebnisse validieren.

Wissenschaftlicher Anti-Realismus

Sind das nun digitalverliebte Spitzfindigkeiten?

Gibt es in Simulationen wahr oder falsch? Chalmers bemüht dazu den wissenschaftlichen Antirealismus. Demzufolge kümmert sich Wissenschaft nicht viel um Realität, sie sucht Gesetzmäßigkeiten, die sich gut dazu eignen Vorhersagen zu treffen. Wissenschaftlicher Antirealismus ist so etwas wie Verhaltensökonomie für Naturwissenschaftler. Relevant ist, was funktioniert – warum, was das bedeutet, wie es zu bewerten ist und ob es richtig (in mehreren Sinnvarianten) ist, ist unerheblich.

Wahrheit kann damit eine interne und eine externe Dimension haben. Die externe Dimension rührt an Fragen von Echtheit und grenzt an eine Korrespondenztheorie von Wahrheit. Derzufolge ist wahr, was der Realität entspricht. Wie diese Entsprechung festgestellt wird, bleibt offen. Die interne Dimension ist pragmatisch gebrauchsorientiert, richtet sich danach, ob gewünschte Ergebnisse eintreten, und entspricht eher einer Kohärenztheorie von Wahrheit, innerhalb derer wahr ist, was keine Widersprüche erzeugt. 

Letzteres kann in Simulationen immer stattfinden. Das Prinzip der Salienz – worauf beziehe ich mich augenscheinlich? – gilt in Simulationen und außerhalb dieser und ist ein wesentliches Kriterium, um Entscheidungen über Wahrheit überhaupt zu ermöglichen. Wir müssen und darüber einigen, ob wir vom Gleichen reden. Das gilt innerhalb und außerhalb von Simulationen. 

Chalmers beginnt mit einem großen Anspruch (Simulationen sind real) und endet recht pragmatisch mit strukturalistisch-konstruktivistischen Konsequenzen. Strukturen entstehen durch Erfahrung, und aus Erfahrung entsteht Realität. Das ist ein recht schwaches Konzept von Realität, dass sich ohne weiteres auch auf virtuelle Realitäten anwenden lässt. Die letzte Frage, die sich mit bei solchen komplex abgesicherten Realitätsszenarien stets stelllt, ist die nach der Sinnhaftigkeit solcher Realitätsbegriffe. Strukturalisten und Konstruktivisten nicken das ab. Relativisten können da auch mit (falls man sie mitnehmen möchte). Skeptiker werden weiterhin ihren Sport betreiben und Absolutisten ebenso wie Hyper-Rationalisten werden sich ebenfalls wenig bewegen.

Aber immerhin hilft es, die eigenen Position zu verstehen – auch wenn ich Chalmers nicht in allem zustimmen kann.

Michael Hafner

Michael Hafner

Technologiehistoriker, Comic-Verleger, Datenanalyst

Sonst noch neu

Oswald Wiener, Probleme der Künstlichen Intelligenz

Maschinen gelten möglicherweise nur als intelligent, weil wir uns selbst für intelligent halten. Vielleicht ist auch menschliche Intelligenz aber nur ein flacher Formalismus. Ein Ausweg kann die Konzentration auf Emergenz statt Intelligenz sein. Aber auch die Frage, ob in einem Prozess Neues entsteht, ist nicht trivial.

Onur Erdur, Schule des Südens

Biografische Wurzeln in Nordafrika als prägende Elemente postmoderner Theorie – und als Ausgangspunkt zu einer Verteidigung von Postmoderne und Dekonstruktion gegen mutwillige Missverständnisse und akrobatische Fehlinterpretationen.

Medienfinanzierung: Last Exit Non Profit

Non Profit-Journalismus entwickelt sich als neuer Sektor auch in Österreich, Stiftungen unterstützen in der Finanzierung. Hört man den Protagonisten zu, ist die Gefahr nicht von der Hand zu weisen, dass hier abgehobener, belehrender Journalismus gemacht wird, den man eben lieber macht, als ihn zu lesen.

Yuval Noah Harari, Nexus

Prinzip Wurstmaschine: Harari verarbeitet vieles in dem Bemühen, leichtfassliche und „originelle“ Einsichten zu formulieren und wirkt dabei fallweise wie ein geheimwissenschaftlicher Esoteriker. Auch bei Extrawurst weiß man nicht, was alles drin ist – aber das Ergebnis schmeckt vielen.

Meine Bücher