Yuval Noah Harari, Nexus

Harari funktioniert wie eine intellektuelle Wurstmaschine: Oben kommt ziemlich beliebiges Zeug rein, unten kommt etwas heraus, das vielen Menschen schmeckt. Das verwundert manche, weil das Ergebnis eigentlich nicht besonders gut gemacht ist.

Als Historiker pflegt Harari einen lockeren Umgang mit Technik und Politik, nimmt sich viel Zeit und Raum, Argumente auszuwalzen, die die Philosophie schon länger geklärt und gut systematisch aufbereitet hätte und weicht manchmal auch in schlicht mythische Gefilde aus. 

In Nexus beschäftigt sich Harari mit KI und potenziellen Risiken und Nebenwirkungen. Gleich eingangs bemüht er Phaeton und Goethes Zauberlehrling, um zu “argumentieren”, dass sich Technik leicht zur Bedrohung für Menschen wandeln kann. Phaeton griechischer Halbgott, wollte den Sonnenwagen lenken und ließ´sich nicht davon abbringen, dass nur echte Götter die Pferde dieses Gespanns im Griff haben können. Die Geschichte ging nicht gut aus, seither geht die Sonne unter. Der Zauberlehrling wollte Arbeit an den Besen outsourcen, hatte den aber nicht so weit im Griff, ihn dann auch wieder abbremsen zu können, und musste peinlicherweise seinen Lehrherrn darum bemühen.

Beide Storys können als Technikallegorien gelesen werden, ebenso gut sind es aber auch Moritaten über Anmaßung und Herrschaft, über Souveränität und Kontrolle und über die Notwendigkeit der Unterordnung. Ist das wirklich der Horizont, vor dem wir über Technik und Verantwortung reden sollten?

Harari warnt vor negativen Folgen von Technologie und insbesondere künstlicher Intelligenz. KI habe, anders als andere Technologien, das Potenzial, sich weiterzuentwickeln, den Menschen zu umgehen, Prozesse in Gang zu setzen und damit kontrollierte Bahnen zu verlassen. Sie könne Entscheidungen treffen, die Menschen weder nachvollziehen und verstehen können – vom Büroklammer-Produzenten, der die Zivilisation ausrottet, bis zum berühmten AlphaGo-Spielzug fehlt hier keines der gängigen Beispiele. 

Die Schwächen dieser Argumente sind zweierlei: Erstens sind auch in diesen Beispielen die Regeln von Menschen gemacht worden. Es gab klare Aufgabenstellungen und geforderte Ergebnisse. Insofern trifft das Argument der überraschenden Entscheidungen nicht ganz. Solche Entscheidungen sind vielmehr der Sinn und Zweck von Machine Learning. Zweitens sind die Visionen des Grenzen überwindenden Computers, der selbstständig handelt, noch zu einem sehr großen Teil Science Fiction. Artificial General Intelligence ist noch nicht hier und sogar bei OpenAI streitet man darüber, ob sie jemals realisiert werden kann. Anders als andere überwundene Hürden der Informatik ist das nicht in erster Linie eine Frage von Rechenkapazität, es ist eine strukturelle Frage, wie ein Computer nicht nur zum Beispiel Produkte recherchiert, sondern sie auch kauft, die Zustellung organisiert, dem Postboten die Tür öffnet und das Paket auspackt. Alles machbar, aber jemand muss die Systeme schaffen, deren Grenzen der Computer dann überwinden kann.

Harari ist in seiner Verwendung des Begriffs “Computer” sehr flexibel. Computer kann hier vom Smartphone bis zum Terminatoren steuernden Skynet alles sein. Ebenso flexibel und unscharf sind dann auch die meisten Argumente. Meistens kreisen sie um den Kern, dass Regulierung notwendig, aber schwierig ist. Darauf können sich auch Technobürokraten einigen. Was allerdings durchgehend fehlt, ist ein Bild dafür, was auf dem Spiel steht, was sich verändert, welche Kräfte hier einander gegenüberstehen und für Spannungen sorgen. Harari lässt Mensch und Technik als diffuses “wir” und “die” gegeneinander antreten, er setzt voraus, dass Technik dem Menschen, seiner Natur und deren Zielen entgegensteht. Allein die Trennung ist, liest man zeitgenössische Technikphilosophie, nicht ganz up to date. Harari bemüht viele Grundlagen (die für die weiteren Argumente im Buch mitunter gar nicht notwendig sind), die Rolle von Technologie bleibt aber großteils unscharf. Das zugrundeliegende Technikverständnis unterscheidet sich kaum vom pessimistischen Techno-Determinismus eines Jacques Ellul aus den 60er Jahren, der Technik als treibende Kraft sah, deren Entwicklung Gesellschaft, Mensch, Natur, Kultur oder was man auch als Antipode sehen möchte, schlicht ausgeliefert ist. Bei der engen Verwicklung von Mensch und Technik, die Smartphones in Körperteile, Social Networks in Bewusstseinsinhalte und Kommunikationsnetze in Hirnerweiterungen verwandelt, ist das eine schwer haltbare Annahme.  

Hararis Ausflüge in Wahrheits- und Informationstheorie oder auch Politikwissenschaft sind mitunter befremdlich. Er greift vieles auf, das in den jeweiligen Disziplinen schon gut ausdiskutiert und -formuliert wurde, ignoriert dabei den Stand des Wissens, holt selbst weit aus und präsentiert einen mit anderen Worten ausgedrückten wissenschaftlichen Konsens als Ergebnis seiner Überlegungen. Kann man machen, ist im Sinn der Populärwissenschaftlichkeit vielleicht auch ein für viele Leser angenehm voraussetzungsloser Zugang, hinterlässt aber letztlich doch einen esoterisch-geheimwissenschaftlich-wissenschaftskritischen Nachgeschmack, insbesondere wenn Harari „seine“ Erkenntnisse gegen die eines „naiven“ Verständnisses abgrenzt. 

Harari und auch seine Verleger wissen das wohl genau; 500 Seiten Text werden von 100 Seiten Anmerkungen begleitet, die diese Schwächen wieder ausgleichen. Das lesen vermutlich die wenigsten der begeisterten Harari-Leser, und so kann man 500 Seiten gelesen haben, glauben, viele neue Einsichten gewonnen zu haben – und dennoch nicht einen neuen oder neu interpretierten Gedanken gelesen haben. Das ist heute ein Erfolgsrezept.

Heinz Bude, Abschied von den Boomern

Die Generation X kommt einmal mehr unter die Räder. Heinz Bude verabschiedet sich von den Boomern und begrüßt Millenials und Gen Z. Von X keine Rede. In den 90ern (als es noch fast keine Boomer gab), war ich als Anfang der 70er Jahre Geborener fast noch zu jungü für Generation X, heute schlägt Bude die Google-Gründer Page und Brin (beide mein Jahrgang) ungeniert den Boomern zu.

Eigentlich lese ich keine Generationen-Literatur der Austauschbarkeit halber. Jede Generation, wenn sie denn eine ist, sagt seit mindestens 40 Jahren: „Wir sind die ersten, die …“ Und sie sagen das zum gleichen Thema.

Bude beleuchtet etwa Krisenerfahrungen – etwas, das die coronageplagte Gen Z für sich beansprucht. Boomer haben die Kriegstraumen ihrer Eltern aufgesaugt, Umweltprobleme für sich entdeckt und Tschernobyl und Aids als Veränderungen erlebt. Vielen von ihnen wurde die Zwischenkriegszeit als die beste Zeit vermittelt, auch die Erzählungen meiner Großeltern haben, im Verbund mit Erich Kästner-Romanen, ein sehr friedliches Bild weniger Jahre um 1930 vermittelt. Der Krieg lag als schlimmste Zeit in der Vergangenheit, es gab Grund zu der Annahme, dass Zustände nur besser werden könnten.

In der Wahrnehmung der Gen Z, meint Bude, kommt das Schlimmste erst noch.

Die Generation X, die bei Bude ganz konsequent kein Thema ist, hat die Zeit vor Aids weitgehend verpasst, durfte wegen Tschernobyl ein oder zwei Tage nicht in die Sandkiste und musste sich nach 1989 mit der Idee anfreunden, dass es jetzt zwar keinen Ostblock mehr gab, damit aber eigentlich auch nichts gewonnen war.

Ein in Generationenthemen neuer, wenn auch nicht überraschender Punkt bei Bude: Boomer wurden weder alt noch altmodisch geboren. RAF und Deutscher Herbst waren ebenso Boomer-Erfindungen wie Anti-Atomkraft-Proteste.

Daraus kristallisiert sich letztlich eine möglichwerweise doch auf den Punkt gebrachte Esssenz in Budes etwas dahinschweifendem Essay: Boomer sind die, die immer zu viele waren. Für Boomer war trotz guter Wirtschaftsdaten Arbeitslosigkeit oder unternehmerische Erfolglosigkeit immer eine reale Option. Künstlerisches und Revolutionäres gab es an allen Ecken, es reichte nicht zum Distinktionsmerkmal. Leistungswille und Leistung, schreibt Bude, reichten einfach nicht aus, um aufzufallen oder etwas zu erreichen. Es gab einfach zu viele, die ähnliches machten, egal, was man machte. Weshalb Auffallen und andere außenorientierte Erfolgskriterien für Budes Boomer-Diagnose weniger relevant sind als „Wirkungswille ohne Letztbegründung“. Darin sieht Bude das zentrale Boomer-Paradigma, das sich auf Hausbesetzungen, Stricken und pflichtbewusste Erwerbsarbeit gleichermaßen anwenden lässt.

Die Abgrenzung zu Millenials lässt Bude bewusst offen – oder der Erfahrung der Lesenden überlassen. 

Philipp Blom, Die Unterwerfung

Es ist schon einige Zeit her, dass ich Philipp Blom in einem Diskussionsabend den Gedanken äußern hörte, am Ende würde ohnehin die Mikroben gewinnen. Das schien mit eine nette Idee gegen den warnenden Technooptimismus (oder ist es in Wahrheit Pessimismus) eines Yuval Harari oder praktisch jedes konservativen oder liberalen Politikers, der die Rettung (egal wovor) wenn nicht in Gott, dann in Technologie sieht.

Jetzt gibt es das Buch zu diesem Gedanken, und es ist ein wenig enttäuschend. Die Unterwerfung ist eine toll erzählte Kulturgeschichte des Gedankens, der Mensch solle, könne oder müsse die Natur unterwerfen, die aber erst auf den letzten Seiten auf den Mikroben-Gedanken zu sprechen kommt. Der Rest ist eine etwas zu breit angelegte Geschichte, die toll geschrieben ist, aber in ihrer Breite neue Gedanken vermissen lässt und letztlich wenig neues erzählt.

Toll zu lesen, aber insgesamt bleibt die Sache ein wenig beliebig.

Erwin Schrödinger, What is Life?

Wer stolz „Ich glaube an Fakten” sagt und sich dann für einen rationalen Wissenschaftsfreund hält, sollte Heisenberg oder Schrödinger lesen. Heisenberg bezeichnet Zeitgeist als ebenso objektive Tatsache wie andere wissenschaftliche Tatsachen, Schrödinger nennt es eine bequeme Vorstellung, die Welt wäre da draußen und warte darauf, erkannt zu werden. Sprechen hier zwei bislang als solche unentdeckte Vorläufer postmoderner Wissenschaftskritik? Oder doch eher zwei Wissenschaftler, die ihre Disziplinen über ihrer Zeit hinaus durchgespielt haben und an die Grenzen des Wissens und auch gleich der Fragen gestoßen sind?

Für Schrödinger entsteht die Welt der Wissenschaft durch Statistik. Statistik schließt einen Beobachter ein, jemanden, der Daten sammelt, entscheidet, welche Daten gesammelt werden, in welchen Zeiträumen sie betrachtet, nach welchen Kriterien sie aggregiert werden. Statistik bringt Ordnung ins Chaos, sie schließt Ausreißer aus und schafft Normalität. Und Statistik schafft Annäherungen. Sie setzt bestimmte Bereiche innerhalb einer Normalverteilung als relevant, Sachverhalte an den Rändern derselben Normalverteilung sind vernachlässigbar. 

Damit kratzt Schrödinger gleich an zwei Prinzipien naiver Wissenschaftlichkeit: Gerade die vermeintlich exakten Wissenschaften geben nur Wahrscheinlichkeiten an, ihre Gesetze sind Beobachtungen von Häufigkeiten auf Normalverteilungskurven, Interpretationen und Projektionen. Und zweitens: Weder Wissenschaften noch ihre Objekte sind vom Wissenschaftler unabhängig. Der Beobachter ist immer Teil der Beobachtung; der Beobachter und sein Standpunkt schaffen das Beobachtete.

Was heute, zahlreiche missbräuchlich gezogene Konsequenzen später, als postmoderner Schmus gelesen werden kann und antipostmoderne Tiraden befeuert, ist eine der Grundlagen der Quantenmechanik. Für Philosophen oder Sozialwissenschaftler ist das weder Hexerei noch wesentlich neu. Diese vermeintliche Revolution hat sich seit den Vorsokratikern öfters wiederholt und sie kann unterschiedlich interpretiert werden. Mal stärkt sie den Menschen als Maß aller Dinge, manchmal schwächt sie ihn als unfähig, die wahren und relevanten Dinge zu erkennen.

Im Gegensatz zu Fehlinterpretationen, die die Beobachterabhängigkeit von Fakten als unseriöse Entfernung von Realität betrachten, sieht Schrödinger hier einen Aufruf zu wissenschaftlicher Redlichkeit: Man könne sich nicht mit einem Gegenstand beschäftigen oder etwas über ihn erkennen, ohne eine Beziehung zum ihm herzustellen. Jeder Gegenstand wird durch seine Beobachtung im Bild des Beobachtenden verändert, jede Beschreibung, die diese Tatsache nicht berücksichtigt, bleibt unvollständig. Schrödinger schreibt sogar: „Mind has erected the outside world out of its own stuff“. 

Für Schrödinger ist diese Perspektive auch Beitrag zur Beseitigung von Erkenntnisproblemen. Nachdem der Beobachter immer Teil der Beobachtung ist, muss keine Grenze zwischen Beobachter und Beobachtetem, zwischen Subjekt und Objekt überwunden werden. Denn es gibt diese Grenze nicht.

Vor dem Hintergrund diese Überlegungen fragt sich Schrödinger, wie es Leben geben kann und wie oder als was wir es verstehen können. 

Leben, insbesondere Genetik, bringt das Weltbild des Physikers durcheinander. Gesetzmäßigkeit und Wissen als Statistik – das funktioniert, wenn der Physiker unterschiedliche Abstraktionslevels betrachtet, problemlos. Jede Beobachtung schließt unzählbar viele Atome ein und damit unzählige Möglichkeiten, die Dinge verlaufen können. Die Menge macht die Statistik verlässlich und erhöht die Wahrscheinlichkeit, dass sich Dinge wiederholen lassen.

Die Planmäßigkeit von Zellteilung, Vermehrung und Leben stellt diese Beobachtung infrage. Gene bestimmen über den Verlauf des Lebens – und für Schrödinger sind sie auch auf Atomebene betrachtet zu klein, um Ordnung über Statistik schaffen zu können. Hier herrscht Ordnung, bevor die durch Normalverteilungen geschaffen werden kann.

Die Ordnung der Physiker ist für Schrödinger statistische Gesetzmäßigkeit, die durch Wiederholung aus Unordnung entsteht. Im Gegensatz dazu folge Leben dynamischer Gesetzmäßigkeit, also einer fortschreitenden Entwicklung, die Ordnung aus Ordnung schafft. Hier läuft eine Mechanik ab – die Schrödinger nicht religiös oder mystisch betrachtet. Er stellt nüchtern fest: Leben folgt physikalischen Gesetzen, die wir noch nicht kennen.

Schrödingers Überlegungen in „What is Life“ und „Mind and Matter“ sind damit mit mehrfacher Hinsicht aus naiv wissenschaftlicher Perspektive neuartig und vielleicht sogar befremdlich: Physik, die Alleserklärer-Wissenschaft, stößt oft und schnell an ihre Grenzen. Wissenschaftliche Neutralität und methodische Reinheit gibt es nicht; Wissenschaft und Wissenschaftler sind immer Teil der Beobachtung und damit auch ihr eigener Gegenstand. Und letztlich: Das ist kein Manko, das es auszuräumen gälte, weil es nicht ausgeräumt werden kann. Es ist eine Tatsache, die akzeptiert werden muss und die für ein klareres Bild wissenschaftlicher Methoden und Prozesse gilt.

In den Jahrzehnten seit Schrödingers Schriften sind ähnliche Gedanken oft und aus verschiedenen Perspektiven und mit unterschiedlichen Intentionen oder Problemen im Blick formuliert worden.

In der Geschichtswissenschaft postulierte Clifford Geertz die teilnehmende Beobachtung als Methode der Feldforschung – und gilt damit als Wegbereiter der Postmoderne. Seine Grundidee: Der Beobachter kann sich nicht aus dem Spiel nehmen und so tun, als wäre er nicht da. Also soll er offen Teil der Methode sein. 

David Bloor legt in seine Strong Programme der Wissenssoziologie dar, dass Rationalität allein kein Königsweg zur Erkenntnis ist. Im Gegenteil: Alle Arten von Einflüssen, rationale und irrationale, wünschenswerte und nicht wünschenswerte haben Einfluss auf aktuelle Methoden und sind immer vorhanden. Es gibt keine reine, unbeeinflusste, ausschließlich rationalen Gesichtspunkten gehorchende Methode, die uns zu sicherer Erkenntnis führt, wenn wir sie nur unbeeinflusst lassen. 

Bruno Latour stritt oft und viel mit David Bloor und lässt sich doch auf recht ähnliche Ergebnisse kondensieren: Wissenschaft existiert nicht im luftleeren Raum. 

Karin Knorr-Cetina benannte ein ganzes Buch nach der Erkenntnis, dass Erkenntnis Fabrikation ist.

Ich habe noch gar keine ausdrücklich postmodernen Ansätze erwähnt, dennoch galten all diese Konzepte immer wieder als aufgeweichte Ergebnisse schwammiger Sozialwissenschaften, die in unversöhnlichem Gegensatz zu „echter“ „exakter“ Wissenschaft, also in erster Linie zur Physik, stehen. 

Mit der Idee, dass Rechnen und Messen nicht alles (und auch selbst vorrangig Konvention) ist, ist viel Unfug getrieben worden. Mit Kritik an dieser Idee ebenso. Und ich bin überzeugt, dass die wenigsten sehr lauten Kritiker angeblicher postmoderner Antiwissenschaftlichkeit Schrödinger oder Heisenberg gelesen haben.

Schrödinger liefert auch ganz beiläufig Feststellungen, die je nach persönlicher Präferenz als Vorläufer oder Kernaussagen von Relativismus, Konstruktivismus, Strukturalismus oder anderen grundsätzlich pragmatischen Wissenskonzeptionen gesehen werden könnten.

Einige davon: 

Theorien der Physik sind immer relativ, weil sie immer von grundlegenden Annahmen abhängig sind. Diese Annahmen sind keine Selbstverständlichkeiten. Sie sind erklärungsbedürftig und müssen thematisiert werden können, wenn wissenschaftliche Ergebnisse bewertet werden oder zu konkreten, etwa politische Entscheidungen führen sollen.

Unser Ego ist unser Weltbild. Wir können weder hinter das eine noch hinter das andere, und wir können das Ego, also uns selbst, nicht aus der Beobachtungssituation nehmen. Sonst sind wir nämlich nicht mehr da und wissen gar nichts.

Das Ich ist letztlich nur eine Leinwand, auf der Daten gesammelt werden. Es ist ebenso abhängig von seinen Erfahrungen, wie die Erfahrung vom Ich abhängig sind. Denn ohne das Ich in der Gleichung gäbe es auch diese Erfahrungen nicht.

Was bedeutet das vereinfacht und auf den Punkt gebracht: Wer von Objektivität, unverfälschter Rationalität und neutraler ideologiefreier Erkenntnis redet, zeigt damit recht wenig Erfahrung mit wissenschaftlicher Praxis und der Einordnung wissenschaftlicher Ergebnisse.

Jeanette Gusko, Aufbrechen

Menschen, die Umbrüche erlebt haben, sind flexibler, resilienter und offener, weil sie sich Alternativen nicht nur vorstellen können, sondern auch erlebt haben

Das ist eine relevante und richtige Ansage in einer Welt, die zusehends an Homogenität verliert, in der Eindeutigkeit die mit Gewalt hergestellte Chimäre nationalistischer, konservativer oder autoritärer Demagogen ist.

Gusko bemüht allerdings genau diese Eindeutigkeitschimäre als vermeintlich allgegenwärtigen Hintergrund, von dem sich Transformationskompetente abheben. 

Damit nicht genug: Transformationskompetente sind, geht es nach Gusko, in bestimmten Milieus zu finden. Es sind Ostdeutsche, die keine Ossis mehr sein wollen, Menschen mit Migrationshintergrund (auch in der zweiten und dritten Generation) und aufgestiegene Arbeiterkinder.

Fast allem, was Gusko über Transformationskompetenz sagt, kann ich zustimmen. Nur finde ich die Ausgangslage mit diesen klar abgetrennten Töpfen, vielleicht noch mit Gummiring abgedichtet wie Marmelade oder eingelegtes Gemüse zum Überwintern, völlig absurd. 

Scheidungen, Pleiten, Jobverlust, Alleinerziehendendasein, um nur ein paar Umbrüche aufzuzählen, sind Transformationen, die in der Mehrheitsgesellschaft offenbar watteweich aufgefangen werden. Im Gegensatz dazu beschreibt Gusko potenziellen Jobverlust in Transformationskompetenz-Milieus als existenzbedrohend.

Menschen ohne Migrationshintergrund oder Aufstiegsbiografie sind in Guskos Darstellung – unausgesprochen aber deutlich – Karriere- und Lebenswege vorgezeichnet, auch wenn es keine Anwaltskanzleien oder Arztpraxen von den Eltern zu übernehmen gibt, nicht einmal eine Greißlerei.

Die Eindeutigkeit der Mehrheitsgesellschaft ist eine Schimäre, die Eindeutigkeit der Herkunftsmilieus wundert mich allerdings ebenso. Es ist problematisch, in solchen Fällen auf die persönliche Geschichte zurückzugreifen. Gusko und ihre Gesprächspartner machen das, also sei es hier auch erlaubt. Mein Vater war Wissenschaftler, dann auch Universitätsprofessor, meine Mutter Volksschullehrerin. Klassisches Akademikerkind voller Akademikerprivilegien also. Mein Vater war der erste und einzige Studierte in einer Arbeiter- und Flüchtlingsfamilie, die im Zweiten Weltkrieg alles verloren hatte. Allerdings als Deutsche, die aus dem heutigen Polen nach der deutschen Grenze fliehen mussten. In der erweiterten Familie gab es keine Selbstständigen, Unternehmer oder Manager, lange Zeit nicht einmal Angestellte. Es gab auch niemand, den man in Rechts- oder Steuerdingen um Rat fragen, mit dem man Behördenwege abkürzen oder irgendwelche anderen Abschneider gehen konnte. Ich habe unausgesprochen gelernt, dass man nirgendwo dazugehört und eigentlich auch nirgends dazugehören will, dass man seine eigenen Dinge selbst regelt und dann am besten fährt, wenn man von niemandem etwas braucht. Ich hatte nie das Gefühl, arm zu sein, Kleidung von Bruder und Cousin war lange Zeit normal und mein Bruder und ich haben bis in das Alter von 17 oder 18 in Stockbetten in einem etwa zehn Quadratmeter großen Zimmer mit Fenster zum Gang geschlafen. Der Vater eines Schulfreunds war Eisenbahner, die ganze Familie konnte kostenlos mit der Eisenbahn fahren. Das waren Luxus und Privilegien. Urlaubsreisen gab es alle paar Jahre, die restlichen Sommer gab es Großeltern. Als Studienanfänger hätte mit eine akademische Karriere gefallen, aber niemand konnte mir sagen, worauf des dabei ankommt, auch mein Vater hatte als Physikprofessor keine Ahnung, was von Juniorphilosophen erwartet würde (heute, zwei abgeschlossene Studien später, weiß ich es noch immer nicht). Ich habe alle fünf Jahre den Job gewechselt, habe es dabei lange Zeit immer wieder gut erwischt, bis ich mal gestolpert und durch alle Netze gefallen bin und nach ein paar zähen Jahren heute ein besseres Leben hab. Ich bin weiß, männlich und hetero. Bin ich jetzt transformationskompetent oder bin ich Teil der gleichförmigen Mehrheitsgesellschaft?

Ich halte die Fähigkeit, mit unterschiedlichen Umgebungen, Situationen und Möglichkeiten umgehen zu können, für weitaus relevanter als den Großteil aller Ausbildungen. Ich finde es befremdlich, bei Erwachsenen mehr auf eine vor dreißig Jahren absolvierte Ausbildung als auf Tätigkeiten zu achten (was nicht bedeutet, dass jetzt alle Ärzte wären. Aber mein Vertrauen würde da weniger durch Uni-Zeugnisse geprägt). Ich halte geradlinige Karrieren mit gleichförmigen Aufgaben in ähnlichen Branchen und stetig in kleinen Schritten wachsenden Verantwortungsbereichen für kritische Alarmsignale, wenn Menschen gebraucht werden, die neue Probleme lösen und diffuse Situationen klären können. 

Aber ich finde es völlig abstrus, Fähigkeiten zum Perspektivenwechsel, Kreativität in Betrachtungsweisen oder Problemlösungskompetenzen an Gruppenidentitäten festzumachen. Die Idee widerspricht in ihren formalen Grundzügen ihren eigenen Inhalten völlig. Mit ihrer These konstruiert Gusko eine große konsistente Einheitsgesellschaft wie AfD und FPÖ es nicht besser könnten, und setzt dieser mehrere in ihrer Homogenität nicht minder konstruierte Minderheitsgesellschaften entgegen, die auf wundersame Weise durch gemeinsame Züge geeint werden. Es ist ein wenig tragisch, dass Logik by Gruppendynamik heute ein anerkanntes und übliches Argumentationsmuster ist.

Und natürlich kann ich als Nicht-Ossi, als Teilzeit-Arbeiter:innenkind mit unsichtbarem ostpreußisch-slowakisch-österreichischen Migrationshintergrund nicht mitreden, weil ich nicht betroffen bin. Ebenso wenig wie ich, als im auf dem Land gelebt habe, im Wirtshaus mitreden konnte, weil ich auch nach zehn Jahren nicht „von hier“ war. Oder ebenso wenig wie ich je als Wiener mitreden konnte. Oder ebenso wenig, wie ich „Menschen wie mich“ unter den „Reichen und Mächtigen“ gesehen hätte. Und ich könnte auch nicht einmal sagen, ob ich jetzt im Vergleich zu meinen Eltern auf-, ab- oder sonst wohin gestiegen wäre. Ich verdiene gut, besitze wenig, und wäre selbst nach strengen sozialdemokratischen Phantasien nicht vermögenssteuerpflichtig. Ich habe jetzt schon einige Bücher solcher „Klassenreisender“ gelesen, aber ich hätte noch immer keinen Anhaltspunkt gefunden, wohin ich mich orientieren sollte. Liegt das daran, dass ich ein lebenslanges Jahresticket für Klassenreisen gebucht habe? Oder ist das ein Hinweis darauf, dass das eventuell doch ein untaugliches Konzept ist?

Anke Graneß, Philosophie in Afrika

Soll man als Europäerin eine Philosophiegeschichte Afrikas schreiben? Graneß stellt sich diese Frage, bevor sie sich auf die Suche nach der Philosophiegeschichte Afrikas macht und macht damit zugleich klar, dass sie sich dem intellektuell ungesunden Strudel, den diese Frage nach sich zieht (vor allem, wenn die Frage schon feststeht), nicht entziehen wird. 

Graneß schreibt gleich 600 Seiten über Philosophiegeschichte in Afrika. Soll das eine weiße Wissenschaftlerin machen? Führt der Anspruch einer Philosophiegeschichte gleich vorweg Kategorien und Masstäbe ein, die seinem Gegenstand möglicherweise gar nicht angemessen sind? Muss das, was der europäische Philosophiebegriff beschreibt, in afrikanischen Denktraditionen wiedergefunden werden können, um diese als relevant zu respektieren? Welcher europäische Philosophiebegriff soll angewendet werden? Der der Vorsokratiker? Der Aufklärung? Oder einer, der zeitgenössische wissenschaftliche Massstände ansetzt? 

Hier schließt sich noch ein anderer Fragenkomplex an: Was ist Afrika? Als geografischer Kontinent hat Afrika klar umrissene Grenzen. In der Betrachtung als Kulturraum fällt die Abgrenzung deutlich schwerer. Im Nordosten finden sich starke arabische Einflüsse, die Sahara hat über lange Perioden als Kultur- und Handelsbarriere zwischen Norden und Süden gewirkt und auch gemeinsame Züge wie die Ausbreitung des Islam haben sich in verschiedenen Regionen zu verschiedenen Zeiten und unter unterschiedlichen Gesichtspunkten vollzogen. 

Graneß entscheidet sich naheliegenderweise für den geografischen Afrikabegriff, der Ägypten einschließt – eine Entscheidung, die in deutlich rassistischer geprägten Perioden nicht immer so getroffen wurde. Mit dieser Entscheidung lassen sich Schriften finden, die deutlich vor die Zeit der Vorsokratiker in Griechenland zurückgehen. Die These, dass Philosophie also in Afrika ihren Ursprung findet, lässt sich allerdings nur sehr bedingt untermauern. Denn die Textdokumente sind entweder stark religiös geprägt oder sie beschreiben sich mit pragmatischen Lebensweisheiten. Den abstrakten, über Erfahrung und das direkte Lebensumfeld hinausgehenden metaphysischen Bezug der Vorsokratiker haben sie selten. 

In ihrer Suche nach afrikanischer Philosophie diskutiert Graneß alte Texte aus verschiedenen Regionen – viele von ihnen sind religiös geprägt. Manche von ihnen, wie jene der Kirchenväter rund um Augustinus, werden seit jeher ohne eine Spur des Zögerns europäischen Philosophietraditionen zugerechnet. Auch daraus ließen sich Argumente konstruieren, die den Ursprung der Philosophie (oder zumindest starke Einflüsse auf europäische Philosophie) in Afrika verorten. Augustinus geht zwar in vielen Fällen (etwa in seiner Diskussion der Zeit) über religiöse Argumentation hinaus, allerdings ist sein Einfluss in der Kirche ungleich größer als in der Philosophie. 

Andere frühe Schriften finden sich im früh christianisierten Äthiopien und natürlich im Nordwesten  im algerisch-marokkanisch-spanischen Kulturraum, dort mit starken griechischen Einflüssen. Auf diesem Weg kam Aristoteles zurück nach Europa. 

Die nächsten konkreten Anknüpfungspunkte an die Philoosphiegeschichte findet Graneß ab dem 16. Jahrhundert, vorrangig bei islamischen Gelehrten, worunter auch einige Frauen Berühmtheit erlangt haben. Dazwischen findet sich ähnlich wie im europäischen Mittelalter eine mehrere Jahrhunderte umspannende Lücke. Allerdings finden sich auf dem Kontinent Bibliotheken und Schriftsammlungen, die noch nicht annähernd ausgewertet wurden. Die berühmtesten sind die Schriften von Timbuktu, die seit Jahrhunderten in Privatbesitz sind und in den letzten Jahrzehnten massiv durch islamische Fundamentalisten bedroht waren. Auch in Äthiopien beispielsweise finden sich aber immer wieder kleine unscheinbare lokale Museen mit kleinen, aber weit zurückreichenden Bibliotheken.

Graneß zieht sich immer wieder auf den Punkt der neue Rahmen absteckenden Historikerin zurück, die mehr Fragen stellt als Antworten sucht. Querweise auf postkoloniale Ausgrenzungsdiskurse sind ebenfalls eher wenig produktiv. Ausgrenzung kann festgestellt werden, es gibt also weit mehr im philosophischen Forschungsgebiet, als eine Begriffsbestimmung aus den sechziger Jahren ergeben hätte. Das ist wenig überraschen, kann zur Kenntnis genommen werden und bereitet den Boden für neue Forschungen auf.  Graneß erliegt allerdings der Versuchung, in diese Marginalisierungsschleife zu bleiben und flicht immer wieder eigene Kapitel über Frauen in der Philosophiegeschichte ein. Das trägt allerdings ebenso wenig zu einer afrikanischen Philosophiegeschichte bei wie die Auseinandersetzung mit Schwarzen, die als Kinder nach Europa verkauft wurden und später an europäischen Universitäten studierten. 

Die 600 Seiten sind eine solide historische Darstellung einiger früher Schriften aus dem afrikanischen Kontinent. Die punktuellen Analysen bleiben allerdings isoliert, erzählen keine Geschichte und stellen eigentlich nicht einmal Thesen auf. Es stimmt nicht, dass Afrika ein schriftloser Kontinent wäre – das wussten wir aber auch schon so. Es stimmt nicht, dass Afrika intellektuell und wirtschaftlich von der Welt isoliert gewesen wäre – auch das wussten wir aber. Es muss nicht jeder Wissenschafts-, Politik- oder Philosophiegeschichte in Europa beginnen – auch hier kämpft Graneß ein wenig gegen Windmühlen. Die Klagen über das vermeintliche Fehlen von Kontextualisierung in Philosophie und Philosophiegeschichte lässt sich angesichts von spezialisierten Forschungsgebieten wie History and Philosophy of Science und Science and Technology Studies oder Methoden wie Standpoint Theory oder Intesektionalität kaum nachvollziehen. 

Martin Andree, Big Tech muss weg

Es ist eine einfache und kaum zu ignorierende oder widerlegende These: Big Tech schadet Medien und Demokratie. Die Vorherrschaft von Suchmaschinen und Social Networks, die Traffic technisch beherrschen und auch inhaltlich steuern, drückt Medien an die Wand und entfernt Öffentlichkeit von demokratischen Prinzipien. Es haben nur noch einige wenige das Sagen. Konkurrenz kann kaum entstehen; digital herrscht das Alles-oder-nichts-Prinzip.

Das lässt sich klar sagen und belegen; Andree verpackt es in dramatisierte Sprache, in der vieles „tödlich“ ist, illustriert sein Buch mit verzerrenden Grafiken und tut damit der Klarheit und Relevanz seiner eigenen Thesen keinen Gefallen. 

Das ist schade, denn über weite Strecken gibt es nichts gegen seine Aussagen einzuwenden. Ein paar Schwachstellen sind seine Ignoranz der Tatsache, dass sich viele Menschen längst schon wieder von Social Media wegbewegen (auch wenn Social Networks wichtige Nachrichtenquelle bleiben) oder seine Darstellung von Google, Facebook und Amazon als durchgängiger Funnel in der Produktrecherche (also ob nicht alle Unternehmen jeweils eigene Interessen verfolgen würden). Der ideologische Überbau von Big Tech ist in Adrian Daubs „What Tech Calls Thinking“ besser ausgearbeitet.

Mir fehlt auch die Rolle der vielen kleinen, ohne Förderungen nur als Privatveranstaltung lebensfähigen Mini-Medien, die mithelfen, die Relevanz von Nachrichtenmedien zu untergraben, die den Begriff von Qualitätsjournalismus aufweichen, indem sie ihn nicht mehr an Checks und Mehraugenprinzipien binden, sondern inhaltliche Kriterien dafür identifizieren und mit ihren – bescheidenen – Reichweitenkonzepten Plattformen unterstützen.

Andree muss sich auch die Frage stellen lassen, ob die Unterstellung der Kapitulation von Regierungen und Medien nicht etwas dünn belegt ist, wenn Google als Monopolist verurteilt wird, zahlreiche weitere Verfahren gegen Techriesen laufen, und TikTok ein umstrittenes weil potenziell Abhängigkeiten erzeugendes Treueprogramm für User zumindest in Europa nicht auf den Markt bringen wird.

Neben diesen Schwachpunkten bringt Andree aber einige sehr klare, machbare und überzeugende Argumente dafür, dass und wie Big Tech reguliert werden kann.

Die Frage der Inhaltsregulierung – sollen Plattformen als Medien betrachtet und so wie andere Medien auch für Inhalte haftbar gemacht werden – war lange schwer zu beantworten. Das Versprechen, nur Kanäle zur Verfügung zu stellen und die Inhalte der Verantwortung der User zu überlassen, erweckte lang den Eindruck, Plattformen könnten nicht haftbar gemacht werden. Diese Neutralität existiert allerdings schon länger nicht mehr. Plattformen haben sich entschieden, bei Inhalten mitzumischen. Nachrichtenmedien und andere Inhalte, die Links nach draußen enthalten, werden auf allen Plattformen niedriger priorisiert. Accounts, die öfters auf Substack verweisen, sind im Twitterfeed kaum noch für andere sichtbar. Video- und Podcastplattformen bieten unterschiedlichen Publishern unterschiedliche Konditionen und kaufen teilweise auch gezielt konkrete Inhalte ein. Das sind Entwicklungen, die das Spielfeld deutlich verändern und eher dafür sprechen, Social Networks auch als Inhalteanbieter zu behandeln.

Offen bleibt dabei aber die ganz praktische Frage, nach welchem Recht diese Regulierungen getroffen werden sollten und auch welcher Grundlage Plattformen veranlasst werden können, sich daran zu halten. Andree wundert sich, warum deutsches Recht nicht auch für deutsche Plattformen gelten sollte. Ich bin nicht überzeugt, dass diese Vereinfachung ganz zu Ende gedacht ist. Denn in letzter Konsequenz bedeutet das einseitige Beharren auf der Durchsetzung nationalen Rechts für internationale Plattformen Internetsperren, wie wir sie aus China kennen. Ich nehme an, dass das nicht das erste Mittel der Wahl ist.

Andree versucht denn auch, in seinen Regulierungsvorschlägen konkreter zu werden – mit wechselnder Überzeugungskraft. 

  • Eine erste Forderung: User sollen beim Wechsel von Plattformen Follower mitnehmen können. Die Entscheidung sollte erstens den Followern überlassen bleiben, zweitens waren solche Ansätze einer der größten Kritikpunkte an Whatsapp. Die App verlangte den Zugriff auf Kontakte – und erzwang so Zugriff auf Daten von Usern, die nichts davon wussten.
  • Outlink-Freiheit dagegen ist ein sehr relevanter Punkt. Es soll möglich sein, Traffic von Plattformen zu anderen Seiten zu lenken, ohne dass Plattformen hier steuernd eingreifen, indem etwa Medien oder Konkurrenzplattformen benachteiligt werden.
  • Datentransparenz ist interessant und wird auch in anderen Konzepten gefordert, allerdings dienen solche Erhebungen oft – und auch bei Andree – als erste Schritte auf dem Weg zu Kontrolle und Besteuerung.
  • Steuern sind denn auch Andrees nächster Punkt.
  • Offenlegungs- und weitere Transparenzpflichten können nützlich sein, auch Entflechtungs- und vielleicht sogar Marktanteilsobergrenzen.
  • Skeptischer bin ich bei der Forderung nach neutralen Algorithmen. Es gibt keine Neutralität in Daten und Algorithmen. Es gibt allenfalls Transparenz darüber, nach welchen Kriterien und mit welchen Zielen Gewichtungen und andere Entscheidungen vorgenommen wurden.

Anregend ist Andrees letzte Forderung nach einer wie ein Aufsichtsrat funktionierenden Community-Instanz pro Plattformen, die etwa in AGB-Fragen das letzte Wort haben soll. An diesem Vorschlag lassen sich auch alle Risiken und Schwierigkeiten der Regulierungsideen für Plattformen festmachen: Wer soll wie welche rechtlichen Grundlagen dafür schaffen? Wie sollen User in die Lage versetzt werden, in solchen komplexen Fragestellungen urteilen zu können? Interessiert das überhaupt eine ausreichende Menge an Usern, um relevante Dynamik aufbauen zu können? Und, nachdem Andrees Prämisse die Rettung von (mehr oder weniger) klassischen Medien ist: Interessiert diese Rettung User überhaupt und würden User, die durch ihre Verhalten mitgeholfen haben, die aktuell problematische Situation herbeizuführen, Regelungen treffen, die diese Situation verändern? Oder würden sie diese eher einzementieren und so etwas wie einen Social Media-Brexit herbeiführen?

Viele Diagnosen in Andrees Buch stimmen. Ich habe allerdings Zweifel ob der Konsequenzen. Was heute wie ein perfider Plan auf dem Weg zur Medienvorherrschaft erscheint, ist das Ergebnis langfristiger und unterschiedlicher Entwicklungen und des Verhaltens von Usern und Medien. Manche lange Zeit auf Social Networks erfolgreichen und von anderen bewunderten Medien wie Vice oder Ozy haben sich in ihrer Dauerpräsenz überflüssig gemacht und sind völlig vom Markt verschwunden. Amazon-Händler haben allesamt die Erfahrung gemacht, das Amazon Preise diktiert, Verantwortung und Haftungsfragen auf die Kleinen abwälzt und Prozesse so gestaltet, dass sie für Amazon selbst und für Konsumenten passen – die eigentlichen Anbieter kommen unter die Räder. Im Papiermedien-Zeitalter machte man sich kaum Gedanken darüber, wenn unter 30-Jährige keine Zeitungsabos hatten (außer vielleicht einem mit guten Giveaways verbundenen Studentenabo). Heute sollen sich Nachrichtenmedien Sorgen machen, wenn 15-Jährige sagen, dass im aktuellen Nachrichtenangebot nichts für sie interessantes dabei ist. 

Medien und User, die eine lebendige Medienlandschaft behalten wollen, müssen selbst etwas dazu beitragen. Das wird nicht ausreichen. Eine noch weniger Erfolg versprechende Strategie ist es allerdings – und das habe ich schon einige Male bei eher oberflächenorientierten CEOs beobachtet – politische Lösungen zu verlangen oder gar zu erwarten. Die werden nicht rechtzeitig kommen. Medien und User müssen selbst daran arbeiten, die notwendige Distanz zu Social Networks wiederherzustellen.

David Chalmers, Reality+

Chalmers ist bekannt für griffige Theorien. Er hat unter anderem postuliert, dass Smartphones Teil unsere Geistes sind, er hat sich intensiv und öffentlichkeitswirksam mit philosophischen Zombies beschäftigt, und er greift immer wieder Themen rund um Digitales und Virtuelles auf. In Reality+ argumentiert er, dass Virtuelles real ist und es wenig Grund gibt, Simulationen gegenüber einer vermeintlich realen Realität pauschal abzuwerten.

Um das ausufernde Programm etwas einzugrenzen, wählt Chalmers Descartes als Gegner. Dessen bekannte Suche nach Sicherheit gegenüber möglichen Hindernissen (Träume ich? Spielt mit ein Dämon alles, was ich erlebe, nur vor? Kann ich irgendetwas sicher wissen?) zieht sich als Hintergrund durch den ganzen Text. 

Statistisch gesehen sind Simulationen wahrscheinlicher als Realität

Eine von Chalmers‘ Prämissen, die belegen soll, warum die Fragestellung relevant ist, ist eine einfache Rechnung: Wenn nur ein Prozent der Menschen Simulationsspiele wie Sim City spielt und dabei in jedem Spiel nur tausend simulierte Charaktere einsetzt, gibt es zehn Mal mehr simulierte als echte Menschen auf der Welt. Also ist die Wahrscheinlichkeit, in einer simulierten Welt zu leben, zehn Mal höher als die, in einer echten Welt zu leben. 

Chalmers führt fünf wesentliche Kriterien für Realität an. Um real zu sein, muss etwas existieren, es muss Wirkkräfte haben (also in Kausalbeziehungen mit seiner Umwelt stehen), es muss von unserem Geist unabhängig sein (also auch dann existieren, wenn wir gerade nicht daran denken), es darf nicht eingebildet sein und es muss „echt“ oder „richtig“ sein. 

Dabei müssen nicht alle Eigenschaften auf einmal zutreffen. Das Vorliegen einzelner Eigenschaften ist mitunter ausreichend; überzeugender sind Kombinationen davon.

Chalmers‘ zentrale These ist der sogenannte Simulation Realism: Auch wenn wir in einer Simulation sind, sind die meisten Dinge trotzdem so, wie wir glauben.

Mit Strukturalismus ins Virtuelle

Das ist im Kern eine strukturalistische und konstruktivistische Aussage. Es gibt such in der Simulation Realität, weil Dinge oder Umstände, die wir als für Realität relevant erachten, bestimmte Kriterien erfüllen. Dazu bedarf es keiner Substanz, Strukturen und Eigenschaften sind ausreichend.

  • Dinge in Simulationen sind wirklich, weil sie da sind, so wie etwas in Simulationen eben da sein kann. Irgendwo gibt es Pixel, Algorithmen und Prozesse.
  • Elemente in Simulationen haben Wirkung. Sie rufen Stimmung hervor, lösen Entwicklungen aus, innerhalb und außerhalb der Simulation.
  • Sie sind unabhängig von unserem Geist und davon, ob wir gerade an die denken. Pixel sind da, Algorithmen laufen, so wie Dinge da sind, auch wenn wir gerade nicht hinsehen.
  • Sind Dinge, wie es scheint? Wenn wir nicht wissen, dass wir in einer Simulation sind, dann ja, sonst wäre es eine schlechte Simulation. und wenn wir wissen, dass wir in einer Simulation sind, dann erst recht, denn wir erwarten in einer Simulation Simulationen.
  • Ist es echt? Philosophen schlittern bei dieser Frage schnell in fröhliche Regresse. Es gibt aber keinen Grund, warum simulierte Katzen weniger echte simulierte Katzen sein sollten. Es ist eine Frage der Maßstäbe und der Abstraktionslevels.

Sind dann auch Alternative Facts und Deep Fakes real?

Alternative Facts wären real, wenn sie sich auf alternative Realitäten in Alternativ-Universen beziehen. Deep Fakes sind real; sie existieren, sie haben Wirkung – sie sind so real wie jede andere Lüge.

Chalmers‘ Argumentation hat im Detail allerdings einige Schwächen und geht an aktuelen Entwicklungen vorbei. Sein Argument, wir könnten einen untintelligent argumentierenden Obama als falsch entlarven, womit dieser Deep Fake seine Echtheit verlöre, verfehlt das Thema. Solche Deep Fakes richten sich nicht an Menschen, die Argumente ihrer Intelligenz wegen schätzen, sie richten sich an Menschen, die ihre Vorurteile bestätigt sehen wollen. Insofern kommt noch eine weitere Dimension ins Spiel: Deep Fakes werden nicht an ihren Vorbildern gemessen, sondern an den Erwartungen ihres Publikums. 

Fake News gesteht Chalmers auf jeden Fall Realität zu, auch wenn sie nicht echt sind (hier zeigt sich im übrigen einmal mehr, dass Deutsch die weitaus philosophietauglichere Sprache ist als Englisch).

Die Frage nach der Realität bemühter Deep Fakes – etwa von Menschen, die LLM-Chatbots von sich selbst erstellen, um ewig zu leben – stellt Chalmers nicht.

Wenn es also zwischen virtueller und traditioneller Welt wenig relevante Unterschiede gibt, gibt es dann im Virtuellen Bewusstsein? Haben Maschinen Bewusstsein?

Chalmers ist meines Erachtens etwas schnell damit, diese Frage zu bejahen. Sein Argument: Wenn mein Hirn Sitz des Bewusstseins ist und ich es Zelle für Zelle in eine Simulation hochlade – bei welcher Zelle sollte das Bewusstsein verlorengehen?

Das Problem liegt allerdings in der Fragestellung. Was bedeutet es, ein Hirn Zelle für Zelle in eine Maschine zu verwandeln? Welches Verfahren (außer einem Gedankenexperiment) ist das? 

Und was lernen wir aus solchen Fragestellungen für die Frage nach KI und Bewusstsein? Wir lernen vor allem, mit Metaphern vorsichtiger umzugehen. 

Chalmers tut sich nicht nur leicht mit der Vorstellung, Hirne in Maschinen hochzuladen, er ist auch ein Vertreter der Extended Mind-Hypothese. Derzufolge sind externe Denk- oder Gedächtnishilfen wie Notizen, Kritzeleien, Suchmaschinen oder Smartphones Teil unseres Geistes. Das ist grundsätzlich einleuchtend. Allerdings zeigt sich, und das vermisse ich bei Chalmers, dass mit zunehmender Komplexität der externen Tools die interne Leistung wieder relevanter wird. Wir müssen wissen, was und wie wir suchen. Und wir müssen erst recht wissen, wie wir prompten und wie wir die KI-generierten Ergebnisse validieren.

Wissenschaftlicher Anti-Realismus

Sind das nun digitalverliebte Spitzfindigkeiten?

Gibt es in Simulationen wahr oder falsch? Chalmers bemüht dazu den wissenschaftlichen Antirealismus. Demzufolge kümmert sich Wissenschaft nicht viel um Realität, sie sucht Gesetzmäßigkeiten, die sich gut dazu eignen Vorhersagen zu treffen. Wissenschaftlicher Antirealismus ist so etwas wie Verhaltensökonomie für Naturwissenschaftler. Relevant ist, was funktioniert – warum, was das bedeutet, wie es zu bewerten ist und ob es richtig (in mehreren Sinnvarianten) ist, ist unerheblich.

Wahrheit kann damit eine interne und eine externe Dimension haben. Die externe Dimension rührt an Fragen von Echtheit und grenzt an eine Korrespondenztheorie von Wahrheit. Derzufolge ist wahr, was der Realität entspricht. Wie diese Entsprechung festgestellt wird, bleibt offen. Die interne Dimension ist pragmatisch gebrauchsorientiert, richtet sich danach, ob gewünschte Ergebnisse eintreten, und entspricht eher einer Kohärenztheorie von Wahrheit, innerhalb derer wahr ist, was keine Widersprüche erzeugt. 

Letzteres kann in Simulationen immer stattfinden. Das Prinzip der Salienz – worauf beziehe ich mich augenscheinlich? – gilt in Simulationen und außerhalb dieser und ist ein wesentliches Kriterium, um Entscheidungen über Wahrheit überhaupt zu ermöglichen. Wir müssen und darüber einigen, ob wir vom Gleichen reden. Das gilt innerhalb und außerhalb von Simulationen. 

Chalmers beginnt mit einem großen Anspruch (Simulationen sind real) und endet recht pragmatisch mit strukturalistisch-konstruktivistischen Konsequenzen. Strukturen entstehen durch Erfahrung, und aus Erfahrung entsteht Realität. Das ist ein recht schwaches Konzept von Realität, dass sich ohne weiteres auch auf virtuelle Realitäten anwenden lässt. Die letzte Frage, die sich mit bei solchen komplex abgesicherten Realitätsszenarien stets stelllt, ist die nach der Sinnhaftigkeit solcher Realitätsbegriffe. Strukturalisten und Konstruktivisten nicken das ab. Relativisten können da auch mit (falls man sie mitnehmen möchte). Skeptiker werden weiterhin ihren Sport betreiben und Absolutisten ebenso wie Hyper-Rationalisten werden sich ebenfalls wenig bewegen.

Aber immerhin hilft es, die eigenen Position zu verstehen – auch wenn ich Chalmers nicht in allem zustimmen kann.