Anke Graneß, Philosophie in Afrika

Soll man als Europäerin eine Philosophiegeschichte Afrikas schreiben? Graneß stellt sich diese Frage, bevor sie sich auf die Suche nach der Philosophiegeschichte Afrikas macht und macht damit zugleich klar, dass sie sich dem intellektuell ungesunden Strudel, den diese Frage nach sich zieht (vor allem, wenn die Frage schon feststeht), nicht entziehen wird. 

Graneß schreibt gleich 600 Seiten über Philosophiegeschichte in Afrika. Soll das eine weiße Wissenschaftlerin machen? Führt der Anspruch einer Philosophiegeschichte gleich vorweg Kategorien und Masstäbe ein, die seinem Gegenstand möglicherweise gar nicht angemessen sind? Muss das, was der europäische Philosophiebegriff beschreibt, in afrikanischen Denktraditionen wiedergefunden werden können, um diese als relevant zu respektieren? Welcher europäische Philosophiebegriff soll angewendet werden? Der der Vorsokratiker? Der Aufklärung? Oder einer, der zeitgenössische wissenschaftliche Massstände ansetzt? 

Hier schließt sich noch ein anderer Fragenkomplex an: Was ist Afrika? Als geografischer Kontinent hat Afrika klar umrissene Grenzen. In der Betrachtung als Kulturraum fällt die Abgrenzung deutlich schwerer. Im Nordosten finden sich starke arabische Einflüsse, die Sahara hat über lange Perioden als Kultur- und Handelsbarriere zwischen Norden und Süden gewirkt und auch gemeinsame Züge wie die Ausbreitung des Islam haben sich in verschiedenen Regionen zu verschiedenen Zeiten und unter unterschiedlichen Gesichtspunkten vollzogen. 

Graneß entscheidet sich naheliegenderweise für den geografischen Afrikabegriff, der Ägypten einschließt – eine Entscheidung, die in deutlich rassistischer geprägten Perioden nicht immer so getroffen wurde. Mit dieser Entscheidung lassen sich Schriften finden, die deutlich vor die Zeit der Vorsokratiker in Griechenland zurückgehen. Die These, dass Philosophie also in Afrika ihren Ursprung findet, lässt sich allerdings nur sehr bedingt untermauern. Denn die Textdokumente sind entweder stark religiös geprägt oder sie beschreiben sich mit pragmatischen Lebensweisheiten. Den abstrakten, über Erfahrung und das direkte Lebensumfeld hinausgehenden metaphysischen Bezug der Vorsokratiker haben sie selten. 

In ihrer Suche nach afrikanischer Philosophie diskutiert Graneß alte Texte aus verschiedenen Regionen – viele von ihnen sind religiös geprägt. Manche von ihnen, wie jene der Kirchenväter rund um Augustinus, werden seit jeher ohne eine Spur des Zögerns europäischen Philosophietraditionen zugerechnet. Auch daraus ließen sich Argumente konstruieren, die den Ursprung der Philosophie (oder zumindest starke Einflüsse auf europäische Philosophie) in Afrika verorten. Augustinus geht zwar in vielen Fällen (etwa in seiner Diskussion der Zeit) über religiöse Argumentation hinaus, allerdings ist sein Einfluss in der Kirche ungleich größer als in der Philosophie. 

Andere frühe Schriften finden sich im früh christianisierten Äthiopien und natürlich im Nordwesten  im algerisch-marokkanisch-spanischen Kulturraum, dort mit starken griechischen Einflüssen. Auf diesem Weg kam Aristoteles zurück nach Europa. 

Die nächsten konkreten Anknüpfungspunkte an die Philoosphiegeschichte findet Graneß ab dem 16. Jahrhundert, vorrangig bei islamischen Gelehrten, worunter auch einige Frauen Berühmtheit erlangt haben. Dazwischen findet sich ähnlich wie im europäischen Mittelalter eine mehrere Jahrhunderte umspannende Lücke. Allerdings finden sich auf dem Kontinent Bibliotheken und Schriftsammlungen, die noch nicht annähernd ausgewertet wurden. Die berühmtesten sind die Schriften von Timbuktu, die seit Jahrhunderten in Privatbesitz sind und in den letzten Jahrzehnten massiv durch islamische Fundamentalisten bedroht waren. Auch in Äthiopien beispielsweise finden sich aber immer wieder kleine unscheinbare lokale Museen mit kleinen, aber weit zurückreichenden Bibliotheken.

Graneß zieht sich immer wieder auf den Punkt der neue Rahmen absteckenden Historikerin zurück, die mehr Fragen stellt als Antworten sucht. Querweise auf postkoloniale Ausgrenzungsdiskurse sind ebenfalls eher wenig produktiv. Ausgrenzung kann festgestellt werden, es gibt also weit mehr im philosophischen Forschungsgebiet, als eine Begriffsbestimmung aus den sechziger Jahren ergeben hätte. Das ist wenig überraschen, kann zur Kenntnis genommen werden und bereitet den Boden für neue Forschungen auf.  Graneß erliegt allerdings der Versuchung, in diese Marginalisierungsschleife zu bleiben und flicht immer wieder eigene Kapitel über Frauen in der Philosophiegeschichte ein. Das trägt allerdings ebenso wenig zu einer afrikanischen Philosophiegeschichte bei wie die Auseinandersetzung mit Schwarzen, die als Kinder nach Europa verkauft wurden und später an europäischen Universitäten studierten. 

Die 600 Seiten sind eine solide historische Darstellung einiger früher Schriften aus dem afrikanischen Kontinent. Die punktuellen Analysen bleiben allerdings isoliert, erzählen keine Geschichte und stellen eigentlich nicht einmal Thesen auf. Es stimmt nicht, dass Afrika ein schriftloser Kontinent wäre – das wussten wir aber auch schon so. Es stimmt nicht, dass Afrika intellektuell und wirtschaftlich von der Welt isoliert gewesen wäre – auch das wussten wir aber. Es muss nicht jeder Wissenschafts-, Politik- oder Philosophiegeschichte in Europa beginnen – auch hier kämpft Graneß ein wenig gegen Windmühlen. Die Klagen über das vermeintliche Fehlen von Kontextualisierung in Philosophie und Philosophiegeschichte lässt sich angesichts von spezialisierten Forschungsgebieten wie History and Philosophy of Science und Science and Technology Studies oder Methoden wie Standpoint Theory oder Intesektionalität kaum nachvollziehen. 

Martin Andree, Big Tech muss weg

Es ist eine einfache und kaum zu ignorierende oder widerlegende These: Big Tech schadet Medien und Demokratie. Die Vorherrschaft von Suchmaschinen und Social Networks, die Traffic technisch beherrschen und auch inhaltlich steuern, drückt Medien an die Wand und entfernt Öffentlichkeit von demokratischen Prinzipien. Es haben nur noch einige wenige das Sagen. Konkurrenz kann kaum entstehen; digital herrscht das Alles-oder-nichts-Prinzip.

Das lässt sich klar sagen und belegen; Andree verpackt es in dramatisierte Sprache, in der vieles „tödlich“ ist, illustriert sein Buch mit verzerrenden Grafiken und tut damit der Klarheit und Relevanz seiner eigenen Thesen keinen Gefallen. 

Das ist schade, denn über weite Strecken gibt es nichts gegen seine Aussagen einzuwenden. Ein paar Schwachstellen sind seine Ignoranz der Tatsache, dass sich viele Menschen längst schon wieder von Social Media wegbewegen (auch wenn Social Networks wichtige Nachrichtenquelle bleiben) oder seine Darstellung von Google, Facebook und Amazon als durchgängiger Funnel in der Produktrecherche (also ob nicht alle Unternehmen jeweils eigene Interessen verfolgen würden). Der ideologische Überbau von Big Tech ist in Adrian Daubs „What Tech Calls Thinking“ besser ausgearbeitet.

Mir fehlt auch die Rolle der vielen kleinen, ohne Förderungen nur als Privatveranstaltung lebensfähigen Mini-Medien, die mithelfen, die Relevanz von Nachrichtenmedien zu untergraben, die den Begriff von Qualitätsjournalismus aufweichen, indem sie ihn nicht mehr an Checks und Mehraugenprinzipien binden, sondern inhaltliche Kriterien dafür identifizieren und mit ihren – bescheidenen – Reichweitenkonzepten Plattformen unterstützen.

Andree muss sich auch die Frage stellen lassen, ob die Unterstellung der Kapitulation von Regierungen und Medien nicht etwas dünn belegt ist, wenn Google als Monopolist verurteilt wird, zahlreiche weitere Verfahren gegen Techriesen laufen, und TikTok ein umstrittenes weil potenziell Abhängigkeiten erzeugendes Treueprogramm für User zumindest in Europa nicht auf den Markt bringen wird.

Neben diesen Schwachpunkten bringt Andree aber einige sehr klare, machbare und überzeugende Argumente dafür, dass und wie Big Tech reguliert werden kann.

Die Frage der Inhaltsregulierung – sollen Plattformen als Medien betrachtet und so wie andere Medien auch für Inhalte haftbar gemacht werden – war lange schwer zu beantworten. Das Versprechen, nur Kanäle zur Verfügung zu stellen und die Inhalte der Verantwortung der User zu überlassen, erweckte lang den Eindruck, Plattformen könnten nicht haftbar gemacht werden. Diese Neutralität existiert allerdings schon länger nicht mehr. Plattformen haben sich entschieden, bei Inhalten mitzumischen. Nachrichtenmedien und andere Inhalte, die Links nach draußen enthalten, werden auf allen Plattformen niedriger priorisiert. Accounts, die öfters auf Substack verweisen, sind im Twitterfeed kaum noch für andere sichtbar. Video- und Podcastplattformen bieten unterschiedlichen Publishern unterschiedliche Konditionen und kaufen teilweise auch gezielt konkrete Inhalte ein. Das sind Entwicklungen, die das Spielfeld deutlich verändern und eher dafür sprechen, Social Networks auch als Inhalteanbieter zu behandeln.

Offen bleibt dabei aber die ganz praktische Frage, nach welchem Recht diese Regulierungen getroffen werden sollten und auch welcher Grundlage Plattformen veranlasst werden können, sich daran zu halten. Andree wundert sich, warum deutsches Recht nicht auch für deutsche Plattformen gelten sollte. Ich bin nicht überzeugt, dass diese Vereinfachung ganz zu Ende gedacht ist. Denn in letzter Konsequenz bedeutet das einseitige Beharren auf der Durchsetzung nationalen Rechts für internationale Plattformen Internetsperren, wie wir sie aus China kennen. Ich nehme an, dass das nicht das erste Mittel der Wahl ist.

Andree versucht denn auch, in seinen Regulierungsvorschlägen konkreter zu werden – mit wechselnder Überzeugungskraft. 

  • Eine erste Forderung: User sollen beim Wechsel von Plattformen Follower mitnehmen können. Die Entscheidung sollte erstens den Followern überlassen bleiben, zweitens waren solche Ansätze einer der größten Kritikpunkte an Whatsapp. Die App verlangte den Zugriff auf Kontakte – und erzwang so Zugriff auf Daten von Usern, die nichts davon wussten.
  • Outlink-Freiheit dagegen ist ein sehr relevanter Punkt. Es soll möglich sein, Traffic von Plattformen zu anderen Seiten zu lenken, ohne dass Plattformen hier steuernd eingreifen, indem etwa Medien oder Konkurrenzplattformen benachteiligt werden.
  • Datentransparenz ist interessant und wird auch in anderen Konzepten gefordert, allerdings dienen solche Erhebungen oft – und auch bei Andree – als erste Schritte auf dem Weg zu Kontrolle und Besteuerung.
  • Steuern sind denn auch Andrees nächster Punkt.
  • Offenlegungs- und weitere Transparenzpflichten können nützlich sein, auch Entflechtungs- und vielleicht sogar Marktanteilsobergrenzen.
  • Skeptischer bin ich bei der Forderung nach neutralen Algorithmen. Es gibt keine Neutralität in Daten und Algorithmen. Es gibt allenfalls Transparenz darüber, nach welchen Kriterien und mit welchen Zielen Gewichtungen und andere Entscheidungen vorgenommen wurden.

Anregend ist Andrees letzte Forderung nach einer wie ein Aufsichtsrat funktionierenden Community-Instanz pro Plattformen, die etwa in AGB-Fragen das letzte Wort haben soll. An diesem Vorschlag lassen sich auch alle Risiken und Schwierigkeiten der Regulierungsideen für Plattformen festmachen: Wer soll wie welche rechtlichen Grundlagen dafür schaffen? Wie sollen User in die Lage versetzt werden, in solchen komplexen Fragestellungen urteilen zu können? Interessiert das überhaupt eine ausreichende Menge an Usern, um relevante Dynamik aufbauen zu können? Und, nachdem Andrees Prämisse die Rettung von (mehr oder weniger) klassischen Medien ist: Interessiert diese Rettung User überhaupt und würden User, die durch ihre Verhalten mitgeholfen haben, die aktuell problematische Situation herbeizuführen, Regelungen treffen, die diese Situation verändern? Oder würden sie diese eher einzementieren und so etwas wie einen Social Media-Brexit herbeiführen?

Viele Diagnosen in Andrees Buch stimmen. Ich habe allerdings Zweifel ob der Konsequenzen. Was heute wie ein perfider Plan auf dem Weg zur Medienvorherrschaft erscheint, ist das Ergebnis langfristiger und unterschiedlicher Entwicklungen und des Verhaltens von Usern und Medien. Manche lange Zeit auf Social Networks erfolgreichen und von anderen bewunderten Medien wie Vice oder Ozy haben sich in ihrer Dauerpräsenz überflüssig gemacht und sind völlig vom Markt verschwunden. Amazon-Händler haben allesamt die Erfahrung gemacht, das Amazon Preise diktiert, Verantwortung und Haftungsfragen auf die Kleinen abwälzt und Prozesse so gestaltet, dass sie für Amazon selbst und für Konsumenten passen – die eigentlichen Anbieter kommen unter die Räder. Im Papiermedien-Zeitalter machte man sich kaum Gedanken darüber, wenn unter 30-Jährige keine Zeitungsabos hatten (außer vielleicht einem mit guten Giveaways verbundenen Studentenabo). Heute sollen sich Nachrichtenmedien Sorgen machen, wenn 15-Jährige sagen, dass im aktuellen Nachrichtenangebot nichts für sie interessantes dabei ist. 

Medien und User, die eine lebendige Medienlandschaft behalten wollen, müssen selbst etwas dazu beitragen. Das wird nicht ausreichen. Eine noch weniger Erfolg versprechende Strategie ist es allerdings – und das habe ich schon einige Male bei eher oberflächenorientierten CEOs beobachtet – politische Lösungen zu verlangen oder gar zu erwarten. Die werden nicht rechtzeitig kommen. Medien und User müssen selbst daran arbeiten, die notwendige Distanz zu Social Networks wiederherzustellen.

David Chalmers, Reality+

Chalmers ist bekannt für griffige Theorien. Er hat unter anderem postuliert, dass Smartphones Teil unsere Geistes sind, er hat sich intensiv und öffentlichkeitswirksam mit philosophischen Zombies beschäftigt, und er greift immer wieder Themen rund um Digitales und Virtuelles auf. In Reality+ argumentiert er, dass Virtuelles real ist und es wenig Grund gibt, Simulationen gegenüber einer vermeintlich realen Realität pauschal abzuwerten.

Um das ausufernde Programm etwas einzugrenzen, wählt Chalmers Descartes als Gegner. Dessen bekannte Suche nach Sicherheit gegenüber möglichen Hindernissen (Träume ich? Spielt mit ein Dämon alles, was ich erlebe, nur vor? Kann ich irgendetwas sicher wissen?) zieht sich als Hintergrund durch den ganzen Text. 

Statistisch gesehen sind Simulationen wahrscheinlicher als Realität

Eine von Chalmers‘ Prämissen, die belegen soll, warum die Fragestellung relevant ist, ist eine einfache Rechnung: Wenn nur ein Prozent der Menschen Simulationsspiele wie Sim City spielt und dabei in jedem Spiel nur tausend simulierte Charaktere einsetzt, gibt es zehn Mal mehr simulierte als echte Menschen auf der Welt. Also ist die Wahrscheinlichkeit, in einer simulierten Welt zu leben, zehn Mal höher als die, in einer echten Welt zu leben. 

Chalmers führt fünf wesentliche Kriterien für Realität an. Um real zu sein, muss etwas existieren, es muss Wirkkräfte haben (also in Kausalbeziehungen mit seiner Umwelt stehen), es muss von unserem Geist unabhängig sein (also auch dann existieren, wenn wir gerade nicht daran denken), es darf nicht eingebildet sein und es muss „echt“ oder „richtig“ sein. 

Dabei müssen nicht alle Eigenschaften auf einmal zutreffen. Das Vorliegen einzelner Eigenschaften ist mitunter ausreichend; überzeugender sind Kombinationen davon.

Chalmers‘ zentrale These ist der sogenannte Simulation Realism: Auch wenn wir in einer Simulation sind, sind die meisten Dinge trotzdem so, wie wir glauben.

Mit Strukturalismus ins Virtuelle

Das ist im Kern eine strukturalistische und konstruktivistische Aussage. Es gibt such in der Simulation Realität, weil Dinge oder Umstände, die wir als für Realität relevant erachten, bestimmte Kriterien erfüllen. Dazu bedarf es keiner Substanz, Strukturen und Eigenschaften sind ausreichend.

  • Dinge in Simulationen sind wirklich, weil sie da sind, so wie etwas in Simulationen eben da sein kann. Irgendwo gibt es Pixel, Algorithmen und Prozesse.
  • Elemente in Simulationen haben Wirkung. Sie rufen Stimmung hervor, lösen Entwicklungen aus, innerhalb und außerhalb der Simulation.
  • Sie sind unabhängig von unserem Geist und davon, ob wir gerade an die denken. Pixel sind da, Algorithmen laufen, so wie Dinge da sind, auch wenn wir gerade nicht hinsehen.
  • Sind Dinge, wie es scheint? Wenn wir nicht wissen, dass wir in einer Simulation sind, dann ja, sonst wäre es eine schlechte Simulation. und wenn wir wissen, dass wir in einer Simulation sind, dann erst recht, denn wir erwarten in einer Simulation Simulationen.
  • Ist es echt? Philosophen schlittern bei dieser Frage schnell in fröhliche Regresse. Es gibt aber keinen Grund, warum simulierte Katzen weniger echte simulierte Katzen sein sollten. Es ist eine Frage der Maßstäbe und der Abstraktionslevels.

Sind dann auch Alternative Facts und Deep Fakes real?

Alternative Facts wären real, wenn sie sich auf alternative Realitäten in Alternativ-Universen beziehen. Deep Fakes sind real; sie existieren, sie haben Wirkung – sie sind so real wie jede andere Lüge.

Chalmers‘ Argumentation hat im Detail allerdings einige Schwächen und geht an aktuelen Entwicklungen vorbei. Sein Argument, wir könnten einen untintelligent argumentierenden Obama als falsch entlarven, womit dieser Deep Fake seine Echtheit verlöre, verfehlt das Thema. Solche Deep Fakes richten sich nicht an Menschen, die Argumente ihrer Intelligenz wegen schätzen, sie richten sich an Menschen, die ihre Vorurteile bestätigt sehen wollen. Insofern kommt noch eine weitere Dimension ins Spiel: Deep Fakes werden nicht an ihren Vorbildern gemessen, sondern an den Erwartungen ihres Publikums. 

Fake News gesteht Chalmers auf jeden Fall Realität zu, auch wenn sie nicht echt sind (hier zeigt sich im übrigen einmal mehr, dass Deutsch die weitaus philosophietauglichere Sprache ist als Englisch).

Die Frage nach der Realität bemühter Deep Fakes – etwa von Menschen, die LLM-Chatbots von sich selbst erstellen, um ewig zu leben – stellt Chalmers nicht.

Wenn es also zwischen virtueller und traditioneller Welt wenig relevante Unterschiede gibt, gibt es dann im Virtuellen Bewusstsein? Haben Maschinen Bewusstsein?

Chalmers ist meines Erachtens etwas schnell damit, diese Frage zu bejahen. Sein Argument: Wenn mein Hirn Sitz des Bewusstseins ist und ich es Zelle für Zelle in eine Simulation hochlade – bei welcher Zelle sollte das Bewusstsein verlorengehen?

Das Problem liegt allerdings in der Fragestellung. Was bedeutet es, ein Hirn Zelle für Zelle in eine Maschine zu verwandeln? Welches Verfahren (außer einem Gedankenexperiment) ist das? 

Und was lernen wir aus solchen Fragestellungen für die Frage nach KI und Bewusstsein? Wir lernen vor allem, mit Metaphern vorsichtiger umzugehen. 

Chalmers tut sich nicht nur leicht mit der Vorstellung, Hirne in Maschinen hochzuladen, er ist auch ein Vertreter der Extended Mind-Hypothese. Derzufolge sind externe Denk- oder Gedächtnishilfen wie Notizen, Kritzeleien, Suchmaschinen oder Smartphones Teil unseres Geistes. Das ist grundsätzlich einleuchtend. Allerdings zeigt sich, und das vermisse ich bei Chalmers, dass mit zunehmender Komplexität der externen Tools die interne Leistung wieder relevanter wird. Wir müssen wissen, was und wie wir suchen. Und wir müssen erst recht wissen, wie wir prompten und wie wir die KI-generierten Ergebnisse validieren.

Wissenschaftlicher Anti-Realismus

Sind das nun digitalverliebte Spitzfindigkeiten?

Gibt es in Simulationen wahr oder falsch? Chalmers bemüht dazu den wissenschaftlichen Antirealismus. Demzufolge kümmert sich Wissenschaft nicht viel um Realität, sie sucht Gesetzmäßigkeiten, die sich gut dazu eignen Vorhersagen zu treffen. Wissenschaftlicher Antirealismus ist so etwas wie Verhaltensökonomie für Naturwissenschaftler. Relevant ist, was funktioniert – warum, was das bedeutet, wie es zu bewerten ist und ob es richtig (in mehreren Sinnvarianten) ist, ist unerheblich.

Wahrheit kann damit eine interne und eine externe Dimension haben. Die externe Dimension rührt an Fragen von Echtheit und grenzt an eine Korrespondenztheorie von Wahrheit. Derzufolge ist wahr, was der Realität entspricht. Wie diese Entsprechung festgestellt wird, bleibt offen. Die interne Dimension ist pragmatisch gebrauchsorientiert, richtet sich danach, ob gewünschte Ergebnisse eintreten, und entspricht eher einer Kohärenztheorie von Wahrheit, innerhalb derer wahr ist, was keine Widersprüche erzeugt. 

Letzteres kann in Simulationen immer stattfinden. Das Prinzip der Salienz – worauf beziehe ich mich augenscheinlich? – gilt in Simulationen und außerhalb dieser und ist ein wesentliches Kriterium, um Entscheidungen über Wahrheit überhaupt zu ermöglichen. Wir müssen und darüber einigen, ob wir vom Gleichen reden. Das gilt innerhalb und außerhalb von Simulationen. 

Chalmers beginnt mit einem großen Anspruch (Simulationen sind real) und endet recht pragmatisch mit strukturalistisch-konstruktivistischen Konsequenzen. Strukturen entstehen durch Erfahrung, und aus Erfahrung entsteht Realität. Das ist ein recht schwaches Konzept von Realität, dass sich ohne weiteres auch auf virtuelle Realitäten anwenden lässt. Die letzte Frage, die sich mit bei solchen komplex abgesicherten Realitätsszenarien stets stelllt, ist die nach der Sinnhaftigkeit solcher Realitätsbegriffe. Strukturalisten und Konstruktivisten nicken das ab. Relativisten können da auch mit (falls man sie mitnehmen möchte). Skeptiker werden weiterhin ihren Sport betreiben und Absolutisten ebenso wie Hyper-Rationalisten werden sich ebenfalls wenig bewegen.

Aber immerhin hilft es, die eigenen Position zu verstehen – auch wenn ich Chalmers nicht in allem zustimmen kann.

Helen Pluckrose, James Lindsay: Zynische Theorien

Als Student in den 90er-Jahren habe ich mit viel Begeisterung und wenig Verständnis Derrida und Deleuze/Guattari gelesen. Foucault habe ich erst später für mich entdeckt, der war mir damals zu politisch. Baudrillard war mir zu technokratisch, Lyotard stand mir schon damals unter leichtem Esoterikverdacht. 30 Jahre später habe ich die Erfahrung und das Selbstbewusstsein, zu sagen: Mehr als das wenige Verständnis ist auch nicht dran. Wenn man postmoderne Prinzipien der Dekonstruktion einmal verstanden hat, gibt es keinen Grund, sie immer wieder aufs neue ritualisiert zu inszenieren. Stattdessen wäre die Frage zu stellen: Und wie kommen wir weg von hier?

Um kein Missverständnis aufkommen zu lassen: Das schmälert nicht die Relevanz von Dekonstruktion oder Diskursanalyse. Die grundlegende Erkenntnis ist: Alles könnte auch anders sein, und wir sollten uns mit den Mechanismen beschäftigen, die dazu geführt haben, dass unsere Welt ist wie sie ist. Damit gewinnen wir Handlungs- und Entscheidungsspielraum.

Diese Erkenntnis ist für eine demokratische Gesellschaft essenziell. Allerdings kann man von hier aus in unterschiedlichste Richtungen abbiegen. Das zelebrieren aktivistische postmoderne TheoretikerInnen. Deren KritikerInnen konstruieren daraus Gegensätze zwischen Liberalismus, Demokratie und Aktivismus – und schaden damit beiden Seiten.

Letzteres ist auch in „Zynische Theorien“ der Fall.

Postmoderne Theorie ist wie Science & Technology Studies: Wenn das Prinzip klar ist, bringt es keinen Erkenntnisgewinn mehr, wenn es laufend wiederholt wird. Ausnahme sind manchmal detaillierte historische oder fachwissenschaftliche Studien.

In beiden Bereichen wurden – weitere Gemeinsamkeit – gute Konzepte zu geistig flachen Kampfbegriffen pervertiert. Das ist im übrigen keine neue Entwicklung. „Dieses soziale Gepräge des wissenschaftlichen Betriebes bleibt nicht ohne inhaltliche Folgen. Worte, früher schlichte Benennungen, werden Schlagworte; Sätze, früher schlichte Feststellungen, werden Kampfrufe”, schrieb Ludwik Fleck in seiner „Entstehung und Entwicklung einer wissenschaftlichen Tatsache“ 1935.

In der rückblickenden Analyse der Postmoderne, wie Pluckrose und Lindsay sie betreiben, kommt einiges durcheinander. Relativismus, Konstruktivismus, Strukturalismus, deren Überschneidungen und Post-ismen bieten in der Vermischung die größten Angriffsflächen. Und damit werden an sich vernünftige Konzepte zu Lachnummern. Pluckrose und Lindsay sind sich denn auch nocht sicher, ob sie etwa Richard Rorty zustimmen würden, wenn dieser sagt, dass es einen großen Unterschied gibt, ob wir glauben, dass die Welt dort draußen ist (was nur mit Kunstgriffen bestreitbar wäre), oder dass die Wahrheit dort draußen ist (was für manche nach nüchterner Rationalität klingt, aber das Motto der Mystery Serie X Files ist).

Lindsay und Pluckrose zeichnen mächtige Nachwirkungen der Postmoderne nach, während sie zugleich immer wieder in den Raum stellen, dass die Postmoderne eigentlich tot ist. Auch das ist ein Hinweis darauf, dass die Linien nicht ganz so direkt gezogen werden können. Postmoderne Theorien, die heute gepredigt werden, überspringen genau den eigentlichen Punkt, dass wir eigentlich keine Gewissheiten mehr voraussetzen können, und kommen von dort aus zu dogmatischem Aktivismus. Dieser Dogmatismus ersetzt den eigentlich zentralen Zweifel – und das ist natürlcih ein Problem. Social Justice, Postkolonialismus, Standpoint Theory oder Critical Race sind praktische Anwendungen der postmodernen Prinzipien, die intellektuell in einem Satz auserzählt sind aber dennoch natürlich praktische Relevanz besitzen.

Lösungen der in diesen Theorien angesprochenen Probleme sind allerdings Ergebnis pragmatisch-politischer Prozesse. Eine ewig zweifelnde Postmoderne kann Fragen stellen. Natürlich kann man mit einfachen rhetorischen Kniffen Fragen als auch als Behauptungen oder Unterstellungen formulieren, das habe ich in Ahnungslos als Kulturtechnik des Behauptens ausgeführt. Das ist dann allerdings Politik und weder Theorie noch Philosophie.

Lindsay und Puckrose sind in ihrer Kritik und deren Ausweitung auf die klassische Postmoderne, in der sie die Ahnen der Antipoden zu Vernunft und Wissenschaft sehen, etwas zu eindimensional rationalitätsorientiert. Das ist keine gute Idee, das hat David Bloor in seiner Wissenssoziologie dargelegt (stark vereinfachte Kurzfassung: Wir meinen, unerwünschte EInflüsse von einer puren Rationalität fernhalten zu müssen, um besser erkennen zu können. Wir können sie aber gar nicht loswerden und es ist – historischen, kulturellen, politischen oder praktisch durch die verfügbaren Instrumente bedingten – Einflüssen unterworfen, was wir als unerwünscht betrachten und was nicht. Physik-Nobelpreisträger Werner Heisenberg hat das noch etwas weiter zugespitzt: Zeitgeist sei ein ebenso objektiver Fakt wie andere wissenschaftliche Fakten.

Die in der PoMo-Theorie oft praktizierte Vermischung von Wissenschaft und Aktivismus ist natürlich ein Problem; eine solide postmoderne Grundbildung böte allerdings genau das Handwerkszeug, dem entgegenzutreten.

Lindsay und Pluckrose besprechen ihre Sicht von Postkolonialismus, Queer, Trans und Gender Studies, Intersektionalität, Fat Studies und bemühen sich dabei stets, postmoderne Wurzeln freizulegen. Frantz Fanon oder W.E.B DuBois werden da ungefragt implizit und fälschlicherweise in postmoderne Ecken gestellt. Judith Butler hat in den letzten Jahren hart daran gearbeitet, sich diese Ecke noch mehr zu verdienen. Aber viele zeitenössische Critical Race-Aktivisten lernen postmoderne Identitätstheorie ausdrücklich ab und konzentrieren ihren Aktivismus stattdessen auf klar politische und ökonomische Perspektiven.

Andere Diagnosen von Pluckrose und Lindsay sind weitaus treffsicherer. Die Vervielfältigung von Diskriminierung und Marginalisierung durch Intersektionalität (man ist nicht mehr nur Arbeiter oder Frau, sondern nichtakademische Trans-PoC) ersetzt ökonomische Unterschiede oder Unfreiheiten durch unterschiedliche Privilegierungsgrade, die reflektiert werden müssen und Privilegierte dabei behindern, den Wert der postmodern-aktivistischen Theorie zu erkennen. Ebenfalls zutreffend ist die Beobachtung, dass diese Entwicklung Gruppen bildet, Individuen in den Hintergrund rückt, Gruppensolidarität fordert und damit dem Individuum Handungsspielräume wegnimmt. Unterschiede und Privilegien werden für Gruppen diagnostiziert – ob sie auf das Individuum zutreffen, ist der Theorie gleich. Mit solchen Manövern schafft sich die Theorie zusätzliche Komplexität und ist auf immer wieder neue Themenbereiche anwendbar. Es kann immer etwas problematisiert werden, es kann immer neue Gruppennivellierungen geben. Beispiele für diese Komplexitätserhöhung sind der Eintritt von Trans-Themen in Genderdebatten oder als neueste Betätigungsfelder postmoderner Theorie: Fat Studies und Ableismus. Beide framen negative Aspekte von Übergewicht oder körperlichen Einschränkungen als Konstrukte eines herrschenden Diskurses, der Normalität und Anpassung fordert und Abweichungen in die Nähe von Krankheitsbildern rückt. Medizinische Empfehlungen oder Hinweise auf möglicherweise negative Folgen von Übergewicht sind die Speerspitze dieser unterdrückerischen Diskurse.

Nach diesen treffsicheren Diagnosen führen Pluckrose und Lindsay einige Beispiele solcher Entwicklungen aus “amerikanischen Universitäten” an. Üblicherweise ist das bei Kritik an postmoderner Theorie ein Alarmsignal, das hellhörig macht. Pluckrose und Lindsay rerferieren allerdings keine anonymisierten und aggregierten Cancel-Culture-Legenden und deren vermeintlich dramatischen Folgen, sie illustrieren Wirkweise und Auftreten der postmodernen Theorie und ihrer Ausprägungen. Nach Queers for Palestine, antisemitischen Ausfällen an eben solchen UnNiversitäten und Unwissen demonstrierenden Pro-Gaza-Demonstrationen überraschen diese Erzählungen weniger.

Dennoch verliert “Zynische Theorien” gegen Ende etwas. Pluckrose und Lindsay schließen an ihre Diagnosen einen programmatischen Teil an, in dem sie ausgerechnet den Liberalismus als Gegenspieler des postmodernen Aktivismus ins Feld führen. Liberalismus eigne sich vor allem deshalb, weil er auf objektives Wissen setze.

Für Wissenschaftstheoretiker schrillen auch hier die Alarmglocken. Die unreflektierte und undefinierter Verwendung eines vagen Containerbegriffs wie “objektiv” ist an sich bereits ein Problem. Die Postulierung objektiven Wissens als Grundpfeiler ist eine doppelt schwierige Wendung, die sich vorwerfen lassen muss, viel von dem vorauszusetzen, was sie eigentich beweisen möchte. Damit wird sie dem kritisierten Aktivismus schrittweise ähnlicher. Größtes Verdienst des Liberalismus ist es, die Einsicht durchgesetzt zu haben, dass Alternativen möglich sind (hier gibt es Überschneidungen mit der frühen Postmoderne) und dass Entscheidungen nachvollziehbar begründet werden sollten. Nachvollziehbarkeit klingt auf den ersten Blick ähnlich wie Objektivität, hat aber nichts damit zu tun. Auch egoistische, politische oder machtorientierte Entscheidungen können nachvollziehbar sein, sie sind aber alles andere als objektiv.

Eine weitere gewagte Behauptung von Pluckrose und Lindsay ist, dass Liberalismus der Korrespondenztheorie der Wahrheit anhänge. Ich kann nicht nachvollziehen, wie sich diese pauschale Diagnose begründen ließe. Die Korrespondenztheorie geht davon aus, dass wahr ist, was der Realität entspricht. Das klingt nach einem Zirkelschluss. Es ist eine auf den ersten Blick leicht verständliche und überzeugend klingende Theorie, die bei näherer Betrachtung aber überaus wenig aussagt. Denn im allgemeinen bleibt offen, wie über die Richtigkeit der richtigen Übereinstimmung entschieden werden kann. Damit bleibt übrig: Richtig ist, was richtig ist.

Die Korrespondenztheorie war unter den frühen Positivisten und den Vorläufern des Wiener Kreises beliebt. Sie klingt manchen Interpretationen nach in Wittgensteins “Die Welt ist alles, was der Fall ist”, nach. Spätere sehr fakten- und logikorientierte Vertreter des Wiener Kreises wie Rudolf Carnap kritisierten eben diesen Kurzschluss, setzten eher Regeln und Prozesse als relevante Wahrheitskriterien an und bewegten sich so von der Korrespondenz- zur Kohärenztheorie der Wahrheit. Wahr ist demnach, was kohärent zu dem ist, was wir sonst als wahr empfinden, was also zu unserm bisherigen Wissen passt und unseren Regeln nicht widerspricht. Das ist unter anderem eine Kurzfassung wissenschaftichen Arbeitens und damit ein mindestens ebenso chancenreicher Kandidat für den populärsten liberalen Wahrheitsbegriff.

Liberale argumentieren gern mit Evidenz und Daten. Beides eignet sich nur dann als Beweis für etwas, wenn der Kontext, in dem Daten die Ursache von oder der Beleg für etwas sein können, schon vorher hergestellt ist. Schmerzhaft für Wissensphilosophen und Wissenschaftstheoretiker ist in dieser Diskussion immer, dass diese nüchterne und selbst sehr faktenorientierte Feststellung so leicht in die Nähe der postmodernen Relativierungs-Absolutierungsspiele gerückt werden kann. Solche Dataparadoxa sind aber bereits gut erforschte Fakten.

Zustimmen kann man Pluckrose und Lindsay bei der Feststellung, dass die Betonung des Individuums eine der deutlichsten Trennlinie gegenüber dem postmodernen Aktivismus und dessen Gruppenorientierung ist. Viele der anderen Punkte, mit denen Pluckrose und Lindsay ein starkes Bild von Liberalismus zeichnen wollen, sind zugleich dessen populärste Angriffsflächen und ergeben anstelle des Bilds eines souveränen aufgeschlossenen Liberalismus eher jenes eines dogmatisch-elitären Republikanismus. Der Bezug auf intellektuelle Vorfahren aus (amerikanischen) Revolutionszeiten verstärkt diesen Eindruck.

Beispiele, mit denen Pluckrose und Lindsay ihre Sicht des offen lernenden und sich weiterentwickelnden rationalen Liberalismus belegen wollen, sind in der Fachliteratur oft sinnvolle Gegenbeispiele für unsaubere und verschlungene, aber reale Entwicklungspfade: Ja, Newton ließ sich nicht von alten Dogmen abhalten, Gesetze der Mechanik zu entwickeln und diese Gesetze haben sich durchgesetzt. Und ja, Einstein ließ sich nicht von einem newtonschen Dogma abhalten, diese Mechanik zu relativieren. Aber i angewandter Physik wird trotzdem vielfach nach wie vor nach Newtons Mechanik und nicht nach jener der Relativitätstheorie gearbeitet. Denn Unterschiede sind minimal und die Komplexität würde deutlich steigen.

Völliges Scheitern schließlich sind die letzten Seiten, auf denen Pluckrose und Lindsay konkrete Argumentationsmuster entwerfen möchten, die Liberale postmodernen Aktivisten begegnen können. Das ist ähnlich hilflos wie die absurden Tipps selbsterklärter Politikwissenschaftler und Kommunikationsexperten, wie man mit Rechtsextremen reden möge, um sie zu entzaubern. Populismus und Aktivismus werden im direkten Vergleich immer spannender bleiben. Hier kommt man nicht umhin, zu streiten – oder im Fall des postmodernen Aktivismus: Man setzt darauf, dass Begegnungen der Aktivisten mit der Außenwelt auch bei den postmodernsten Akteuren mehr und mehr Pragmatismus durchsetzen wird. Damit kommen auch jene ökonomischen Aspekte zurück auf die Bühne, die Intersektionalität und postmoderne Theorie so gerne verdrängen möchten. Denn die Frage ist, wer sich die realitätsverweigernde aktivistische Pose wie lange leisten kann.

Pluckrose und Lindsay liefern gute Analysen des postmodernen Aktivismus und machen diese Entwicklungen auch jenen verständlich, die viel davon zum ersten Mal hören. Aber sie scheitern dabei, argumentative Gegenrezepte zu liefern und verrennen sich dabei selbst in dogmatischen Posen.

David Graeber, The Dawn of Everything

Alles hätte auch anders sein können, immer. David Graeber und und David Wengrow liefern eine Reihe von Hinweisen dafür, dass die Kulturgeschichte der Menschheit nicht nur anders hätte verlaufen können und an jedem beliebigen Punkt andere Wendungen hätte nehmen können, sie argumentieren vielmehr auch, dass vieles vermutlich deutlich anders verlaufen ist, als in der Geschichtsschreibung letztlich festgehalten wurde. Damit wenden sie sich vor allem gegen populären Determinismus, den erfolgreiche Autoren wie Yuval Harari predigen – und der mit seiner Eindeutigkeit Erklärkompetenz suggeriert und den Autoren Erfolge beschert. Bei Graeber und Wengrow bleibt vieles weniger eindeutig.

Ein Ausgangspunkt ihrer Recherchen ist Rousseaus Frage nach der Entstehung von Ungleichheit. Warum, fragen sie sich, ging er davon aus, dass einmal Zustände der Gleichheit gab? Rousseau ist mit dieser Annahme nicht allein; Spekulationen über Urzustände – seien sie friedlich oder kriegerisch – waren lang in Mode. 

Graeber und Wengrow zeichnen nach, wie Herrschaftsformen und soziale Organisationen in unterschiedlichsten Gesellschaften lange vor moderner Politik oder europäischen Einflüssen bestanden. Viele ihrer Forschungen beschäftigen sich mit mittel- und nordamerikanischen Gesellschaften und unterschiedlichen möglichen Entstehungsgeschichten von Herrschaft. Diese kann etwa das Resultat von Krieg und Unterwerfung sein, aber auch das Ergebnis von Fürsorge: Wohlhabenden fiel die Aufgabe zu, Waisen, Kriegswitwen oder Arme zu versorgen – was ihnen loyale Gefolgschaften sicherte.

Die beleg- und detailreiche Erzählweise macht das Buch nicht immer leicht und angenehm zu lesen. 

In Erinnerung bleiben aber etwa die Konversationen des Huronen-Führers mit Kondiaronk mit französischen Jesuiten, in denen Kondiaronk europäische Herrschafts- und Sozialsysteme aufs Korn nahm und – den Aufzeichnungen des Jesuiten nach – ein freierer Freigeist gewesen sein muss als die europäischen Aufklärer. Freien Huronen erschien europäische Zivilisation als Sklaverei und monotheistische Religion als unglaubwürdiger Spuk. 

Es ist möglich, dass Kondiaronk einige Zeit in Europa verbracht hat; möglich ist auch, dass Autoren, die von Konversationen mit ihm berichten, Positionen etwas überzeichnet haben. Plausibel ist jedenfalls, dass Kondiaronk eines der Urbilder des „edlen Wilden“ ist. Wobei diese Begriff als spöttische Überzeichnung europäischer Nationalisten seine Karriere startete. Rassisten hielten die Existenz Intellektueller außerhalb Europas für unmöglich und verspotteten die Literatur transatlantischer Dialoge als überzeichnete Romantik.

Zusammenarbeit, Herrschaft, Kooperation, Zwang, Freiheit – auf allen Kontinenten und über mehrere Jahrhunderte hinweg lassen sich unterschiedlichste Belege für die Organisation früher Gesellschaften finden. Das zentrale Argumenbt von Graeber und Wengrow: Diese Vielfalt und die vielfältigen Übergänge zwischen einzelnen Organisationsformen zeigen, dass es immer Optionen und Handlungsspielräume gibt. Soziale Entwicklung folgt nicht notwendigerweise Zwängen und Alternativlosigkeiten, es gibt immer auch Optionen. 

Das ist eine der Schnittmengen zwischen liberalen und anarchistischen Positionen.

Und es ist eine Position, die sich mehr und mehr in der Gesschichtswissenschaft durchsetzt. Man verabchiedet sich von Teleologien und dem Gedanken einer fortlaufenden Entwicklung zum Besseren. Denn dieser Gedanke setzt voraus, dass frühere Generationen und Gesellschaften zwangsläufig auf einer niedrigeren Entwicklungsstufe standen; das verleitet dazu, Entscheidungen und Prozesse nicht ernst zu nehmen oder sie schnell mit fragwürdigen Erklärungen abzutun. Frühere Generationen haben genauso intensiv überlegt, geplant und gehofft wie wir. Und sie sind ebenso ernstzunehmen, wie wir uns ernstnehmen. 

Der Gedanke der ständigen Entscheidbarkeit – wir können jeden Moment wählen, in welche Richtung wir gehen – soll auch verdeutlichen, dass die Zukunft gestaltbar ist. Für Graeber bedeutete das: Anarchistische und antikapitalistische Positionen müssen sich nicht zwangsläufig an der Vergangenheit orientieren; sie könnten Perspektiven für die Zukunft zeigen. Graeber starb während der Arbeit an diesem Buch. 

10 Jahre Comic Cons– Chuck Norris und ich auf Tour

Zehn Jahre vergehen umso schneller, je mehr in dieser Zeitspanne geschieht – und je älter man dabei ist. Jetzt sind schon wieder zehn Jahre um. Zehn Jahre, in denen ich viel Zeit auf Comic Cons und Festivals verbracht habe, um als Verleger die erfolgreichste österreichische Superheldenserie unter die Leute zu bringen. Austrian Superheroes haben 28 Hefte erlebt, fünf Jahresbände, drei Sonderbände, ein Game, ein Musical, ein Kartenspiel, Deutschland-Ableger und Italien-Crossovers, mehrere Ausstellungen und mehrere interessierte Filmproduzenten. In zehn Jahren unterwegs kamen überschlagsmäßig trotz Corona-Zwangspause vierzig bis fünfzig Cons und Festivals dazu.

Damit ist jetzt Schluss. 

Vor wenigen Wochen war ich auf der für mich letzten Con als Verleger und Aussteller. Zeit, ein wenig Bilanz zu ziehen. 

2023, mittlerweile tragen alle Brillen. Einer nur gerade im Moment nicht.

In den zehn Jahren hat sich erstaunlich wenig verändert. Cons sind bunt, Regenbogenparaden sind uniformierte Schulausflüge konfessioneller Privatschulen dagegen. Bodypositivity, Aufgeschlossenheit gegenüber jedem erdenklichen Spleen und hohe Detailorientierung im Ausleben identitätspolitischer Differenzstrategien (im Klartext: alle leben in ihrer eigenen Welt) sind die zentralen Merkmale handelsüblicher Con-BesucherInnen. Bei so viel Diversität und Individualität verwundert es ein wenig, dass die klassischen Motive (Star Wars, Jurassic Park, Transformers, Marvel) über die Jahrzehnte praktisch unverändert funktionieren und die paar Manga-Cosplayer, die in dieser Ausprägung ihres Characters vergangenes Jahr noch nicht auf Tour waren, mühelos überstrahlen. Es bleibt einfach gleich. Was vermutlich letztlich auch an Marktgesetzen liegt. Der große Nenner, der für stabile Publikumszuflüsse sorgt, verändert sich nur langsam.

2016, Dortmund. Stargast Chuck Norris ist nicht im Bild. Teile des Austrian Superheroes-Teams (links) diskutieren mit Trachtman (Mitte) und Captain Berlin (rechts).

Wie kann man sonst noch nach zehn Jahren Cons bilanzieren? 

Comics werden weniger

Mich interessiert die Story. Wenn es gute Bilder dazu gibt, die die Story unterstützen, die Worte überflüssig machen, um so besser. Wenn Bilder die Story ersetzen, wenn Production Value die Freude am Lesen in den Hintergrund drängt, dann ist das ein Problem. Das passiert im Großen wie im Kleinen.

Im Großen setzen mehr und mehr Verlage auf Graphic Novels, sie schütteln Biographien aus dem Ärmel oder verlegen durchschnittliche Kunstschulprojekte – und bringen damit das Genre ins Grab. Uninspiriert erzählte Storys werden von schlechten Zeichnungen begleitet und als teure Hardcoverbücher produziert. Schön für den Buchhandel, beleidigend langweilig für Leser. Storys, die auf einer halben Seite auserzählt wären, werden auf Buchlänge ausgewalzt. 

Im Kleinen zeigt sich, dass in Artist Alleys auf Comic Cons keine Comics zu finden sind. Hier tummeln sich Einzelblatt-Fanart-Künstler, die vielleicht Storys im Kopf haben, sie aber nicht zu Papier bringen. Oft sind es nicht nur keine Storys, es fehlen sogar Buchstaben. Oder es gibt nicht einmal Zeichnungen, sondern gehäkelte Pokemons.

Auf der einen Seite eine neue Entwicklung, über deren Fehlen ich mich vor ein paar Zeilen beklagt habe. Auf der anderen Seite eine Entwicklung, die Comics ins Grab bringt. Und was sollen Fanart und Merch in Zukunft promoten, wenn es keine eigentliche Art mehr gibt? 

Müllshopping

Wenn wir bei Fanart und mangelnder Produktivität und Originalität sind: Merchboxen sind ein weiterer Con-Trend, der sich in den vergangenen Jahren deutlich verstärkt hat. Menschen kaufen Überraschungsboxen voller Merch-Müll. Und das tonnenweise. Eigene Händler sind darauf spezialisiert. In den Boxen sind Kaffeetassen, T-Shirts, vielleicht sogar Actionfiguren (wenn teurer), bei den noch teureren kann man sich Genre oder Stil aussuchen. 

Merchboxen-Käufe müssen Akte der puren Verzweiflung sein. Menschen, die eigentlich nichts mit dem Gebotenen anfangen, besuchen trotzdem aus Neugier eine Comic Con und erliegen dem Drang, bei all der Fülle an Gebotenem etwas kaufen zu müssen. Merchboxen, die Schnäppchen und Überraschung versprechen, sind ein willkommener Ausweg: Man muss nichts entscheiden, man muss nicht wissen, was man kauft, und man hat trotzdem den Nimbus der weltgewandten Coolness, weil die Objekte schließlich von der Con sind, von einem Event bei dem Aussteller aus aller Welt zusammenkommen. Und es findet nur einmal mit Jahr statt!

Originalität, Urheberrechte und Lizenzen werden in den Merchboxen wohl ebenfalls bis zur Unkenntlichkeit durch den Fleischwolf gedreht. Aber das gilt für alle Produkte, Cosplays, Fangruppen und andere nicht autochthone Erscheinungen bei Cons. Die Piratendichte ist hoch, das Unrechtsbewusstsein niedrig.

Um ehrlich zu sein: Ich hatte lang den Verdacht, dass viel Müll wie angebliche asiatische Trends, Foods oder Funko Pop-Figuren oder -Tassen eher Erfindungen findiger Comic Con-Händler als asiatische Trends wären. Ich musste erst unlängst nach einer Taiwan-Reise zur Kenntnis nehmen, dass Taiwanesen offenbar tatsächlich mit Begeisterung von diesem unsäglichen Kitsch angetan sind. Und bei China Airlines gibt es Pokemon-Speibsackerl.

F*ck Local

Wer als lokaler Produzent mit eigener Intellectual Property, wie man so sagt, auf Comic Cons vertreten ist, lernt drei große Publikums-Archetypen kennen. Die einen finden es cool, dass es „so was“ auch „bei uns“ gibt, sie würdigen Qualität und Professionalität der Produktion (da schmeichelt ja auch das Urteil von Laien) und freuen sich, etwas Neues kennengelernt zu haben. Manche, und das ist berührend, sehen in professioneller und kommerziell erfolgreicher popkultureller Produktion sogar Zeichen einer besseren Welt. Sie lernen, dass man auch hierzulande Dinge einfach machen kann und sich nicht auf Umstände ausreden muss. 

Die anderen sind die populärkulturelle Entsprechung jener, die angesichts abstrakter Kunst sagen: „Das kann ich auch.“ Sie lachen nervös, findens eh leiwand und nehmen den Aussteller lang mit langwierig und langweilig erzählten platten Pointen in Beschlag, „Warum reitet der nicht auf einem Lipizzaner“, „Ihr brauchts einen Mozartkugelman“, „Ich warte, bis es eine Gschicht mit dem Lindwurm gibt“. 

Die dritte Gruppe ist psychohygienisch delikat. Es sind fortgeschrittene Con-BesucherInnen, oft CosplayerInnen, sie haben klare Fan-Präferenzen und genießen Cons, um ansonsten ferne Trends und Stars in ihrer Nähe zu haben. Vermutlich haben sie auch Foto-Ops mit einem der Stargäste gebucht. Für sie ist lokale Popkultur eine Beleidigung. Sie rümpfen die Nase. Es ist ein Affront, dass „die“ (also wir) „das“ auch machen, internationale Popkultur kopieren. Es ist eine verfehlte Anmaßung. Es ist so cringe wie wenn Pfarrer und Bürgermeister den Jugendgschnas crashen würden. Sie sind entrüstet und gekränkt von diesem heimischen Mief, wo sie doch hierher gekommen sind, um Düfte der großen Entertainmentwelt zu schnuppern. 

Diese Stars

Wenn wir bei Stars sind – ich kenne viele der angekündigten Stargäste nicht. Ich muss sie nach wie vor googlen und bin trotz dieser Recherche in vielen Fällen nur geringfügig schlauer. Es sagt mir einfach nichts. Dabei habe ich ein Herz für verkannte Größen. Unter meinen Lieblingsstars aus den ganzen zehn Jahren ist ein kleiner Mann, der einen Starwars-Ewok spielte. Das sind diese kuscheligen Tiere, die Uninitiierte vielleicht eher der Sesamstraße zuordnen würden. Sie treten in plüschigen Ganzkörperkostümen mit Plüschkopf auf. Die Autogrammkarte des kleinen Mannes zeigte ein Ewok-Gruppenfoto, alle in voller Plüschmontur mit Plüschköpfen. Er hatte einen Pfeil auf sich gezeichnet. „Ich war der siebte Zwerg von links.“ Ein anderer war ein größerer dünner langhaariger Mann. Er war einige Jahre dabei und hatte stets ein informatives Rollup hinter sich: „Ich war dreißig Zombies in Walking Dead.“ Ihm wurden dreißig Mal diverse Waffen ins untote Makeup-Hirn geschlagen. 

Ewok-Autogrammkarte

Manchmal gab es auch andere Stars. Frank Miller war auf der Vienna Comic Con. Chuck Norris war in Dortmund. Die Con fand damals trotz heftige Schneestürme statt und war so überlaufen, dass sie immer wieder gesperrt werden musste. Und in Wels habe ich einmal das Frühstücksbuffet mit Lou Ferrigno geteilt, dem Hulk der späten 70er Jahre. Leider war er damals, als wir gemeinsam hätten frühstücken können, Botschafter der National Rifle Association und Mitglied in Donald Trumps Beirat für Sport, Fitness und Ernährung. 

Abschied auf Raten 

Austrian Superheroes werden noch auf einigen weiteren Comic Cons vertreten sein. Vielleicht gibt es ja sogar zum 10-Jahres-Jubiläum einen fetten Gesamtausgaben-Omnibus. Das wären rund 1200 Seiten. Vielleicht, wenn jemanden der Ehrgeiz packt, gibt es sogar weitere Storys. Bis dahin: Im Herbst findet die Vienna Comic Con statt. Und auch ohne den Omnibus kann man das Gesamtwerk in handlichen acht Bänden kaufen

Heute nerven mich Comic Cons ein wenig. Das liegt an mir, nicht an den Cons. Aber es war eine weitere zehnjährige Schlittenfahrt im Leben. Alle Menschen sollten mehr und verschiedene Schlitten fahren. 

Die Absage-Plakatmutation ist mittlerweile Teil der Corona-Sammlungen diverser Museen.
Leo Koller (ohne Haare, mit Kamera), vom Anfang an im Kreativteam dabei, starb 2023.
Auch an seinem Todestag waren wir auf einer Comic Con.

Mark Coeckelbergh, Why AI undermines democracy and what to do about it

Für einen Philosophen ist das Urteil überaus eindeutig – und vor allem kommt es schnell: Mark Coeckelbergh legt sich früh fest, Künstliche Intelligenz ist seines Erachtens schlecht für die Demokratie. In dieser Feststellung stecken gleich mehrere Urteile: Technologie ist also nicht grundlegend gut. Sie ist auch nicht neutral: Technologie ist kein offenes Instrument, dessen Konsequenzen und Potenziale erst in der Anwendung offenbar werden. Technologie bringt schon in ihren Grundzügen positive oder negative Tendenzen mit, sie kann aufgrund ihrer fundamentalen Prinzipien leichter oder weniger leicht missbraucht werden. Und Technologie steht in Wechselwirkung mit Sozialem und Kultur, Technologie beschleunigt, priorisiert, ist ein viel beachtetes Themengebiet voller Chancen und Risiken und daher ein wichtiger Faktor der Gegenwart.

Technologie ist also wichtig, aber warum ist Künstliche Intelligenz schlecht für die Demokratie? 

Coeckelberghs Argument setzt an der Bedeutung von öffentlichem Raum und öffentlicher Meinung an. Demokratisch ist, was in einem ausgewogenen Prozess nach Abwägung unterschiedlicher Meinungen, Prioritäten, Werte und Bedürfnisse entschieden wurde. Dieser Prozess sollte unbeeinflusst, frei und nach klaren Regeln stattfinden.

Genau das gefährdet künstliche Intelligenz. KI-vermittelte Prozesse sind intransparent, folgen Regeln, die nicht demokratischen Prinzipien folgen, räumen den Prioritäten jener, die besser mit Technologie umgehen können, unverhältnismäßig höheren Stellenwert ein und verfälschen so sowohl Prozess als auch Ergebnis.

Allerdings, räumt Coeckelbergh ein, hat es den idealtypischen demokratischen Prozess in seiner reinen Form noch nie gegeben. Demokratie ist eben auch nur real existierende Demokratie, die auch hinter ihren eigenen Idealen zurück ist. 

Künstliche Intelligenz könnte allerdings dabei helfen, demokratische Ideale zu verwirklichen. Coeckelberghs Vision dafür ist Demokratische Künstliche Intelligenz, also eine transparente, nachvollziehbare und weitgehend auch kontrollier- und gestaltbare Form von KI, ähnlich wie sie auch in den Grundzügen des EU AI Act beschrieben wird.

Das hat technische Implikationen. Können große LLMs, wie sie in Generative AI eingesetzt werden, diesen Anforderungen genügen? Können und kleinere und konkretere Modelle diesen Transparenzanforderungen gerecht werden? Ist es nicht im Gegenteil das Wesen von KI, sich zumindest teilweise diesen Ansprüchen auf Nachvollziehbarkeit und Kontrollierbarkeit zu entziehen? Oder ist genau diese Eigendynamik von KI eine Nebelgranate, die die Verantwortung von Technik verwässern soll?

Andere Implikationen sind sozialer Natur. Damit Meinungsbildung idealtypischen Vorgaben folgen kann, ist Bildung notwendig. Die politische Mär von Bildung als Allheilmittel predigt allerdings oft bloße Besserwisserei und unterscheidet sich damit nicht grundlegend vom Versuch, relevante Fragen über KI entscheiden zu lassen. Bildung und Besserwisserei – beide präsentieren Pointen und Anekdoten, denen häufig jene relevanten Informationen fehlen, anhand derer über Richtigkeit oder Sinnhaftigkeit entschieden werden kann. In der Politik, das kommt noch erschwerend hinzu, sind nicht nur Wahrheit, Richtigkeit oder SInnhaftigkeit relevante Kriterien. Alles steht und fällt mit Zustimmung. 

Zustimmung lässt sich weder mit Logik, Evidenz und andere Formen der Überstrapazierung von Wissenschaft und Rationalität, die über Fragestellungen entscheiden sollen, für die sie nicht geeignet sind, erreichen. Zustimmung ergibt sich in einer Phase öffentlicher Diskussion auf gemeinsamen Grundlagen, in der Gegenargumente respektiert, gewürdigt und abgelehnt werden können. Diese gemeinsamen Grundlagen sind durch KI in Gefahr, meint Coeckelbergh. Grund dafür sind nicht nur künstlich erzeugte Falschinformationen oder KI-vermittelte Argumente und Recherchen, die unreflektiert übernommen werden, sondern auch die mittlerweile üblichen Prozesse der Verbreitung und Bewertung von Information. Tempo, Lautstärke und Auffälligkeit sind wichtiger als inhaltliche Relevanz oder Richtigkeit und werden in der Verbreitung höher priorisiert. Aufmerksamkeitssurrogate wie Interaktionen sind deutlich effizienter für die schnelle Verbreitung als die Auseinandersetzung mit Inhalten, die die Verbreitung nur lähmt. Das schafft Scheinwelten weit weg von der Realität, über die eigentlich entschieden werden soll – aber sie gelten als maßgeblich für das, was zur Diskussion steht. – Fragen des guten Lebens werden in Influencer-Reels und in politischen Grundsatzprogrammen behandelt. Den einen liegen Abstimmungen, Machtfragen und Zielsetzungen zugrunde, den anderen intransparente eindimensionale Algorithmen. 

Wo gemeinsame Grundlagen der Diskussion fehlen, fehlt die Möglichkeit, nachvollziehbare Entscheidungen zu treffen, denen alle zustimmen können, auch wenn sie sie nicht teilen. Coeckelbergh sieht darin eine grundlegende Gefahr für Demokratie und Zusammenleben. Ein kurzer Hinweis auf Hannah Arendt verdeutlicht die Dimension des Problems: Arendt sah im Fehlen oder in der Verweigerung dieses gemeinsamen Rahmens die Grundlagen des Bösen. Erstaunlich pathetisch für die klassisch nüchterne Denkerin, in ihrer Argumentation aber sehr überzeugend und nachvollziehbar. 

Einen weiteren kritischen Punkt sieht Coeckelbergh in Meinungen und Meinungsfreiheit. Meinungen können schnell geäußert, publiziert und verbreitet werden, kaum eine Infrastruktur ist aber auf deren Diskussion ausgelegt. Meinungen sollen geäußert werden können – damit endet häufig die Relevanz, die ihnen beigemessen wird. Diskussion wird Zensur verwechselt, Kritik mit Cancel Culture – und beides kann aber nur vor dem Hintergrund gemeinsamer Grundlagen funktionieren. Diese müssen nicht gegeben sein. – Das Beharren auf Bildung und Gemeinsamkeiten kann in Elitarismus und konservativen Traditionalismus abdriften. Coeckelbergh ist sich dieser Fallen bewusst.

Wie soll dann demokratische KI funktionieren? Die gute Seite des immer offensichtlicher werdenden Problems, meint Coeckelbergh: Wir müssen uns neu mit gemeinsamen Werten, Grundlagen und Zielsetzungen beschäftigen. Vor einer Fülle von Möglichkeiten und einem einzelne Entscheidungen überdeckenden steigenden Tempo ist nichts mehr selbstverständlich. Das schafft Missverständnisse – und Gelegenheiten und Notwendigkeiten, Klarheit zu schaffen. Coecklbergh wünscht sich eine neue Renaissance: eine Zeit, in der viel mit Technologie experimentiert wurde, in der Technik vom Mysterium zu etwas Praktischem wurde und in der Traditionen und Denkgebäude über den Haufen geworfen wurden. Demokratisch ist KI, die solche Prozesse unterstützt, die hilft, Verbindungen herzustellen, die kontextualisieren und Gedankenexperimente durchführen kann.

Dennoch wird Technik allein keine demokratische KI schaffen können. Dazu, betont Coeckelbergh, sind demokratische Institutionen notwendig, die Nachdenklichkeit und soziotechnischem Experimentieren Raum geben. Das ist ein Programm. Offen bleibt ein wenig, an wen es sich richtet. Demokratische AI ist ein emanzipatorisches Programm – als solches bedeutet es für die, die jetzt die Spielregeln im Griff haben, Verzicht und Zurückhaltung, für die anderen anstrengend zu erarbeitendes Neuland. Das sind nicht die besten Startvoraussetzungen.

Christine Lagorio-Chafkin, We are the Nerds

Medium, Plattform, Publisher oder Free Speech-Protagonisten – Reddit war eine der ersten großen Plattformen, die einen Exit hinlegten. Für bescheidene, damals aber angemessene zehn Millionen Dollar kaufte Condé Nast 2006 die neuartige Plattform. Eine Tech-Plattform als Teil eines Medienhauses, das machte die Fragestellungen zur eigenen Identität zwischen reinem Kanal und für Inhalte verantwortlicher Plattform umso drängender. Sie sind aber bis heute offen. 

Lagorio-Chefkins Reddit-Buch, auch schon wieder sechs Jahre alt, ist ein schöner Streifzug durch Startup-Geschichte: Reddit war eines der ersten Projekte des damals neu gegründeten Y Combinator-Inkubators. Ebenfalls im ersten Jahrgang unter anderem: Sam Altman, späterer Open AI-Mitbegründer, oder Justin Kan, der mit seltsamen Liveübertragungen experimentierte, woraus später Twitch wurde. 

Plattformen in Abhängigkeit von Usern

Condé Nast war damals so ratlos, was mit der Übernahme anzufangen wäre, wie es Medien gegenüber Plattformen großteils heute noch sind. Zwei Jahre nach der Übernahm wuchs der Druck, zumindest eine Million Dollar Einnahmen zu erwirtschaften. Vergangenes Jahr hat Reddit das selbst gesetzte Ziel, eine Milliarde Dollar zu erwirtschaften, deutlich verfehlt, aber trotzdem über 800 Millionen Umsatz erzielt. Schon früh waren die Moderatoren einzelner Subreddits relevante Pressure Groups, die großen Einfluss auf Wachstum und Ausrichtung des Unternehmens ausüben konnten. Und auch heute noch wird in Hinblick auf den bevorstehenden Börsegang von Reddit viel darüber diskutiert, welchen Einfluss renitente Moderatoren und deren Ankündigungen, den IPO zu boykottieren, auf die ersten Börsewochen haben werden

Wichtigste Entwicklung in der Geschichte von Reddit ist aber die Verschiebung der politisch relevanten Strömungen bei den maßgeblichen Inhalten und Benutzergruppen. Ähnlich wie bei der Entwicklung von BuzzFeed, die im gleichen Zeitraum ab 2005 stattfand, haben anfangs liberale Strömungen sowohl die konkrete Plattform als auch das neue soziale Internet geprägt. Fast wie zu Zeiten der 68er-Autoritätskritik waren neue Onlinemedien Kanäle, die neuen anderen Inhalten Publikum brachten, die traditionelle Mittelsmänner ausschalteten und Chancen zu vervielfachen schienen. Was traditionelle Medien konnten, konnte das Internet hundert Mal.

Zwischen Free Speech und Verantwortung

Erste Gegenreaktionen waren drohende Regulierungen zu Copyrightverletzungen und Fragen der Haftbarkeit. Das grundlegende Problem dieser ersten Welle an Einwänden blieb allerdings auf dem Niveau von „Dürfen die das denn?“. Nebenfronten, die sich daraus entwickelten, war etwas die Open Access Bewegung für wissenschaftliche Publikationen, oder frühe Transparenz- und Informationsfreiheitsbewegungen. Zentrale – tragische – Figur  dieser Themen war Aaron Swartz, der über Y Combinator in der Frühphase zu Reddit stieß, bald nach dem Exit verabschiedet wurde und nach einem groß angelegten Open Access-Hack in Konflikt mit FBI und Justiz geriet. Swartz, der auch in diesem Buch als schwieriger Charakter porträtiert wird, erhängte sich noch vor Prozessbeginn. 

Nächstes großes Konfliktpotenzial waren früh schon Fake News und Desinformation – einige Jahre, bevor das so hieß. Ersten Anlass dazu gaben die Anschläge beim Boston Marathon. Reddit User beschäftigten sich mit einer Reihe falscher Fährten, identifizierten zwei falsche Verdächtige, die in der Folge sogar die Titelblätter von Zeitungen zierten und ließen sich auch nicht durch Aufrufe der Behörden, keine Spekulationen zu verbreiten, von ihren Aktivitäten abbringen. Neues Ziel war ein vermisster Student, dessen muslimischer Familienhintergrund zum Täterprofil passte. Der Student wurde einige Zeit später tot aufgefunden, er hatte sich schon vor dem Anschlag, mit dem er in keinerlei Zusammenhang stand, selbst getötet. Die Desinformationswelle verbreitete falsche Informationen, Verschwörungstheorien und vermeintliche Enthüllungen über durch Behörden unterdrückte Beweismittel und kam dabei ganz ohne den Input russischer oder chinesischer Trollfarmen oder KI-generierte Manipulationen aus. 

Hatespeech, Rassismus, Doxing, Frauenfeindlichkeit und die üblichen Katz- und Maus-Spiele mit Usern und Moderatoren waren immer wieder die Grundlage für Machtspiele entlang der Grenzen des Sagbaren und für die Frage, wieviel Freiheit man online gewähren kann, ohne selbst die schlagendsten Argumente für die Einschränkung dieser Freiheiten zu liefern

Der Endgegner einer noch immer andauernden Auseinandersetzung aber sollte Donald Trump sein. Der Subreddit r/The_Donald wurde zu einer der am schnellsten wachsenden Gruppen, die sehr oft die Grenzen dessen überschritt, was als sagbar gelten konnte. Bislang hat sich Reddit möglichst dagegen entschieden, solche Gruppen aufzulösen – auch, um sie im Tageslicht zu behalten. Heute sind große Plattformen bequem, aber sie sind nicht mehr notwendig. Messengerdienste und ihre Gruppenfunktionen sind passende Alternativen. Wichtig war allerdings die erste Phase der Vernetzung und der Schaffung von Sichtbarkeit.

Das knüpft am Anfang der Geschichte von Reddit und den anderen Plattformen an. In der Frühphase gehörten sie Nerds und waren Orte liberalen Experimentierens. Dort geschahen seltsame Dinge, das Internet war etwas anderes. Dort musste man „hinein“, es war nicht selbstverständlich und es war etwas neben der Gesellschaft. 

Spätestens mit Obama wurde das Neue normal. Obama war ein Zeichen dafür, dass sich das Neue möglicherweise durchsetzen könnte. Einige Huffington Post-Investoren, schreibt Ben Smith, machten ihr Investment davon abhängig, ob Obama die Wahl gewinnen würde, denn dann witterten sie Chancen. Obama hatte Facebook- und Twitter-Accounts und absolvierte einen „I am … – Ask me Anything“-Chat auf Reddit. 

Was liberale (im amerikanischen Sinn) konnten, konnte Konservative allerdings auch. Ben Smith beschreit, wie es zum Problem für BuzzFeed wurde, als Facebook erwachsen geworden war und mehr konservative Selbstbestätigung als Experimentierfreude bediente. Facebook und das Internet waren kein spezieller Teil der Gesellschaft mehr, sie bildeten ab, was die Gesellschaft beschäftigte. 

Radikalisierung mit Businessplan

Reddit erlebte das gleiche Schicksal. Jene, die vor ein paar Jahren Plattformen gern noch zensuriert hätten, erkannten nun das Potenzial zur Durchsetzung ihrer eigenen Interessen. Hat Reddit zu Trumps Wahlsieg beigetragen? Hätte es noch mehr zu dessen Popularität beigetragen, seine Anhänger von der Plattform zu verbannen?

Digitale Plattformen machen Aktivität sichtbar uns tragen zu Vernetzung bei. Das gilt für Teenies auf der Suche nach ihrem Platz in der Welt ebenso wie für Rassisten auf der Suche nach Beifall und Gruppendynamik. Damit haben sich Netzwerkplattformen von Soziallaboren über Zensurkandidaten zu den Lieblingswerkzeugen aller möglichen Extreme gemausert. Mittlerweile haben auch eigene Plattformen, in denen man noch sicherer noch schneller Gleichgesinnte findet, das Potenzial, ausreichend schnell ausreichende Größenordnungen zu erreichen. 

Plattformen selbst kämpfen nach wie vor mit Business-Zielen. Andere Geschäftsmodelle als Werbung haben sich noch nicht etabliert, und auch Werbung ist oft nicht ausreichend. Es besteht durchaus die Gefahr, dass Plattformen traditionellen Medien Einnahmen absaugen – aber dennoch nicht genug zum Leben haben. Alternative Plattformen und ihre User sind da manchmal einen Schritt voraus. Wer eine lukrative Agenda hat, hat eben mehr von Reichweite und Netzeffekten. Das zeigt sich in der Politik-Finanzierung (wenn Kirchen und konservative Stiftungen für ihre Interessen lobbyieren), und das zeigt sich im Ausbau digitaler Netzwerkplattformen. Aufklärung kann man nicht verkaufen, um Spenden kann man in funktionierenden Demokratien, die ihre Politik gut finanzieren, nicht ewig bitten, ohne an Glaubwürdigkeit zu verlieren. 

Aber man kann guten Gewissens unverschämt sein. Eine solide Datenbasis ist durchaus etwas Nettes, allerdings ist sie nur eingeschränkt effizient, wenn ihr nicht die entsprechende Produktpalette gegenübersteht. PolitikerInnen einer Partei sind ein eingeschränktes Angebot. Der aktuelle Trump-Wahlkampf macht einmal mehr vor, wie sich Reichweite und Datenfülle bezahlt machen: Wählerstimmen, Trump-Messer, Trump-Tassen, Ivermectin-Carepakete gegen Long Covid für wohlfeile hundert Dollar (ist Covid jetzt doch gefährlich?) oder Chuck Norris-zertifizierte Investment-Pakete zur Rettung des Dollars vor dem Euro und den Brics-Staaten sind nur ein paar Angebote, mit denen Kontakte aus dem ehemaligen Parler-Netzwerk versorgt werden. 

Parler selbst erzählt die gleiche Geschichte davon, dass Internet, Politik und Gesellschaft nicht mehr getrennt werden können. Parler startete als Gegenbewegung zu liberal verseuchten Netzwerken, ist aber offline, seit es sich von einer Hack-Attacke nicht mehr erholte. Der Untergang des Netzwerks war zugleich dessen stärkster Wachstumsmotor. Ein eigenes Netzwerk ist gar nicht notwendig, die Story von unfairen Attacken dagegen (und gegen die Rechten und Gerechten) ist viel effizienter.