Helen Pluckrose, James Lindsay: Zynische Theorien

Als Student in den 90er-Jahren habe ich mit viel Begeisterung und wenig Verständnis Derrida und Deleuze/Guattari gelesen. Foucault habe ich erst später für mich entdeckt, der war mir damals zu politisch. Baudrillard war mir zu technokratisch, Lyotard stand mir schon damals unter leichtem Esoterikverdacht. 30 Jahre später habe ich die Erfahrung und das Selbstbewusstsein, zu sagen: Mehr als das wenige Verständnis ist auch nicht dran. Wenn man postmoderne Prinzipien der Dekonstruktion einmal verstanden hat, gibt es keinen Grund, sie immer wieder aufs neue ritualisiert zu inszenieren. Stattdessen wäre die Frage zu stellen: Und wie kommen wir weg von hier?

Um kein Missverständnis aufkommen zu lassen: Das schmälert nicht die Relevanz von Dekonstruktion oder Diskursanalyse. Die grundlegende Erkenntnis ist: Alles könnte auch anders sein, und wir sollten uns mit den Mechanismen beschäftigen, die dazu geführt haben, dass unsere Welt ist wie sie ist. Damit gewinnen wir Handlungs- und Entscheidungsspielraum.

Diese Erkenntnis ist für eine demokratische Gesellschaft essenziell. Allerdings kann man von hier aus in unterschiedlichste Richtungen abbiegen. Das zelebrieren aktivistische postmoderne TheoretikerInnen. Deren KritikerInnen konstruieren daraus Gegensätze zwischen Liberalismus, Demokratie und Aktivismus – und schaden damit beiden Seiten.

Letzteres ist auch in „Zynische Theorien“ der Fall.

Postmoderne Theorie ist wie Science & Technology Studies: Wenn das Prinzip klar ist, bringt es keinen Erkenntnisgewinn mehr, wenn es laufend wiederholt wird. Ausnahme sind manchmal detaillierte historische oder fachwissenschaftliche Studien.

In beiden Bereichen wurden – weitere Gemeinsamkeit – gute Konzepte zu geistig flachen Kampfbegriffen pervertiert. Das ist im übrigen keine neue Entwicklung. „Dieses soziale Gepräge des wissenschaftlichen Betriebes bleibt nicht ohne inhaltliche Folgen. Worte, früher schlichte Benennungen, werden Schlagworte; Sätze, früher schlichte Feststellungen, werden Kampfrufe”, schrieb Ludwik Fleck in seiner „Entstehung und Entwicklung einer wissenschaftlichen Tatsache“ 1935.

In der rückblickenden Analyse der Postmoderne, wie Pluckrose und Lindsay sie betreiben, kommt einiges durcheinander. Relativismus, Konstruktivismus, Strukturalismus, deren Überschneidungen und Post-ismen bieten in der Vermischung die größten Angriffsflächen. Und damit werden an sich vernünftige Konzepte zu Lachnummern. Pluckrose und Lindsay sind sich denn auch nocht sicher, ob sie etwa Richard Rorty zustimmen würden, wenn dieser sagt, dass es einen großen Unterschied gibt, ob wir glauben, dass die Welt dort draußen ist (was nur mit Kunstgriffen bestreitbar wäre), oder dass die Wahrheit dort draußen ist (was für manche nach nüchterner Rationalität klingt, aber das Motto der Mystery Serie X Files ist).

Lindsay und Pluckrose zeichnen mächtige Nachwirkungen der Postmoderne nach, während sie zugleich immer wieder in den Raum stellen, dass die Postmoderne eigentlich tot ist. Auch das ist ein Hinweis darauf, dass die Linien nicht ganz so direkt gezogen werden können. Postmoderne Theorien, die heute gepredigt werden, überspringen genau den eigentlichen Punkt, dass wir eigentlich keine Gewissheiten mehr voraussetzen können, und kommen von dort aus zu dogmatischem Aktivismus. Dieser Dogmatismus ersetzt den eigentlich zentralen Zweifel – und das ist natürlcih ein Problem. Social Justice, Postkolonialismus, Standpoint Theory oder Critical Race sind praktische Anwendungen der postmodernen Prinzipien, die intellektuell in einem Satz auserzählt sind aber dennoch natürlich praktische Relevanz besitzen.

Lösungen der in diesen Theorien angesprochenen Probleme sind allerdings Ergebnis pragmatisch-politischer Prozesse. Eine ewig zweifelnde Postmoderne kann Fragen stellen. Natürlich kann man mit einfachen rhetorischen Kniffen Fragen als auch als Behauptungen oder Unterstellungen formulieren, das habe ich in Ahnungslos als Kulturtechnik des Behauptens ausgeführt. Das ist dann allerdings Politik und weder Theorie noch Philosophie.

Lindsay und Puckrose sind in ihrer Kritik und deren Ausweitung auf die klassische Postmoderne, in der sie die Ahnen der Antipoden zu Vernunft und Wissenschaft sehen, etwas zu eindimensional rationalitätsorientiert. Das ist keine gute Idee, das hat David Bloor in seiner Wissenssoziologie dargelegt (stark vereinfachte Kurzfassung: Wir meinen, unerwünschte EInflüsse von einer puren Rationalität fernhalten zu müssen, um besser erkennen zu können. Wir können sie aber gar nicht loswerden und es ist – historischen, kulturellen, politischen oder praktisch durch die verfügbaren Instrumente bedingten – Einflüssen unterworfen, was wir als unerwünscht betrachten und was nicht. Physik-Nobelpreisträger Werner Heisenberg hat das noch etwas weiter zugespitzt: Zeitgeist sei ein ebenso objektiver Fakt wie andere wissenschaftliche Fakten.

Die in der PoMo-Theorie oft praktizierte Vermischung von Wissenschaft und Aktivismus ist natürlich ein Problem; eine solide postmoderne Grundbildung böte allerdings genau das Handwerkszeug, dem entgegenzutreten.

Lindsay und Pluckrose besprechen ihre Sicht von Postkolonialismus, Queer, Trans und Gender Studies, Intersektionalität, Fat Studies und bemühen sich dabei stets, postmoderne Wurzeln freizulegen. Frantz Fanon oder W.E.B DuBois werden da ungefragt implizit und fälschlicherweise in postmoderne Ecken gestellt. Judith Butler hat in den letzten Jahren hart daran gearbeitet, sich diese Ecke noch mehr zu verdienen. Aber viele zeitenössische Critical Race-Aktivisten lernen postmoderne Identitätstheorie ausdrücklich ab und konzentrieren ihren Aktivismus stattdessen auf klar politische und ökonomische Perspektiven.

Andere Diagnosen von Pluckrose und Lindsay sind weitaus treffsicherer. Die Vervielfältigung von Diskriminierung und Marginalisierung durch Intersektionalität (man ist nicht mehr nur Arbeiter oder Frau, sondern nichtakademische Trans-PoC) ersetzt ökonomische Unterschiede oder Unfreiheiten durch unterschiedliche Privilegierungsgrade, die reflektiert werden müssen und Privilegierte dabei behindern, den Wert der postmodern-aktivistischen Theorie zu erkennen. Ebenfalls zutreffend ist die Beobachtung, dass diese Entwicklung Gruppen bildet, Individuen in den Hintergrund rückt, Gruppensolidarität fordert und damit dem Individuum Handungsspielräume wegnimmt. Unterschiede und Privilegien werden für Gruppen diagnostiziert – ob sie auf das Individuum zutreffen, ist der Theorie gleich. Mit solchen Manövern schafft sich die Theorie zusätzliche Komplexität und ist auf immer wieder neue Themenbereiche anwendbar. Es kann immer etwas problematisiert werden, es kann immer neue Gruppennivellierungen geben. Beispiele für diese Komplexitätserhöhung sind der Eintritt von Trans-Themen in Genderdebatten oder als neueste Betätigungsfelder postmoderner Theorie: Fat Studies und Ableismus. Beide framen negative Aspekte von Übergewicht oder körperlichen Einschränkungen als Konstrukte eines herrschenden Diskurses, der Normalität und Anpassung fordert und Abweichungen in die Nähe von Krankheitsbildern rückt. Medizinische Empfehlungen oder Hinweise auf möglicherweise negative Folgen von Übergewicht sind die Speerspitze dieser unterdrückerischen Diskurse.

Nach diesen treffsicheren Diagnosen führen Pluckrose und Lindsay einige Beispiele solcher Entwicklungen aus “amerikanischen Universitäten” an. Üblicherweise ist das bei Kritik an postmoderner Theorie ein Alarmsignal, das hellhörig macht. Pluckrose und Lindsay rerferieren allerdings keine anonymisierten und aggregierten Cancel-Culture-Legenden und deren vermeintlich dramatischen Folgen, sie illustrieren Wirkweise und Auftreten der postmodernen Theorie und ihrer Ausprägungen. Nach Queers for Palestine, antisemitischen Ausfällen an eben solchen UnNiversitäten und Unwissen demonstrierenden Pro-Gaza-Demonstrationen überraschen diese Erzählungen weniger.

Dennoch verliert “Zynische Theorien” gegen Ende etwas. Pluckrose und Lindsay schließen an ihre Diagnosen einen programmatischen Teil an, in dem sie ausgerechnet den Liberalismus als Gegenspieler des postmodernen Aktivismus ins Feld führen. Liberalismus eigne sich vor allem deshalb, weil er auf objektives Wissen setze.

Für Wissenschaftstheoretiker schrillen auch hier die Alarmglocken. Die unreflektierte und undefinierter Verwendung eines vagen Containerbegriffs wie “objektiv” ist an sich bereits ein Problem. Die Postulierung objektiven Wissens als Grundpfeiler ist eine doppelt schwierige Wendung, die sich vorwerfen lassen muss, viel von dem vorauszusetzen, was sie eigentich beweisen möchte. Damit wird sie dem kritisierten Aktivismus schrittweise ähnlicher. Größtes Verdienst des Liberalismus ist es, die Einsicht durchgesetzt zu haben, dass Alternativen möglich sind (hier gibt es Überschneidungen mit der frühen Postmoderne) und dass Entscheidungen nachvollziehbar begründet werden sollten. Nachvollziehbarkeit klingt auf den ersten Blick ähnlich wie Objektivität, hat aber nichts damit zu tun. Auch egoistische, politische oder machtorientierte Entscheidungen können nachvollziehbar sein, sie sind aber alles andere als objektiv.

Eine weitere gewagte Behauptung von Pluckrose und Lindsay ist, dass Liberalismus der Korrespondenztheorie der Wahrheit anhänge. Ich kann nicht nachvollziehen, wie sich diese pauschale Diagnose begründen ließe. Die Korrespondenztheorie geht davon aus, dass wahr ist, was der Realität entspricht. Das klingt nach einem Zirkelschluss. Es ist eine auf den ersten Blick leicht verständliche und überzeugend klingende Theorie, die bei näherer Betrachtung aber überaus wenig aussagt. Denn im allgemeinen bleibt offen, wie über die Richtigkeit der richtigen Übereinstimmung entschieden werden kann. Damit bleibt übrig: Richtig ist, was richtig ist.

Die Korrespondenztheorie war unter den frühen Positivisten und den Vorläufern des Wiener Kreises beliebt. Sie klingt manchen Interpretationen nach in Wittgensteins “Die Welt ist alles, was der Fall ist”, nach. Spätere sehr fakten- und logikorientierte Vertreter des Wiener Kreises wie Rudolf Carnap kritisierten eben diesen Kurzschluss, setzten eher Regeln und Prozesse als relevante Wahrheitskriterien an und bewegten sich so von der Korrespondenz- zur Kohärenztheorie der Wahrheit. Wahr ist demnach, was kohärent zu dem ist, was wir sonst als wahr empfinden, was also zu unserm bisherigen Wissen passt und unseren Regeln nicht widerspricht. Das ist unter anderem eine Kurzfassung wissenschaftichen Arbeitens und damit ein mindestens ebenso chancenreicher Kandidat für den populärsten liberalen Wahrheitsbegriff.

Liberale argumentieren gern mit Evidenz und Daten. Beides eignet sich nur dann als Beweis für etwas, wenn der Kontext, in dem Daten die Ursache von oder der Beleg für etwas sein können, schon vorher hergestellt ist. Schmerzhaft für Wissensphilosophen und Wissenschaftstheoretiker ist in dieser Diskussion immer, dass diese nüchterne und selbst sehr faktenorientierte Feststellung so leicht in die Nähe der postmodernen Relativierungs-Absolutierungsspiele gerückt werden kann. Solche Dataparadoxa sind aber bereits gut erforschte Fakten.

Zustimmen kann man Pluckrose und Lindsay bei der Feststellung, dass die Betonung des Individuums eine der deutlichsten Trennlinie gegenüber dem postmodernen Aktivismus und dessen Gruppenorientierung ist. Viele der anderen Punkte, mit denen Pluckrose und Lindsay ein starkes Bild von Liberalismus zeichnen wollen, sind zugleich dessen populärste Angriffsflächen und ergeben anstelle des Bilds eines souveränen aufgeschlossenen Liberalismus eher jenes eines dogmatisch-elitären Republikanismus. Der Bezug auf intellektuelle Vorfahren aus (amerikanischen) Revolutionszeiten verstärkt diesen Eindruck.

Beispiele, mit denen Pluckrose und Lindsay ihre Sicht des offen lernenden und sich weiterentwickelnden rationalen Liberalismus belegen wollen, sind in der Fachliteratur oft sinnvolle Gegenbeispiele für unsaubere und verschlungene, aber reale Entwicklungspfade: Ja, Newton ließ sich nicht von alten Dogmen abhalten, Gesetze der Mechanik zu entwickeln und diese Gesetze haben sich durchgesetzt. Und ja, Einstein ließ sich nicht von einem newtonschen Dogma abhalten, diese Mechanik zu relativieren. Aber i angewandter Physik wird trotzdem vielfach nach wie vor nach Newtons Mechanik und nicht nach jener der Relativitätstheorie gearbeitet. Denn Unterschiede sind minimal und die Komplexität würde deutlich steigen.

Völliges Scheitern schließlich sind die letzten Seiten, auf denen Pluckrose und Lindsay konkrete Argumentationsmuster entwerfen möchten, die Liberale postmodernen Aktivisten begegnen können. Das ist ähnlich hilflos wie die absurden Tipps selbsterklärter Politikwissenschaftler und Kommunikationsexperten, wie man mit Rechtsextremen reden möge, um sie zu entzaubern. Populismus und Aktivismus werden im direkten Vergleich immer spannender bleiben. Hier kommt man nicht umhin, zu streiten – oder im Fall des postmodernen Aktivismus: Man setzt darauf, dass Begegnungen der Aktivisten mit der Außenwelt auch bei den postmodernsten Akteuren mehr und mehr Pragmatismus durchsetzen wird. Damit kommen auch jene ökonomischen Aspekte zurück auf die Bühne, die Intersektionalität und postmoderne Theorie so gerne verdrängen möchten. Denn die Frage ist, wer sich die realitätsverweigernde aktivistische Pose wie lange leisten kann.

Pluckrose und Lindsay liefern gute Analysen des postmodernen Aktivismus und machen diese Entwicklungen auch jenen verständlich, die viel davon zum ersten Mal hören. Aber sie scheitern dabei, argumentative Gegenrezepte zu liefern und verrennen sich dabei selbst in dogmatischen Posen.

David Graeber, The Dawn of Everything

Alles hätte auch anders sein können, immer. David Graeber und und David Wengrow liefern eine Reihe von Hinweisen dafür, dass die Kulturgeschichte der Menschheit nicht nur anders hätte verlaufen können und an jedem beliebigen Punkt andere Wendungen hätte nehmen können, sie argumentieren vielmehr auch, dass vieles vermutlich deutlich anders verlaufen ist, als in der Geschichtsschreibung letztlich festgehalten wurde. Damit wenden sie sich vor allem gegen populären Determinismus, den erfolgreiche Autoren wie Yuval Harari predigen – und der mit seiner Eindeutigkeit Erklärkompetenz suggeriert und den Autoren Erfolge beschert. Bei Graeber und Wengrow bleibt vieles weniger eindeutig.

Ein Ausgangspunkt ihrer Recherchen ist Rousseaus Frage nach der Entstehung von Ungleichheit. Warum, fragen sie sich, ging er davon aus, dass einmal Zustände der Gleichheit gab? Rousseau ist mit dieser Annahme nicht allein; Spekulationen über Urzustände – seien sie friedlich oder kriegerisch – waren lang in Mode. 

Graeber und Wengrow zeichnen nach, wie Herrschaftsformen und soziale Organisationen in unterschiedlichsten Gesellschaften lange vor moderner Politik oder europäischen Einflüssen bestanden. Viele ihrer Forschungen beschäftigen sich mit mittel- und nordamerikanischen Gesellschaften und unterschiedlichen möglichen Entstehungsgeschichten von Herrschaft. Diese kann etwa das Resultat von Krieg und Unterwerfung sein, aber auch das Ergebnis von Fürsorge: Wohlhabenden fiel die Aufgabe zu, Waisen, Kriegswitwen oder Arme zu versorgen – was ihnen loyale Gefolgschaften sicherte.

Die beleg- und detailreiche Erzählweise macht das Buch nicht immer leicht und angenehm zu lesen. 

In Erinnerung bleiben aber etwa die Konversationen des Huronen-Führers mit Kondiaronk mit französischen Jesuiten, in denen Kondiaronk europäische Herrschafts- und Sozialsysteme aufs Korn nahm und – den Aufzeichnungen des Jesuiten nach – ein freierer Freigeist gewesen sein muss als die europäischen Aufklärer. Freien Huronen erschien europäische Zivilisation als Sklaverei und monotheistische Religion als unglaubwürdiger Spuk. 

Es ist möglich, dass Kondiaronk einige Zeit in Europa verbracht hat; möglich ist auch, dass Autoren, die von Konversationen mit ihm berichten, Positionen etwas überzeichnet haben. Plausibel ist jedenfalls, dass Kondiaronk eines der Urbilder des „edlen Wilden“ ist. Wobei diese Begriff als spöttische Überzeichnung europäischer Nationalisten seine Karriere startete. Rassisten hielten die Existenz Intellektueller außerhalb Europas für unmöglich und verspotteten die Literatur transatlantischer Dialoge als überzeichnete Romantik.

Zusammenarbeit, Herrschaft, Kooperation, Zwang, Freiheit – auf allen Kontinenten und über mehrere Jahrhunderte hinweg lassen sich unterschiedlichste Belege für die Organisation früher Gesellschaften finden. Das zentrale Argumenbt von Graeber und Wengrow: Diese Vielfalt und die vielfältigen Übergänge zwischen einzelnen Organisationsformen zeigen, dass es immer Optionen und Handlungsspielräume gibt. Soziale Entwicklung folgt nicht notwendigerweise Zwängen und Alternativlosigkeiten, es gibt immer auch Optionen. 

Das ist eine der Schnittmengen zwischen liberalen und anarchistischen Positionen.

Und es ist eine Position, die sich mehr und mehr in der Gesschichtswissenschaft durchsetzt. Man verabchiedet sich von Teleologien und dem Gedanken einer fortlaufenden Entwicklung zum Besseren. Denn dieser Gedanke setzt voraus, dass frühere Generationen und Gesellschaften zwangsläufig auf einer niedrigeren Entwicklungsstufe standen; das verleitet dazu, Entscheidungen und Prozesse nicht ernst zu nehmen oder sie schnell mit fragwürdigen Erklärungen abzutun. Frühere Generationen haben genauso intensiv überlegt, geplant und gehofft wie wir. Und sie sind ebenso ernstzunehmen, wie wir uns ernstnehmen. 

Der Gedanke der ständigen Entscheidbarkeit – wir können jeden Moment wählen, in welche Richtung wir gehen – soll auch verdeutlichen, dass die Zukunft gestaltbar ist. Für Graeber bedeutete das: Anarchistische und antikapitalistische Positionen müssen sich nicht zwangsläufig an der Vergangenheit orientieren; sie könnten Perspektiven für die Zukunft zeigen. Graeber starb während der Arbeit an diesem Buch. 

10 Jahre Comic Cons– Chuck Norris und ich auf Tour

Zehn Jahre vergehen umso schneller, je mehr in dieser Zeitspanne geschieht – und je älter man dabei ist. Jetzt sind schon wieder zehn Jahre um. Zehn Jahre, in denen ich viel Zeit auf Comic Cons und Festivals verbracht habe, um als Verleger die erfolgreichste österreichische Superheldenserie unter die Leute zu bringen. Austrian Superheroes haben 28 Hefte erlebt, fünf Jahresbände, drei Sonderbände, ein Game, ein Musical, ein Kartenspiel, Deutschland-Ableger und Italien-Crossovers, mehrere Ausstellungen und mehrere interessierte Filmproduzenten. In zehn Jahren unterwegs kamen überschlagsmäßig trotz Corona-Zwangspause vierzig bis fünfzig Cons und Festivals dazu.

Damit ist jetzt Schluss. 

Vor wenigen Wochen war ich auf der für mich letzten Con als Verleger und Aussteller. Zeit, ein wenig Bilanz zu ziehen. 

2023, mittlerweile tragen alle Brillen. Einer nur gerade im Moment nicht.

In den zehn Jahren hat sich erstaunlich wenig verändert. Cons sind bunt, Regenbogenparaden sind uniformierte Schulausflüge konfessioneller Privatschulen dagegen. Bodypositivity, Aufgeschlossenheit gegenüber jedem erdenklichen Spleen und hohe Detailorientierung im Ausleben identitätspolitischer Differenzstrategien (im Klartext: alle leben in ihrer eigenen Welt) sind die zentralen Merkmale handelsüblicher Con-BesucherInnen. Bei so viel Diversität und Individualität verwundert es ein wenig, dass die klassischen Motive (Star Wars, Jurassic Park, Transformers, Marvel) über die Jahrzehnte praktisch unverändert funktionieren und die paar Manga-Cosplayer, die in dieser Ausprägung ihres Characters vergangenes Jahr noch nicht auf Tour waren, mühelos überstrahlen. Es bleibt einfach gleich. Was vermutlich letztlich auch an Marktgesetzen liegt. Der große Nenner, der für stabile Publikumszuflüsse sorgt, verändert sich nur langsam.

2016, Dortmund. Stargast Chuck Norris ist nicht im Bild. Teile des Austrian Superheroes-Teams (links) diskutieren mit Trachtman (Mitte) und Captain Berlin (rechts).

Wie kann man sonst noch nach zehn Jahren Cons bilanzieren? 

Comics werden weniger

Mich interessiert die Story. Wenn es gute Bilder dazu gibt, die die Story unterstützen, die Worte überflüssig machen, um so besser. Wenn Bilder die Story ersetzen, wenn Production Value die Freude am Lesen in den Hintergrund drängt, dann ist das ein Problem. Das passiert im Großen wie im Kleinen.

Im Großen setzen mehr und mehr Verlage auf Graphic Novels, sie schütteln Biographien aus dem Ärmel oder verlegen durchschnittliche Kunstschulprojekte – und bringen damit das Genre ins Grab. Uninspiriert erzählte Storys werden von schlechten Zeichnungen begleitet und als teure Hardcoverbücher produziert. Schön für den Buchhandel, beleidigend langweilig für Leser. Storys, die auf einer halben Seite auserzählt wären, werden auf Buchlänge ausgewalzt. 

Im Kleinen zeigt sich, dass in Artist Alleys auf Comic Cons keine Comics zu finden sind. Hier tummeln sich Einzelblatt-Fanart-Künstler, die vielleicht Storys im Kopf haben, sie aber nicht zu Papier bringen. Oft sind es nicht nur keine Storys, es fehlen sogar Buchstaben. Oder es gibt nicht einmal Zeichnungen, sondern gehäkelte Pokemons.

Auf der einen Seite eine neue Entwicklung, über deren Fehlen ich mich vor ein paar Zeilen beklagt habe. Auf der anderen Seite eine Entwicklung, die Comics ins Grab bringt. Und was sollen Fanart und Merch in Zukunft promoten, wenn es keine eigentliche Art mehr gibt? 

Müllshopping

Wenn wir bei Fanart und mangelnder Produktivität und Originalität sind: Merchboxen sind ein weiterer Con-Trend, der sich in den vergangenen Jahren deutlich verstärkt hat. Menschen kaufen Überraschungsboxen voller Merch-Müll. Und das tonnenweise. Eigene Händler sind darauf spezialisiert. In den Boxen sind Kaffeetassen, T-Shirts, vielleicht sogar Actionfiguren (wenn teurer), bei den noch teureren kann man sich Genre oder Stil aussuchen. 

Merchboxen-Käufe müssen Akte der puren Verzweiflung sein. Menschen, die eigentlich nichts mit dem Gebotenen anfangen, besuchen trotzdem aus Neugier eine Comic Con und erliegen dem Drang, bei all der Fülle an Gebotenem etwas kaufen zu müssen. Merchboxen, die Schnäppchen und Überraschung versprechen, sind ein willkommener Ausweg: Man muss nichts entscheiden, man muss nicht wissen, was man kauft, und man hat trotzdem den Nimbus der weltgewandten Coolness, weil die Objekte schließlich von der Con sind, von einem Event bei dem Aussteller aus aller Welt zusammenkommen. Und es findet nur einmal mit Jahr statt!

Originalität, Urheberrechte und Lizenzen werden in den Merchboxen wohl ebenfalls bis zur Unkenntlichkeit durch den Fleischwolf gedreht. Aber das gilt für alle Produkte, Cosplays, Fangruppen und andere nicht autochthone Erscheinungen bei Cons. Die Piratendichte ist hoch, das Unrechtsbewusstsein niedrig.

Um ehrlich zu sein: Ich hatte lang den Verdacht, dass viel Müll wie angebliche asiatische Trends, Foods oder Funko Pop-Figuren oder -Tassen eher Erfindungen findiger Comic Con-Händler als asiatische Trends wären. Ich musste erst unlängst nach einer Taiwan-Reise zur Kenntnis nehmen, dass Taiwanesen offenbar tatsächlich mit Begeisterung von diesem unsäglichen Kitsch angetan sind. Und bei China Airlines gibt es Pokemon-Speibsackerl.

F*ck Local

Wer als lokaler Produzent mit eigener Intellectual Property, wie man so sagt, auf Comic Cons vertreten ist, lernt drei große Publikums-Archetypen kennen. Die einen finden es cool, dass es „so was“ auch „bei uns“ gibt, sie würdigen Qualität und Professionalität der Produktion (da schmeichelt ja auch das Urteil von Laien) und freuen sich, etwas Neues kennengelernt zu haben. Manche, und das ist berührend, sehen in professioneller und kommerziell erfolgreicher popkultureller Produktion sogar Zeichen einer besseren Welt. Sie lernen, dass man auch hierzulande Dinge einfach machen kann und sich nicht auf Umstände ausreden muss. 

Die anderen sind die populärkulturelle Entsprechung jener, die angesichts abstrakter Kunst sagen: „Das kann ich auch.“ Sie lachen nervös, findens eh leiwand und nehmen den Aussteller lang mit langwierig und langweilig erzählten platten Pointen in Beschlag, „Warum reitet der nicht auf einem Lipizzaner“, „Ihr brauchts einen Mozartkugelman“, „Ich warte, bis es eine Gschicht mit dem Lindwurm gibt“. 

Die dritte Gruppe ist psychohygienisch delikat. Es sind fortgeschrittene Con-BesucherInnen, oft CosplayerInnen, sie haben klare Fan-Präferenzen und genießen Cons, um ansonsten ferne Trends und Stars in ihrer Nähe zu haben. Vermutlich haben sie auch Foto-Ops mit einem der Stargäste gebucht. Für sie ist lokale Popkultur eine Beleidigung. Sie rümpfen die Nase. Es ist ein Affront, dass „die“ (also wir) „das“ auch machen, internationale Popkultur kopieren. Es ist eine verfehlte Anmaßung. Es ist so cringe wie wenn Pfarrer und Bürgermeister den Jugendgschnas crashen würden. Sie sind entrüstet und gekränkt von diesem heimischen Mief, wo sie doch hierher gekommen sind, um Düfte der großen Entertainmentwelt zu schnuppern. 

Diese Stars

Wenn wir bei Stars sind – ich kenne viele der angekündigten Stargäste nicht. Ich muss sie nach wie vor googlen und bin trotz dieser Recherche in vielen Fällen nur geringfügig schlauer. Es sagt mir einfach nichts. Dabei habe ich ein Herz für verkannte Größen. Unter meinen Lieblingsstars aus den ganzen zehn Jahren ist ein kleiner Mann, der einen Starwars-Ewok spielte. Das sind diese kuscheligen Tiere, die Uninitiierte vielleicht eher der Sesamstraße zuordnen würden. Sie treten in plüschigen Ganzkörperkostümen mit Plüschkopf auf. Die Autogrammkarte des kleinen Mannes zeigte ein Ewok-Gruppenfoto, alle in voller Plüschmontur mit Plüschköpfen. Er hatte einen Pfeil auf sich gezeichnet. „Ich war der siebte Zwerg von links.“ Ein anderer war ein größerer dünner langhaariger Mann. Er war einige Jahre dabei und hatte stets ein informatives Rollup hinter sich: „Ich war dreißig Zombies in Walking Dead.“ Ihm wurden dreißig Mal diverse Waffen ins untote Makeup-Hirn geschlagen. 

Ewok-Autogrammkarte

Manchmal gab es auch andere Stars. Frank Miller war auf der Vienna Comic Con. Chuck Norris war in Dortmund. Die Con fand damals trotz heftige Schneestürme statt und war so überlaufen, dass sie immer wieder gesperrt werden musste. Und in Wels habe ich einmal das Frühstücksbuffet mit Lou Ferrigno geteilt, dem Hulk der späten 70er Jahre. Leider war er damals, als wir gemeinsam hätten frühstücken können, Botschafter der National Rifle Association und Mitglied in Donald Trumps Beirat für Sport, Fitness und Ernährung. 

Abschied auf Raten 

Austrian Superheroes werden noch auf einigen weiteren Comic Cons vertreten sein. Vielleicht gibt es ja sogar zum 10-Jahres-Jubiläum einen fetten Gesamtausgaben-Omnibus. Das wären rund 1200 Seiten. Vielleicht, wenn jemanden der Ehrgeiz packt, gibt es sogar weitere Storys. Bis dahin: Im Herbst findet die Vienna Comic Con statt. Und auch ohne den Omnibus kann man das Gesamtwerk in handlichen acht Bänden kaufen

Heute nerven mich Comic Cons ein wenig. Das liegt an mir, nicht an den Cons. Aber es war eine weitere zehnjährige Schlittenfahrt im Leben. Alle Menschen sollten mehr und verschiedene Schlitten fahren. 

Die Absage-Plakatmutation ist mittlerweile Teil der Corona-Sammlungen diverser Museen.
Leo Koller (ohne Haare, mit Kamera), vom Anfang an im Kreativteam dabei, starb 2023.
Auch an seinem Todestag waren wir auf einer Comic Con.

Mark Coeckelbergh, Why AI undermines democracy and what to do about it

Für einen Philosophen ist das Urteil überaus eindeutig – und vor allem kommt es schnell: Mark Coeckelbergh legt sich früh fest, Künstliche Intelligenz ist seines Erachtens schlecht für die Demokratie. In dieser Feststellung stecken gleich mehrere Urteile: Technologie ist also nicht grundlegend gut. Sie ist auch nicht neutral: Technologie ist kein offenes Instrument, dessen Konsequenzen und Potenziale erst in der Anwendung offenbar werden. Technologie bringt schon in ihren Grundzügen positive oder negative Tendenzen mit, sie kann aufgrund ihrer fundamentalen Prinzipien leichter oder weniger leicht missbraucht werden. Und Technologie steht in Wechselwirkung mit Sozialem und Kultur, Technologie beschleunigt, priorisiert, ist ein viel beachtetes Themengebiet voller Chancen und Risiken und daher ein wichtiger Faktor der Gegenwart.

Technologie ist also wichtig, aber warum ist Künstliche Intelligenz schlecht für die Demokratie? 

Coeckelberghs Argument setzt an der Bedeutung von öffentlichem Raum und öffentlicher Meinung an. Demokratisch ist, was in einem ausgewogenen Prozess nach Abwägung unterschiedlicher Meinungen, Prioritäten, Werte und Bedürfnisse entschieden wurde. Dieser Prozess sollte unbeeinflusst, frei und nach klaren Regeln stattfinden.

Genau das gefährdet künstliche Intelligenz. KI-vermittelte Prozesse sind intransparent, folgen Regeln, die nicht demokratischen Prinzipien folgen, räumen den Prioritäten jener, die besser mit Technologie umgehen können, unverhältnismäßig höheren Stellenwert ein und verfälschen so sowohl Prozess als auch Ergebnis.

Allerdings, räumt Coeckelbergh ein, hat es den idealtypischen demokratischen Prozess in seiner reinen Form noch nie gegeben. Demokratie ist eben auch nur real existierende Demokratie, die auch hinter ihren eigenen Idealen zurück ist. 

Künstliche Intelligenz könnte allerdings dabei helfen, demokratische Ideale zu verwirklichen. Coeckelberghs Vision dafür ist Demokratische Künstliche Intelligenz, also eine transparente, nachvollziehbare und weitgehend auch kontrollier- und gestaltbare Form von KI, ähnlich wie sie auch in den Grundzügen des EU AI Act beschrieben wird.

Das hat technische Implikationen. Können große LLMs, wie sie in Generative AI eingesetzt werden, diesen Anforderungen genügen? Können und kleinere und konkretere Modelle diesen Transparenzanforderungen gerecht werden? Ist es nicht im Gegenteil das Wesen von KI, sich zumindest teilweise diesen Ansprüchen auf Nachvollziehbarkeit und Kontrollierbarkeit zu entziehen? Oder ist genau diese Eigendynamik von KI eine Nebelgranate, die die Verantwortung von Technik verwässern soll?

Andere Implikationen sind sozialer Natur. Damit Meinungsbildung idealtypischen Vorgaben folgen kann, ist Bildung notwendig. Die politische Mär von Bildung als Allheilmittel predigt allerdings oft bloße Besserwisserei und unterscheidet sich damit nicht grundlegend vom Versuch, relevante Fragen über KI entscheiden zu lassen. Bildung und Besserwisserei – beide präsentieren Pointen und Anekdoten, denen häufig jene relevanten Informationen fehlen, anhand derer über Richtigkeit oder Sinnhaftigkeit entschieden werden kann. In der Politik, das kommt noch erschwerend hinzu, sind nicht nur Wahrheit, Richtigkeit oder SInnhaftigkeit relevante Kriterien. Alles steht und fällt mit Zustimmung. 

Zustimmung lässt sich weder mit Logik, Evidenz und andere Formen der Überstrapazierung von Wissenschaft und Rationalität, die über Fragestellungen entscheiden sollen, für die sie nicht geeignet sind, erreichen. Zustimmung ergibt sich in einer Phase öffentlicher Diskussion auf gemeinsamen Grundlagen, in der Gegenargumente respektiert, gewürdigt und abgelehnt werden können. Diese gemeinsamen Grundlagen sind durch KI in Gefahr, meint Coeckelbergh. Grund dafür sind nicht nur künstlich erzeugte Falschinformationen oder KI-vermittelte Argumente und Recherchen, die unreflektiert übernommen werden, sondern auch die mittlerweile üblichen Prozesse der Verbreitung und Bewertung von Information. Tempo, Lautstärke und Auffälligkeit sind wichtiger als inhaltliche Relevanz oder Richtigkeit und werden in der Verbreitung höher priorisiert. Aufmerksamkeitssurrogate wie Interaktionen sind deutlich effizienter für die schnelle Verbreitung als die Auseinandersetzung mit Inhalten, die die Verbreitung nur lähmt. Das schafft Scheinwelten weit weg von der Realität, über die eigentlich entschieden werden soll – aber sie gelten als maßgeblich für das, was zur Diskussion steht. – Fragen des guten Lebens werden in Influencer-Reels und in politischen Grundsatzprogrammen behandelt. Den einen liegen Abstimmungen, Machtfragen und Zielsetzungen zugrunde, den anderen intransparente eindimensionale Algorithmen. 

Wo gemeinsame Grundlagen der Diskussion fehlen, fehlt die Möglichkeit, nachvollziehbare Entscheidungen zu treffen, denen alle zustimmen können, auch wenn sie sie nicht teilen. Coeckelbergh sieht darin eine grundlegende Gefahr für Demokratie und Zusammenleben. Ein kurzer Hinweis auf Hannah Arendt verdeutlicht die Dimension des Problems: Arendt sah im Fehlen oder in der Verweigerung dieses gemeinsamen Rahmens die Grundlagen des Bösen. Erstaunlich pathetisch für die klassisch nüchterne Denkerin, in ihrer Argumentation aber sehr überzeugend und nachvollziehbar. 

Einen weiteren kritischen Punkt sieht Coeckelbergh in Meinungen und Meinungsfreiheit. Meinungen können schnell geäußert, publiziert und verbreitet werden, kaum eine Infrastruktur ist aber auf deren Diskussion ausgelegt. Meinungen sollen geäußert werden können – damit endet häufig die Relevanz, die ihnen beigemessen wird. Diskussion wird Zensur verwechselt, Kritik mit Cancel Culture – und beides kann aber nur vor dem Hintergrund gemeinsamer Grundlagen funktionieren. Diese müssen nicht gegeben sein. – Das Beharren auf Bildung und Gemeinsamkeiten kann in Elitarismus und konservativen Traditionalismus abdriften. Coeckelbergh ist sich dieser Fallen bewusst.

Wie soll dann demokratische KI funktionieren? Die gute Seite des immer offensichtlicher werdenden Problems, meint Coeckelbergh: Wir müssen uns neu mit gemeinsamen Werten, Grundlagen und Zielsetzungen beschäftigen. Vor einer Fülle von Möglichkeiten und einem einzelne Entscheidungen überdeckenden steigenden Tempo ist nichts mehr selbstverständlich. Das schafft Missverständnisse – und Gelegenheiten und Notwendigkeiten, Klarheit zu schaffen. Coecklbergh wünscht sich eine neue Renaissance: eine Zeit, in der viel mit Technologie experimentiert wurde, in der Technik vom Mysterium zu etwas Praktischem wurde und in der Traditionen und Denkgebäude über den Haufen geworfen wurden. Demokratisch ist KI, die solche Prozesse unterstützt, die hilft, Verbindungen herzustellen, die kontextualisieren und Gedankenexperimente durchführen kann.

Dennoch wird Technik allein keine demokratische KI schaffen können. Dazu, betont Coeckelbergh, sind demokratische Institutionen notwendig, die Nachdenklichkeit und soziotechnischem Experimentieren Raum geben. Das ist ein Programm. Offen bleibt ein wenig, an wen es sich richtet. Demokratische AI ist ein emanzipatorisches Programm – als solches bedeutet es für die, die jetzt die Spielregeln im Griff haben, Verzicht und Zurückhaltung, für die anderen anstrengend zu erarbeitendes Neuland. Das sind nicht die besten Startvoraussetzungen.

Christine Lagorio-Chafkin, We are the Nerds

Medium, Plattform, Publisher oder Free Speech-Protagonisten – Reddit war eine der ersten großen Plattformen, die einen Exit hinlegten. Für bescheidene, damals aber angemessene zehn Millionen Dollar kaufte Condé Nast 2006 die neuartige Plattform. Eine Tech-Plattform als Teil eines Medienhauses, das machte die Fragestellungen zur eigenen Identität zwischen reinem Kanal und für Inhalte verantwortlicher Plattform umso drängender. Sie sind aber bis heute offen. 

Lagorio-Chefkins Reddit-Buch, auch schon wieder sechs Jahre alt, ist ein schöner Streifzug durch Startup-Geschichte: Reddit war eines der ersten Projekte des damals neu gegründeten Y Combinator-Inkubators. Ebenfalls im ersten Jahrgang unter anderem: Sam Altman, späterer Open AI-Mitbegründer, oder Justin Kan, der mit seltsamen Liveübertragungen experimentierte, woraus später Twitch wurde. 

Plattformen in Abhängigkeit von Usern

Condé Nast war damals so ratlos, was mit der Übernahme anzufangen wäre, wie es Medien gegenüber Plattformen großteils heute noch sind. Zwei Jahre nach der Übernahm wuchs der Druck, zumindest eine Million Dollar Einnahmen zu erwirtschaften. Vergangenes Jahr hat Reddit das selbst gesetzte Ziel, eine Milliarde Dollar zu erwirtschaften, deutlich verfehlt, aber trotzdem über 800 Millionen Umsatz erzielt. Schon früh waren die Moderatoren einzelner Subreddits relevante Pressure Groups, die großen Einfluss auf Wachstum und Ausrichtung des Unternehmens ausüben konnten. Und auch heute noch wird in Hinblick auf den bevorstehenden Börsegang von Reddit viel darüber diskutiert, welchen Einfluss renitente Moderatoren und deren Ankündigungen, den IPO zu boykottieren, auf die ersten Börsewochen haben werden

Wichtigste Entwicklung in der Geschichte von Reddit ist aber die Verschiebung der politisch relevanten Strömungen bei den maßgeblichen Inhalten und Benutzergruppen. Ähnlich wie bei der Entwicklung von BuzzFeed, die im gleichen Zeitraum ab 2005 stattfand, haben anfangs liberale Strömungen sowohl die konkrete Plattform als auch das neue soziale Internet geprägt. Fast wie zu Zeiten der 68er-Autoritätskritik waren neue Onlinemedien Kanäle, die neuen anderen Inhalten Publikum brachten, die traditionelle Mittelsmänner ausschalteten und Chancen zu vervielfachen schienen. Was traditionelle Medien konnten, konnte das Internet hundert Mal.

Zwischen Free Speech und Verantwortung

Erste Gegenreaktionen waren drohende Regulierungen zu Copyrightverletzungen und Fragen der Haftbarkeit. Das grundlegende Problem dieser ersten Welle an Einwänden blieb allerdings auf dem Niveau von „Dürfen die das denn?“. Nebenfronten, die sich daraus entwickelten, war etwas die Open Access Bewegung für wissenschaftliche Publikationen, oder frühe Transparenz- und Informationsfreiheitsbewegungen. Zentrale – tragische – Figur  dieser Themen war Aaron Swartz, der über Y Combinator in der Frühphase zu Reddit stieß, bald nach dem Exit verabschiedet wurde und nach einem groß angelegten Open Access-Hack in Konflikt mit FBI und Justiz geriet. Swartz, der auch in diesem Buch als schwieriger Charakter porträtiert wird, erhängte sich noch vor Prozessbeginn. 

Nächstes großes Konfliktpotenzial waren früh schon Fake News und Desinformation – einige Jahre, bevor das so hieß. Ersten Anlass dazu gaben die Anschläge beim Boston Marathon. Reddit User beschäftigten sich mit einer Reihe falscher Fährten, identifizierten zwei falsche Verdächtige, die in der Folge sogar die Titelblätter von Zeitungen zierten und ließen sich auch nicht durch Aufrufe der Behörden, keine Spekulationen zu verbreiten, von ihren Aktivitäten abbringen. Neues Ziel war ein vermisster Student, dessen muslimischer Familienhintergrund zum Täterprofil passte. Der Student wurde einige Zeit später tot aufgefunden, er hatte sich schon vor dem Anschlag, mit dem er in keinerlei Zusammenhang stand, selbst getötet. Die Desinformationswelle verbreitete falsche Informationen, Verschwörungstheorien und vermeintliche Enthüllungen über durch Behörden unterdrückte Beweismittel und kam dabei ganz ohne den Input russischer oder chinesischer Trollfarmen oder KI-generierte Manipulationen aus. 

Hatespeech, Rassismus, Doxing, Frauenfeindlichkeit und die üblichen Katz- und Maus-Spiele mit Usern und Moderatoren waren immer wieder die Grundlage für Machtspiele entlang der Grenzen des Sagbaren und für die Frage, wieviel Freiheit man online gewähren kann, ohne selbst die schlagendsten Argumente für die Einschränkung dieser Freiheiten zu liefern

Der Endgegner einer noch immer andauernden Auseinandersetzung aber sollte Donald Trump sein. Der Subreddit r/The_Donald wurde zu einer der am schnellsten wachsenden Gruppen, die sehr oft die Grenzen dessen überschritt, was als sagbar gelten konnte. Bislang hat sich Reddit möglichst dagegen entschieden, solche Gruppen aufzulösen – auch, um sie im Tageslicht zu behalten. Heute sind große Plattformen bequem, aber sie sind nicht mehr notwendig. Messengerdienste und ihre Gruppenfunktionen sind passende Alternativen. Wichtig war allerdings die erste Phase der Vernetzung und der Schaffung von Sichtbarkeit.

Das knüpft am Anfang der Geschichte von Reddit und den anderen Plattformen an. In der Frühphase gehörten sie Nerds und waren Orte liberalen Experimentierens. Dort geschahen seltsame Dinge, das Internet war etwas anderes. Dort musste man „hinein“, es war nicht selbstverständlich und es war etwas neben der Gesellschaft. 

Spätestens mit Obama wurde das Neue normal. Obama war ein Zeichen dafür, dass sich das Neue möglicherweise durchsetzen könnte. Einige Huffington Post-Investoren, schreibt Ben Smith, machten ihr Investment davon abhängig, ob Obama die Wahl gewinnen würde, denn dann witterten sie Chancen. Obama hatte Facebook- und Twitter-Accounts und absolvierte einen „I am … – Ask me Anything“-Chat auf Reddit. 

Was liberale (im amerikanischen Sinn) konnten, konnte Konservative allerdings auch. Ben Smith beschreit, wie es zum Problem für BuzzFeed wurde, als Facebook erwachsen geworden war und mehr konservative Selbstbestätigung als Experimentierfreude bediente. Facebook und das Internet waren kein spezieller Teil der Gesellschaft mehr, sie bildeten ab, was die Gesellschaft beschäftigte. 

Radikalisierung mit Businessplan

Reddit erlebte das gleiche Schicksal. Jene, die vor ein paar Jahren Plattformen gern noch zensuriert hätten, erkannten nun das Potenzial zur Durchsetzung ihrer eigenen Interessen. Hat Reddit zu Trumps Wahlsieg beigetragen? Hätte es noch mehr zu dessen Popularität beigetragen, seine Anhänger von der Plattform zu verbannen?

Digitale Plattformen machen Aktivität sichtbar uns tragen zu Vernetzung bei. Das gilt für Teenies auf der Suche nach ihrem Platz in der Welt ebenso wie für Rassisten auf der Suche nach Beifall und Gruppendynamik. Damit haben sich Netzwerkplattformen von Soziallaboren über Zensurkandidaten zu den Lieblingswerkzeugen aller möglichen Extreme gemausert. Mittlerweile haben auch eigene Plattformen, in denen man noch sicherer noch schneller Gleichgesinnte findet, das Potenzial, ausreichend schnell ausreichende Größenordnungen zu erreichen. 

Plattformen selbst kämpfen nach wie vor mit Business-Zielen. Andere Geschäftsmodelle als Werbung haben sich noch nicht etabliert, und auch Werbung ist oft nicht ausreichend. Es besteht durchaus die Gefahr, dass Plattformen traditionellen Medien Einnahmen absaugen – aber dennoch nicht genug zum Leben haben. Alternative Plattformen und ihre User sind da manchmal einen Schritt voraus. Wer eine lukrative Agenda hat, hat eben mehr von Reichweite und Netzeffekten. Das zeigt sich in der Politik-Finanzierung (wenn Kirchen und konservative Stiftungen für ihre Interessen lobbyieren), und das zeigt sich im Ausbau digitaler Netzwerkplattformen. Aufklärung kann man nicht verkaufen, um Spenden kann man in funktionierenden Demokratien, die ihre Politik gut finanzieren, nicht ewig bitten, ohne an Glaubwürdigkeit zu verlieren. 

Aber man kann guten Gewissens unverschämt sein. Eine solide Datenbasis ist durchaus etwas Nettes, allerdings ist sie nur eingeschränkt effizient, wenn ihr nicht die entsprechende Produktpalette gegenübersteht. PolitikerInnen einer Partei sind ein eingeschränktes Angebot. Der aktuelle Trump-Wahlkampf macht einmal mehr vor, wie sich Reichweite und Datenfülle bezahlt machen: Wählerstimmen, Trump-Messer, Trump-Tassen, Ivermectin-Carepakete gegen Long Covid für wohlfeile hundert Dollar (ist Covid jetzt doch gefährlich?) oder Chuck Norris-zertifizierte Investment-Pakete zur Rettung des Dollars vor dem Euro und den Brics-Staaten sind nur ein paar Angebote, mit denen Kontakte aus dem ehemaligen Parler-Netzwerk versorgt werden. 

Parler selbst erzählt die gleiche Geschichte davon, dass Internet, Politik und Gesellschaft nicht mehr getrennt werden können. Parler startete als Gegenbewegung zu liberal verseuchten Netzwerken, ist aber offline, seit es sich von einer Hack-Attacke nicht mehr erholte. Der Untergang des Netzwerks war zugleich dessen stärkster Wachstumsmotor. Ein eigenes Netzwerk ist gar nicht notwendig, die Story von unfairen Attacken dagegen (und gegen die Rechten und Gerechten) ist viel effizienter. 

Ben Smith, Traffic

Das Ende des Aufstiegs von BuzzFeed war auch das Ende des Social Media-Siegeszugs. Die New York Times schreibt von Post-Social-Media – kleinen Medien-StartUps, die auf Qualität statt Masse setzen, auf Umsatz statt auf Reichweite. Jahresabos für Spezialisten-Newsletter beginnen teilweise über 1000 Dollar und mehr. Unvorstellbar für eine Zeit, in der man dachte, Traffic könne alle Probleme lösen. 

Diese Zeit beschreibt Ben Smith in „Traffic“. Smith baute den Nachrichtenbereich bei BuzzFeed auf und veröffentlichte als erster das Dossier über die angeblichen Pinkel-Orgien von Donald Trump in Moskau. Diese Veröffentlichung läutete auch das Ende der Strategie des uneingeschränkten Publizierens von allem bei BuzzFeed ein. Das Dossier verselbständigte sich und zeigte, dass Informationen auch Medien leben können. Zumindest ohne solche wie BuzzFeed, die wenig einordnen und großteils auf Hintergrund und Orientierung verzichten.

Kontrollverlagerung: Von Email-Verteilern zu Netzwerkplattformen  

Aber der Reihe nach. „Traffic“ beschreibt den Aufstieg einer neuen Generation von Onlinemedien ab den frühen Nuller Jahren, beginnend mit der damals neuen Huffington Post. Protagonist ist Jonah Peretti, Traffictreiber bei Huffington Post und Gründer von BuzzFeed, der zu Beginn des Buchs aber eine andere Entdeckung macht: Pranks, Memes und andere einfache Inhalte, die Menschen neugierig machen, unterhalten oder aufregen, können  Eigendynamik gewinnen und sich ungeahnt schnell und weit verbreiten.

Smiths Analyse dieser Entdeckungen ist eine Kulturgeschichte des Verhältnisses von Internet und Medien: In den frühen Stadien sorgten Email-Verteiler und Newsgroups für die Verbreitung von Inhalten. In einer nächsten Phase waren es Links und Backlinks. Das war die Hochphase der Blogs. Bald darauf waren Suchmaschinen, schnell allen voran Google, die wichtigsten Trafficquellen für Websites. Diese wurden von Social Networks, allen voran Facebook, abgelöst.

Mit jedem Entwicklungsschritt verlagerte sich die Kontrolle über Tempo und Ausmaß der Verbreitung weg von Sender und Publikum hin zu Zwischenhändlern. Das ist genau das Gegenteil der Entwicklung, die die Frühphase des Internet erwarten ließ. „Weg mit den Mittelsmännern“, ein lang gepflegter Kampfruf der Digitalisierung in Medien und Handel, fand seine Erfüllung nur ganz kurz. Im Zeitalter der Mailverteiler wurde das Publikum selbst zum Sender – oder eben nicht. Später übten Blogs damit Macht aus, wen sie verlinkten und wen nicht. Die Aufnahme in Blogrolls erfolgreicher Blogger war ein Ritterschlag für Newcomer. Manche Seiten bestanden überhaupt großteils nur aus kommentierten Linksammlungen, etwa der berüchtigte Drudge Report, der die Lewinsky-Affäre veröffentlichte. Frühe Suchmaschinen waren eine Goldgrube für Clickbaiter. Sie ließen sich leicht austricksen, mit Schlagwortsammlungen auf den Seiten in die Irre führen und machten neue Seiten so von den Verlinkungen der großen Blogger unabhängig. Qualitätskriterien, verbesserte und geheimere Priorisierungen, ständig neue Rankingkriterien drehten die Verhältnisse allerdings bald um. Jetzt kontrollierten Suchmaschinen, welche Art von Inhalten erfolgreich war. Als Internet-Pionier galt, wer Google verstand.

Vokuhila-Strategie

Social Media und Facebook verhießen anfangs einen Schritt zurück in die Zeit, in der das Publikum bestimmte. Groß wurden jene, über die geredet wurde, so wie in der Zeit der Mailverteiler. Durch die Sichtbarkeit der Interaktion – alle sahen, was die Freunde ihrer Freunde teilten – vervielfachten sich Reichweiten und Wachstumsgeschwindigkeiten. Facebook war so lange relevante Trafficquelle für Medien, bis Facebook den Traffic selbst auf der Plattform behalten und nicht mehr durch ausgehende Links verlieren wollte. Heute sollen User mit Inhalten interagieren – egal ob sie sie mögen oder sich ärgern, und egal was die Inhalte sind.

Mit diesen Phasen wechselten die jeweils erfolgreichsten Medien ihrer Zeit. Die ersten Phasen dominierte Drudge oder Gawker. Smith beschreibt die Gründung der Huffington Post als Versuch, Drudges Erfolg ein liberales Gegengwicht entgegenzusetzen. Lustigerweise damals mit an Bord der Huffington Post: Andrew Breitbart, späterer Gründer des Rechtsaußen-Portals breitbart.com und früherer Mitarbeiter bei Drudge. Breitbart kehrte bald zu Drudge zurück, bevor er breitbart.com aus der Taufe hob und behauptete später,  er habe bei der Post nur spioniert. 

Die Huffington Post bemühte sich um liberale aufgeklärte Politik – also um Inhalte, wie sie niemanden interessierten. Der gewünschte Traffic, um geschäftlich erfolgreich zu sein, musste von anderswo kommen. Peretti beschreibt das als mullet strategy (Vokuhila-Strategie): vorne Business, hinten Party. Listicles, Howtow, identitätsorientierte Personalitystorys brachten den eigentlichen Traffic.

BuzzFeed war eigentlich nur das Experimentierlabor nebenbei, in dem veröffentlicht wurde, was für die um Seriosität bemühte Huffington Post zu abgedreht war. Damit überflügelte BuzzFeed allerdings bald die Post. 

Die wesentlichen Entwicklungen für beide Portale kamen rund um 2005 in Gang. In Österreich haben wir damals an oe24.at gearbeitet. SEO war ein Thema, Facebook war noch sehr neu und zu persönlich, um für Medien relevant zu sein. Traffic kam von Google oder über starke Marken. Die Pläne waren groß; kurz nach dem Start, als es ums Geldverdienen ging und die Printausgabe funktionieren musste, wurden sie sehr schnell wieder sehr klein.

Die Mitarbeiter der ersten Phase bei Huffington Post und BuzzFeed gehörten zu den prägenden Figuren der Onlinemedienbranche, hatten allerdings wenig journalistische Vorerfahrung. Credo der Redaktion war, wie bei vielen späteren Neugründungen, die Idee, alles zu veröffentlichen, was relevant ist – ohne Rücksicht auf Verluste und ohne Rücksicht auf die Betroffenen. Für Gawker führte das auch bald zum Ende. Nach einigen umstrittenen Publikationen hatte das Portal auch ein privates Sextape des Wrestlers Hulk Hogan veröffentlicht. Nach einem langen Rechtsstreit wurden Strafzahlungen von 140 Millionen Dollar rechtskräftig, die Seite musste schließen. Der Prozess war von Peter Thiel finanziert worden – manche meinen, aus persönlicher Abneigung gegen Gawker-Betreiber Nick Denton und weil dieser Thiel als homosexuell geoutet und als seltsam bezeichnet haben soll.

Und man musste doch über Journalismus reden

Die Relevanz der Huffington Post nahm über die Jahre ab, übrig blieb BuzzFeed. Einige der viralsten BuzzFeed-Storys sind wohl noch allen im Gedächtnis. Ist das Kleid schwarz und blau oder gold und weiß? Wieviele Gummiringe können um eine Wassermelone gespannt werden, bis die zerplatzt? Und woher kam das Dossier zu Trumps Eskapaden in Moskau? Während die frühen Phasen von BuzzFeed noch gar nicht als Alternative zu Nachrichtenmedien geplant waren, erwachte später durchaus der Wunsch, auch News zu machen – und das veränderte das Medium, die Branche, und die Art und Weise, wie Traffic erzielt wird.

Ein erster großer Facebook-Erfolg für BuzzFeed war ein schlecht programmiertes Quiz. Hundertausende Facebook-User wunderten sich über ihre Ergebnisse – und brachten mit ihrer Interaktion Traffic. Dieser Erfolg war ähnlich weit weg von Nachrichten und Politik wie das Kleid oder die Melone. Liberale Ideale waren gar nicht Thema. Politik blieb aber nicht immer langweilig. Im Gegenteil. Mit der Zeit hatten Rechte gelernt, wie das neue Internet funktionierte, und ihnen fiel es noch leichter, auf Inhalte zu verzichten, Erregung hochzuhalten – und damit Politik machen. Spätestens mit Trump gab es dann auch jemanden, der an der Politik vorbei Politik machen und aus den neuen Erregungs- und Verbreitungsmechanismen Kapital schlagen konnte. Versuche, etwas daran zu ändern, etwa durch Enthüllungen, Skandale oder die Moskau-Leaks, halfen wenig. Sie lieferten im Gegenteil Material, neue Feindbilder aufzubauen und Verschwörungs- und Dolchstoßlegenden zu konstruieren. Die Sache lief sich tot. Und noch fataler: User langweilten sich. Aufregung brachte keinen Traffic mehr. Sie blieb auf Facebook oder wurde dort absorbiert. später schwappte sie vielleicht nich in Telegram-Gruppen über.

Vom hippen Neuland zum noch lauteren Stammtisch

Smith beschreibt diese Entwicklung als Generationenfrage. Coole Internetpioniere hatten Netzwerke, Suchmaschinen und Interaktion erfunden. Dann hatten ihre Eltern verstanden, wie das funktioniert, und ihren alten Zorn in diese Netzwerke mitgebracht. Aus Ironie, Hyperaktivität und der Suche nach dem nächsten heißen Ding war Ernst geworden. Und das Internet war nichts Neues, Außergewöhnliches, Fremdes mehr – nichts, dessen neue Regeln man lernen musste oder konnte, um dann einen Vorsprung vor anderen zu haben. Das Internet war, schreibt Smith, im Verlauf dieser zehn bis fünfzehn Jahre, zu einem Teil der Gesellschaft geworden, in dem sich abspielte, was sich auch sonst im der Gesellschaft abspielte. Im Internet waren alle – Rednecks, Stammtischbesucher und alle anderen, für die die liberalen Visionen der frühen Onlinemediengründer keinen Platz gelassen hatten.

Ein anderer Nebenstrang im Buch ist das Verhältnis von BuzzFeed und Disney oder der New York Times. BuzzFeed lehnte Übernahmeangebote im Höhe von hunderten Millionen, eine Bewertung summierte sich gar auf 1,7 Milliarden Dollar, immer wieder ab. Heute ist BuzzFeed wenig relevant, Disney ist eine der größten Nummern im Geschäft. Die New York Times war ein schüchterner Dinosaurier, der lernen wollte, und es schien, als könnte das alte Flaggschiff nie zu den coolen Leuten aufschliessen. Erst war die NYT nur alt und langsam, dann hatte BuzzFeed auch noch dazu die großen Scoops. Gerade diese brachten allerdings die Wendepunkte. BuzzFeed veröffentlichte – und überließ den Dingen ihren Lauf. Alle machten aus der Story, was sie wollten. Und alle machten auch aus ihrer Wahrnehmung von BuzzFeed, was sie wollten. Die Seite hatte kein Profil mehr – Interaktion fand auf Facebook statt, Nachrichten auf den alten Plattformen, und BuzzFeed hatte es mehr und mehr geschafft, obsolet zu werden. Heute ist BuzzFeed Vergangenheit, die New York Times ist die stärkste Medienmarke der Welt und ein Synonym für den Erfolg mit digitalen Abomodellen. 

Traffic verliert an Wert

Sind das gute oder schlechte Neuigkeiten für jemanden, der digitale Medien weiterentwickeln will? Die Zeiten der viralen Trafficwunder für Medien dürften vorbei sein. Nicht weil es weniger Traffic gäbe. Es gibt so viel Traffic überall, dass dieses ehemalige Gut immer wertloser wird. Es ist schwerer zu monetarisieren, schwerer zu behalten und zu steuern; User haben Ausweichmöglichkeiten. Umso wichtiger wird nachhaltiger Traffic von Usern, die häufiger wiederkommen, die bei einem bestimmten Medium bleiben und vielleicht sogar bereit sind, für dessen Nutzung zu zahlen. Das erfordert Content, die Ansprache passender Usergruppen, den richtigen Draht zwischen Usern und Content – und all das sind Anforderungen, für die sich noch nirgends die idealen Wege abzeichnen. Medien wie die NYT schaffen es mit Breite, andere mit Tiefe, alle die es schaffen, mit bestimmten Formen von Qualität. Kritisch beim breitenorientierten Zugang ist die potenzielle Reichweite: Welche Medien und ihre Märkte sind schon groß genug, um in all der Breite auch die relevanten Nischen bedienen zu können, die User dann wirklich schätzen und deretwegen sie auch bei diesem Medium bleiben? Kritisch beim spezialisierten tiefenorientierten Zugang ist die Frage, wie lange es noch funktionierende und ausreichend breite Netzwerke gibt, in denen sich solche Inhalte verbreiten können. Wer spezialisierte Inhalte erstellt verkauft, ist darauf angewiesen, dass es auch breitenorientierte Inhalte gibt, die Themen setzen, Aufmerksamkeit steuern und den Bedarf an tieferer Information wecken. Newsletter oder Podcasts, die vermeintlich Overhead einsparen und direkt zur Sache kommen, können nur solange funktionieren, wie andere den Overhead in Kauf nehmen und versuchen, damit Geschäft zu machen.

Wer kann überleben? 

Notwendige Zutaten für eine funktionierende zeitgemäße Medienlandschaft sind breitenwirksame Medien, die Themen setzen können und die für ihre Inhalte verantwortlich gemacht werden können. Es sind Netzwerke oder Suchmaschinen, mit denen Menschen Neues entdecken können. Es sind Spezialangebote und tiefgehende Inhalte, die fesseln, binden und User zurückbringen. Es ist ein Anspruch, etwas zu vermitteln – im Idealfall Orientierung, Aufklärung, Transparenz, Informationsfreiheit -, der in ein Markenversprechen gepackt werden kann und dazu beiträgt, dass User verstehen, warum sie dieses oder jenes Medium nutzen sollten. 

Überlebensfähig sind Medien, die in unterschiedlichen Ausprägungen von allem etwas bieten können. Die Bandbreite ist notwendig, weil immer auch alles schnell anders werden kann.  

Werner Heisenberg, Physics and Philosophy

Es ist eines der relevantesten Wissenschafts-Erklärbücher überhaupt. Schließlich wirkt Quantentheorie auch für jemanden, der gleich zwei Mal Philosophie studiert hat, wie ein Elitenrätsel esoterischer Geheimbündler – und wird leider oft auch so diskutiert und vermittelt. Heisenbergs Buch ist da ganz anders. Jeder Satz ist präzise und verständlich – und ganz nebenbei erklärt Heisenberg auch noch 2500 Jahre Philosophiegeschichte im Überblick.

Eine der zentralen Thesen für das Verständnis von Quantenmechanik: Alltagsbegriffe verlieren ihre Bedeutung, wenn sie auf Konzepte außerhalb der Alltagserfahrungen angewendet werden. Dann liefern sie keine zufriedenstellenden Erklärungen mehr. Umgekehrt sind präzise wissenschaftliche Begriffe nicht besonders gut darin, Bedeutung zu vermitteln. Sie bezeichnen etwas und machen es damit eindeutig – aber damit ist es noch nicht erklärt (das ist auch ein systemisches Problem von Definitionen. Begriffe sind nie ganz klar und werden durch Vernunft und Analyse auch nie restlos geklärt werden können. Aber manche, meint Heisenberg ganz pragmatisch, sind eben notwendig, um Wissenschaft betreiben zu können. Heisenberg kommt übrigens auf dem Umweg über Kant zu diesem Entschluss. Kants Kategorien von Raum und Zeit, in denen Erfahrung stattfinden kann, sind solche notwendigen Begriffe. Sie müssen als gesetzt angenommen werden (bei Kant heißt das a priori); der Versuch, sie restlos logisch zu klären, würde Wissenschaft unmöglich machen.

Eine weitere von Heisenbergs womöglich in den 50er Jahren noch aufregenderen Thesen: Wir sind nicht, weder als Menschen noch als Wissenschaftler, von einer zu beobachtenden und zu erkennenden Welt getrennt, wir sind Teil dieser Welt, Teil unserer Beobachtung, und unsere Beobachtung ist ein wesentlicher Prozess bei dem Vorgang, diese Welt zu erkennen.

Das heißt letztlich: Realität ist ein Ergebnis und eine Eigenschaft der Beobachtung. Sie ist weniger Eigenschaft des Beobachteten. Quantenmechanik ist eine statistische Theorie, in der Wahrscheinlichkeiten eine zentrale Rolle spielen. In diesem Licht bedeutet das: Wahrscheinlichkeiten repräsentieren einen Fakt und das Wissen über diesen Fakt.

Mit diesen Vorbedingungen werden bekannte Interpretationen der Quantenphysik um einiges leichter verdaulich. Beobachtungen und damit auch die Bedingungen eins Experiments stehen in Wechselwirkung mit Ergebnissen. Wenn wir nicht gleichzeitig genau sagen können, wo ein Teilchen ist und wohin es sich bewegt, liegt das nicht nur an Eigenschaften dieses Teilchens, sondern auch daran, dass der Raum, in dem sich das Teilchen innerhalb einer bestimmten Zeit verändert und dadurch eine Bewegung vollzieht, so wie die Zeit eine notwendige Voraussetzung der Vorstellung von Bewegung ist. Immer weitere Erkenntnisse zu neuen Erscheinungsformen von Elementarteilchen, die sich in unterschiedlichen Anwendungen weiter zerlegen, anders zusammensetzen oder neues bilden, tragen mit dazu bei.

Von diesem letzten Punkt – der Einheit von Materie – zieht Heisenberg einen langen Bogen zurück zu den frühesten Vorsokratikern. Nach ersten Konzepten über Mächte und Energien tauchten bei den Materialisten Ideen unteilbarer Elementarteilchen auf, aus denen alles zusammengestetzt werden kann. Eine Idee, die sich bis in ausgereifte moderne Atommodelle durchzog, bis immer genauere Experimente und neue Teilchenkonzepte Energie als treibende Kraft zurück ins Spiel brachte. Ist Bewegung und daraus resultierende Energie das Verbindende in Materie? – Oder werden deshalb die alten Konzepte scheinbar wieder relevant, weil das die Erklärungen sind, zu denen wir als Menschen eben immer wieder angesichts dieser Fragestellungen kommen?

Für Sozialwissenschaftler sind Heisenbergs Konzepte leichter zu nehmen als für Naturwissenschaftler oder Techniker. Der Forscher ist hier immer Teil des Systems, Methoden haben Einfluss auf Ergebnisse und Ergebnisse unterliegen Interpretationen. 

Dennoch sind manche von Heisenbergs Schlüssen auch aus dieser Perspektive überraschend. Zeitgeist, meint Heisenberg etwa, ist ein ebenso objektiver wissenschaftlicher Fakt wie andere Fakten in den Naturwissenschaften. Das klingt nach einer steilen These. Allerdings ist es nur eine konsequente Fortsetzung des Gedankens, dass Fakten vorläufige Ergebnisse komplexer Prozesse, eigentlich selbst Prozesse und in ihrer Bewertung  und Bedeutung veränderlich sind. All das trifft auch auf vage Konstrukte wie Zeitgeist zu – der allerdings ist für die Auswahl von Fragestellungen und die Interpretation von Ergebnissen immens bedeutend.

Immer wieder stellt man sich bei Heisenbergs Argumenten die Frage, was davon jetzt Analogie, Allegorie und was Beschreibung von Experimenten und Ergebnissen. Wo sind die Begriffe unscharf und wo die Teilchen?

Heisenberg beschäftigt sich mit Physik und Naturwissenschaft und lenkt gerade damit, mit dieser scheinbar neutralsten und objektivsten Art der Wissenssammlung, die sich geradewegs an nachvollziehbaren Fakten orientiert, dazu auf, sich mit den Grundlagen des Denkens, der Sprache, der Wahrnehmung, kurz: mit sich selbst zu beschäftigen. 

Physik nimmt eine subjektive Wende und stellt damit die traditionellen Grenzen zwischen Subjektivität und Objektvitiät zur Disposition. Von hier aus kann man zu esoterischen Auswüchsen starten. Heisenbergs kann aber auch als eine Art Programm zur Einordnung anderer Wissenschaften gelesen werden, die einer Neupositionierung bedürfen, um vom Fleck zu kommen. Data Science etwa gilt den einen als Königsweg zur besseren, mathematisch faktengestützten Entscheidung, anderen als durch Bias verdorbene Reproduktion herrschender Verhältnisse, denn Algorithmen reproduzieren nur, womit sie gefüttert werden.

Auch hier hilft die Perspektivenverschiebung, die sich von der Trennung von Beobachter und Beobachtetem loslöst und den Beobachter als Teil des Systems begreift. Datenorientierte Fragestellungen und Antworten müssen im Licht von Zwecken und Zielen betrachtet werden, um sinnvolle Antworten geben zu können.

Ähnliches gilt für die Beschäftigung mit KI. Ehrfürchtige oder panische Beschwörungen gegenüber einer irgendwo dort draußen zu findenden KI sind Verkürzungen, die das Problem, das sie angeblich beschreiben, erst schaffen. Diskussionen zur Regulierung, Beschränkung oder Nutzung von KI, die deren Prozesse nicht in ihren Einzelteilen betrachten und behandeln können, produzieren leere Begriffswelten, die mehr über die Geisteswelt ihres Produzenten aussagen als über ihr angebliches Objekt.

Heisenbergs Text ist ein Aufruf, sich mit Unklarheiten zu beschäftigen. Unübersichtliche Stellen in der Wissenschaft sind oft nicht nur eine Frage des Fortschritts, sie werden nicht mit fortschreitender Erkenntnis oder verbesserten Werkzeugen verschwinden. Sie begleiten Forschende manchmal seit über 2500 Jahren, egal ob Vorsokratiker in den Himmel sagen oder Physiker der Gegenwart auf den Teilchenbeschleuniger.

Diese Unübersichtlichkeiten sind oft Teil und Ergebnis von Sprache, Versuchsanordnung, Welterklärungskonzepten, manche werden reduziert oder durch andere ersetzt, manche bleiben erhalten. Und diese Unübersichtlichkeiten stellen nicht das infrage, was wir so weit gesichert wissen, als es funktioniert. Denn was funktioniert, ist aus einer pragmatischen Perspektive grundsätzlich einmal richtig.

Auch das ist eine wichtige Funktion, die die Rumpelkammer der Wissenschaft erfüllt: Dort können Unübersichtlichkeiten und Anomalien gelagert werden, ohne andere Bereiche, für die sie weniger relevant sind, zu stören. Sie können jederzeit hervorgeholt werden, wenn es sinnvoll erscheint. Aber jede Fragestellung, jede Aufgabe hat ihre Sprache und ihre angemessenen Methoden, wie Heisenberg schreibt. Und keine davon schließt die anderen aus – außer vielleicht für diesen einen konkreten Zweck.

AI und Medien: Zurück in die Zukunft der kleinen LLMs

Der Tech-Manager des großen Medienhauses war zufrieden. Er hatte den unmotivierten Teilzeit-Redakteur des lieblos gewarteten Society-Portals durch eine KI ersetzt – und nichts hatte sich verändert. Die schlechten Nutzungszahlen der belanglosen Storys blieben schlecht. „Ich sehe das als Erfolg“, sagte er. „Wir haben eine Redaktion für Künstliche Intelligenz ersetzt und die Nutzungszahlen sind die gleichen – als ob echte Redakteure an den Tastaturen sitzen würden.“

Der Mann arbeitet nicht mehr in der Medienbranche und ist aktuell wieder bei einem IT-Unternehmen, das uninspirierte Prozesssoftware vermarktet.

Über Journalismus und generative AI wird seit Monaten viel geredet. Wer das Generative an AI für den relevantesten Punkt in der gemeinsamen Zukunft von Medien und AI sieht, sollte jedenfalls keine Zukunft im Journalismus anstreben. In der AI-Branche vermutlich auch nicht.

Journalisten sind Menschen, die leicht und gerne formulieren. Ein Textgenerator ist ihnen keine Erleichterung. Es ist die Kernkompetenz von Journalisten, in Texten und Sachverhalten Neues, Ungewohntes und Relevantes zu entdecken und in Worte zu fassen. Als Schreibkonkurrent wird AI im Journalismus wenig erfolgreich sein. Was nicht bedeutet, dass schreibende AI nicht sehr viel dazu beitragen könnte, die Medienbranche weiter an den Rand des Abgrunds zu drängen. 

Mangelnde Präzision und Effizienz bei großen LLMs

Populäre generative AI beruht auf sehr großen Large Language Models. Diese kennen das Internet und mehr – und dementsprechend kreativ sind oft auch ihre Ideen. Gerade im Journalismus, wo präzise Formulierungen und klarer Umgang mit Information relevant sind, ist das ein Problem. Eine Intelligenz, die fabuliert wie der Betrunkene kurz vor der Sperrstunde in seiner Bar, ist dabei wenig hilfreich. Für den Großteil journalistischer Anwendungen wäre ein Bruchteil des Trainingsmaterials, der in LLMs steckt, ausreichend.

Das ist eine Entwicklung, die sich überall dort abzeichnet, wo sich Medienprofis mit technischem Verständnis sinnvoll mit AI-Anwendungen beschäftigt haben. Diese Beschäftigung macht die Nachteile von sehr großen LLMs offenbar. Sie eignen sich gut für Partytricks – aber sie schweifen ab. Halluzinationen sind das eine Problem. Noch unangenehmer ist die mangelnde Reproduzierbarkeit von Ergebnissen bei großen LLMs. Noch einmal unangenehmer wird dieses Problem mit der mangelnden Transparenz vieler Modelle. Die Folge: Endlich hat man einen sinnvollen Prompt, der im Testdurchlauf auf mit großen und schwierigen Datensätzen die richtigen Ergebnisse bringt – und beim nächsten Durchlauf ist alles anders. Railguards wie verpflichtende Erklärungen der Entscheidung nützen hier auch wenig. Fabulierfreudige AIs können jede ihrer Entscheidungen erklären und wirken dabei überzeugend. Der ultimative Prompt, der alle Optionen abfängt, ist etwa so weit weg wie das ultimative statistische Modell, dass ohne jede Wahrscheinlichkeitsschwankung rechnen kann, weil es schlicht alles berücksichtigt.

Ein weiteres Problem sind Zeit und Kosten. Beim spielerischen Austesten ist es ganz süß, wenn sich die KI mit einem Problem nachdenklich zurückzieht, um dann von einer Lösung zu erzählen. In der Praxis ist das oft ein KO-Kriterium für effiziente Prozesse. Ein paar Sekunden Verzögerung stellen Workflows in Frage: Soll das Ergebnis abgewartet werden, um eventuell kurze Qualitätsprüfungen durchzuführen? Soll der Prozess sofort weiterlaufen, ungeachtet des Risikos, dass eventuell gar kein Ergebnis oder ein unpassendes zurückgeliefert wurde? Im besten Fall entstehen so unkontrollierte Artefakte, deren Sinnhaftigkeit nachträglich nur aufwendig überprüft werden kann. Im schlechtesten Fall werden Prozesse ausgebremst, Redakteure können nicht weiterarbeiten oder müssen sich nach dem Arbeitsrhythmus der KI richten statt nach ihrem eigenen. Zusätzlich entstehen durch Abfragen in großen Modellen höhere Kosten, unabhängig davon, ob die Größe des Modells für die Antwortfindung überhaupt nützlich ist.

Chance für Risikosteuerung und Transparenz

Das sind nur einige Beispiele, warum gerade viele Medienhäuser mehr und mehr Abstand davon nehmen, allgemeine Multi-Purpose-LLMs zu verwenden. Stattdessen gehen sie wieder zu kleineren, eigenen und kontrollierten Modellen über. Vielschichtige KI wird eher wieder zu einfachen Machine Learning-Anwendungen reduziert. Das ist effizienter, günstiger und kontrollierbarer.

Und das ist auch eine Chance für Risikoabschätzung und Kontrolle rund um AI. Viele Medienunternehmen, viele Plattformen überarbeiten jetzt ihre KI-Projekte der ersten und zweiten Stunde. Umfassende Gesetzgebungsanstrengungen wie der EU AI Act, die auf Risikoklassifizierung setzen, können jetzt mit Transparenzanforderungen punkten und Dokumentationspflichten durchsetzen. Statt auf inhaltliche Kontrolle von Netzwerken und Plattformen zu setzen, können Transparenz und Model Risk Management als effizientere Regulierungsansätze durchgesetzt werden. Und statt Unsinnigkeiten wie Klarnamenpflicht oder KI-Kennzeichnungspflicht zu fordern, können mit technischer Transparenz Problemlösungen tatsächlich vorbereitet werden.

Für Unternehmen ist das auf jeden Fall das Gebot der Stunde. Kostenreduktion, Effizienz, Kontrollierbarkeit sind zentrale Themen für die nächste Welle von sinnvollen KI-Projekten nach ersten euphorischen Testrunden. Diese Chance kommt allerdings mit zwei Bedingungen: Erstens sind konkrete Erfahrungen und technisches Knowhow notwendig. Wir binden nicht mehr einfach Open AI ein, wir arbeiten mit konkreteren Modellen oder erstellen unsere eigenen. Zweitens müssen wir es ernst meinen. Ein paar Tests hier, ein paar zusammengestoppelte Abrufe da – das ist nicht mehr ausreichend. Wer seinen KI-Einsatz kontrollieren und damit zu nachvollziehbaren, wiederholbaren und verlässlichen Ergebnissen kommen will, muss eben auch Geld in die Hand nahmen und Personal freigeben. Solche KI-Initiativen funktionieren nicht mehr nur als Bottom Up-Ansätze. KI kann man ebenso wenig delegieren wie andere Digitalisierungs-Initiativen.