Werner Heisenberg, Physics and Philosophy

Es ist eines der relevantesten Wissenschafts-Erklärbücher überhaupt. Schließlich wirkt Quantentheorie auch für jemanden, der gleich zwei Mal Philosophie studiert hat, wie ein Elitenrätsel esoterischer Geheimbündler – und wird leider oft auch so diskutiert und vermittelt. Heisenbergs Buch ist da ganz anders. Jeder Satz ist präzise und verständlich – und ganz nebenbei erklärt Heisenberg auch noch 2500 Jahre Philosophiegeschichte im Überblick. 

Eine der zentralen Thesen für das Verständnis von Quantenmechanik: Alltagsbegriffe verlieren ihre Bedeutung, wenn sie auf Konzepte außerhalb der Alltagserfahrungen angewendet werden. Dann liefern sie keine zufriedenstellenden Erklärungen mehr. Umgekehrt sind präzise wissenschaftliche Begriffe nicht besonders gut darin, Bedeutung zu vermitteln. Sie bezeichnen etwas und machen es damit eindeutig – aber damit ist es noch nicht erklärt (das ist auch ein systemisches Problem von Definitionen. Begriffe sind nie ganz klar und werden durch Vernunft und Analyse auch nie restlos geklärt werden können. Aber manche, meint Heisenberg ganz pragmatisch, sind eben notwendig, um Wissenschaft betreiben zu können. Heisenberg kommt übrigens auf dem Umweg über Kant zu diesem Entschluss. Kants Kategorien von Raum und Zeit, in denen Erfahrung stattfinden kann, sind solche notwendigen Begriffe. Sie müssen als gesetzt angenommen werden (bei Kant heißt das a priori); der Versuch, sie restlos logisch zu klären, würde Wissenschaft unmöglich machen. 

Eine weitere von Heisenbergs womöglich in den 50er Jahren noch aufregenderen Thesen: Wir sind nicht, weder als Menschen noch als Wissenschaftler, von einer zu beobachtenden und zu erkennenden Welt getrennt, wir sind Teil dieser Welt, Teil unserer Beobachtung, und unsere Beobachtung ist ein wesentlicher Prozess bei dem Vorgang, diese Welt zu erkennen. 

Das heißt letztlich: Realität ist ein Ergebnis und eine Eigenschaft der Beobachtung. Sie ist weniger Eigenschaft des Beobachteten. Quantenmechanik ist eine statistische Theorie, in der Wahrscheinlichkeiten eine zentrale Rolle spielen. In diesem Licht bedeutet das: Wahrscheinlichkeiten repräsentieren einen Fakt und das Wissen über diesen Fakt.

Mit diesen Vorbedingungen werden bekannte Interpretationen der Quantenphysik um einiges leichter verdaulich. Beobachtungen und damit auch die Bedingungen eins Experiments stehen in Wechselwirkung mit Ergebnissen. Wenn wir nicht gleichzeitig genau sagen können, wo ein Teilchen ist und wohin es sich bewegt, liegt das nicht nur an Eigenschaften dieses Teilchens, sondern auch daran, dass der Raum, in dem sich das Teilchen innerhalb einer bestimmten Zeit verändert und dadurch eine Bewegung vollzieht, so wie die Zeit eine notwendige Voraussetzung der Vorstellung von Bewegung ist. Immer weitere Erkenntnisse zu neuen Erscheinungsformen von Elementarteilchen, die sich in unterschiedlichen Anwendungen weiter zerlegen, anders zusammensetzen oder neues bilden, tragen mit dazu bei.

Von diesem letzten Punkt – der Einheit von Materie – zieht Heisenberg einen langen Bogen zurück zu den frühesten Vorsokratikern. Nach ersten Konzepten über Mächte und Energien tauchten bei den Materialisten Ideen unteilbarer Elementarteilchen auf, aus denen alles zusammengestetzt werden kann. Eine Idee, die sich bis in ausgereifte moderne Atommodelle durchzog, bis immer genauere Experimente und neue Teilchenkonzepte Energie als treibende Kraft zurück ins Spiel brachte. Ist Bewegung und daraus resultierende Energie das Verbindende in Materie? – Oder werden deshalb die alten Konzepte scheinbar wieder relevant, weil das die Erklärungen sind, zu denen wir als Menschen eben immer wieder angesichts dieser Fragestellungen kommen? 

Für Sozialwissenschaftler sind Heisenbergs Konzepte leichter zu nehmen als für Naturwissenschaftler oder Techniker. Der Forscher ist hier immer Teil des Systems, Methoden haben Einfluss auf Ergebnisse und Ergebnisse unterliegen Interpretationen. 

Dennoch sind manche von Heisenbergs Schlüssen auch aus dieser Perspektive überraschend. Zeitgeist, meint Heisenberg etwa, ist ein ebenso objektiver wissenschaftlicher Fakt wie andere Fakten in den Naturwissenschaften. Das klingt nach einer steilen These. Allerdings ist es nur eine konsequente Fortsetzung des Gedankens, dass Fakten vorläufige Ergebnisse komplexer Prozesse, eigentlich selbst Prozesse und in ihrer Bewertung  und Bedeutung veränderlich sind. All das trifft auch auf vage Konstrukte wie Zeitgeist zu – der allerdings ist für die Auswahl von Fragestellungen und die Interpretation von Ergebnissen immens bedeutend. 

Immer wieder stellt man sich bei Heisenbergs Argumenten die Frage, was davon jetzt Analogie, Allegorie und was Beschreibung von Experimenten und Ergebnissen. Wo sind die Begriffe unscharf und wo die Teilchen? 

Heisenberg beschäftigt sich mit Physik und Naturwissenschaft und lenkt gerade damit, mit dieser scheinbar neutralsten und objektivsten Art der Wissenssammlung, die sich geradewegs an nachvollziehbaren Fakten orientiert, dazu auf, sich mit den Grundlagen des Denkens, der Sprache, der Wahrnehmung, kurz: mit sich selbst zu beschäftigen. 

Physik nimmt eine subjektive Wende und stellt damit die traditionellen Grenzen zwischen Subjektivität und Objektvitiät zur Disposition. Von hier aus kann man zu esoterischen Auswüchsen starten. Heisenbergs kann aber auch als eine Art Programm zur Einordnung anderer Wissenschaften gelesen werden, die einer Neupositionierung bedürfen, um vom Fleck zu kommen. Data Science etwa gilt den einen als Königsweg zur besseren, mathematisch faktengestützten Entscheidung, anderen als durch Bias verdorbene Reproduktion herrschender Verhältnisse, denn Algorithmen reproduzieren nur, womit sie gefüttert werden.

Auch hier hilft die Perspektivenverschiebung, die sich von der Trennung von Beobachter und Beobachtetem loslöst und den Beobachter als Teil des Systems begreift. Datenorientierte Fragestellungen und Antworten müssen im Licht von Zwecken und Zielen betrachtet werden, um sinnvolle Antworten geben zu können.

Ähnliches gilt für die Beschäftigung mit KI. Ehrfürchtige oder panische Beschwörungen gegenüber einer irgendwo dort draußen zu findenden KI sind Verkürzungen, die das Problem, das sie angeblich beschreiben, erst schaffen. Diskussionen zur Regulierung, Beschränkung oder Nutzung von KI, die deren Prozesse nicht in ihren Einzelteilen betrachten und behandeln können, produzieren leere Begriffswelten, die mehr über die Geisteswelt ihres Produzenten aussagen als über ihr angebliches Objekt.  

Heisenbergs Text ist ein Aufruf, sich mit Unklarheiten zu beschäftigen. Unübersichtliche Stellen in der Wissenschaft sind oft nicht nur eine Frage des Fortschritts, sie werden nicht mit fortschreitender Erkenntnis oder verbesserten Werkzeugen verschwinden. Sie begleiten Forschende manchmal seit über 2500 Jahren, egal ob Vorsokratiker in den Himmel sagen oder Physiker der Gegenwart auf den Teilchenbeschleuniger.

Diese Unübersichtlichkeiten sind oft Teil und Ergebnis von Sprache, Versuchsanordnung, Welterklärungskonzepten, manche werden reduziert oder durch andere ersetzt, manche bleiben erhalten. Und diese Unübersichtlichkeiten stellen nicht das infrage, was wir so weit gesichert wissen, als es funktioniert. Denn was funktioniert, ist aus einer pragmatischen Perspektive grundsätzlich einmal richtig.

Auch das ist eine wichtige Funktion, die die Rumpelkammer der Wissenschaft erfüllt: Dort können Unübersichtlichkeiten und Anomalien gelagert werden, ohne andere Bereiche, für die sie weniger relevant sind, zu stören. Sie können jederzeit hervorgeholt werden, wenn es sinnvoll erscheint. Aber jede Fragestellung, jede Aufgabe hat ihre Sprache und ihre angemessenen Methoden, wie Heisenberg schreibt. Und keine davon schließt die anderen aus – außer vielleicht für diesen einen konkreten Zweck.

AI und Medien: Zurück in die Zukunft der kleinen LLMs

Der Tech-Manager des großen Medienhauses war zufrieden. Er hatte den unmotivierten Teilzeit-Redakteur des lieblos gewarteten Society-Portals durch eine KI ersetzt – und nichts hatte sich verändert. Die schlechten Nutzungszahlen der belanglosen Storys blieben schlecht. „Ich sehe das als Erfolg“, sagte er. „Wir haben eine Redaktion für Künstliche Intelligenz ersetzt und die Nutzungszahlen sind die gleichen – als ob echte Redakteure an den Tastaturen sitzen würden.“ 

Der Mann arbeitet nicht mehr in der Medienbranche und ist aktuell wieder bei einem IT-Unternehmen, das uninspirierte Prozesssoftware vermarktet. 

Über Journalismus und generative AI wird seit Monaten viel geredet. Wer das Generative an AI für den relevantesten Punkt in der gemeinsamen Zukunft von Medien und AI sieht, sollte jedenfalls keine Zukunft im Journalismus anstreben. In der AI-Branche vermutlich auch nicht. 

Journalisten sind Menschen, die leicht und gerne formulieren. Ein Textgenerator ist ihnen keine Erleichterung. Es ist die Kernkompetenz von Journalisten, in Texten und Sachverhalten Neues, Ungewohntes und Relevantes zu entdecken und in Worte zu fassen. Als Schreibkonkurrent wird AI im Journalismus wenig erfolgreich sein. Was nicht bedeutet, dass schreibende AI nicht sehr viel dazu beitragen könnte, die Medienbranche weiter an den Rand des Abgrunds zu drängen. 

Mangelnde Präzision und Effizienz bei großen LLMs

Populäre generative AI beruht auf sehr großen Large Language Models. Diese kennen das Internet und mehr – und dementsprechend kreativ sind oft auch ihre Ideen. Gerade im Journalismus, wo präzise Formulierungen und klarer Umgang mit Information relevant sind, ist das ein Problem. Eine Intelligenz, die fabuliert wie der Betrunkene kurz vor der Sperrstunde in seiner Bar, ist dabei wenig hilfreich. Für den Großteil journalistischer Anwendungen wäre ein Bruchteil des Trainingsmaterials, der in LLMs steckt, ausreichend. 

Das ist eine Entwicklung, die sich überall dort abzeichnet, wo sich Medienprofis mit technischem Verständnis sinnvoll mit AI-Anwendungen beschäftigt haben. Diese Beschäftigung macht die Nachteile von sehr großen LLMs offenbar. Sie eignen sich gut für Partytricks – aber sie schweifen ab. Halluzinationen sind das eine Problem. Noch unangenehmer ist die mangelnde Reproduzierbarkeit von Ergebnissen bei großen LLMs. Noch einmal unangenehmer wird dieses Problem mit der mangelnden Transparenz vieler Modelle. Die Folge: Endlich hat man einen sinnvollen Prompt, der im Testdurchlauf auf mit großen und schwierigen Datensätzen die richtigen Ergebnisse bringt – und beim nächsten Durchlauf ist alles anders. Railguards wie verpflichtende Erklärungen der Entscheidung nützen hier auch wenig. Fabulierfreudige AIs können jede ihrer Entscheidungen erklären und wirken dabei überzeugend. Der ultimative Prompt, der alle Optionen abfängt, ist etwa so weit weg wie das ultimative statistische Modell, dass ohne jede Wahrscheinlichkeitsschwankung rechnen kann, weil es schlicht alles berücksichtigt. 

Ein weiteres Problem sind Zeit und Kosten. Beim spielerischen Austesten ist es ganz süß, wenn sich die KI mit einem Problem nachdenklich zurückzieht, um dann von einer Lösung zu erzählen. In der Praxis ist das oft ein KO-Kriterium für effiziente Prozesse. Ein paar Sekunden Verzögerung stellen Workflows in Frage: Soll das Ergebnis abgewartet werden, um eventuell kurze Qualitätsprüfungen durchzuführen? Soll der Prozess sofort weiterlaufen, ungeachtet des Risikos, dass eventuell gar kein Ergebnis oder ein unpassendes zurückgeliefert wurde? Im besten Fall entstehen so unkontrollierte Artefakte, deren Sinnhaftigkeit nachträglich nur aufwendig überprüft werden kann. Im schlechtesten Fall werden Prozesse ausgebremst, Redakteure können nicht weiterarbeiten oder müssen sich nach dem Arbeitsrhythmus der KI richten statt nach ihrem eigenen. Zusätzlich entstehen durch Abfragen in großen Modellen höhere Kosten, unabhängig davon, ob die Größe des Modells für die Antwortfindung überhaupt nützlich ist. 

Chance für Risikosteuerung und Transparenz

Das sind nur einige Beispiele, warum gerade viele Medienhäuser mehr und mehr Abstand davon nehmen, allgemeine Multi-Purpose-LLMs zu verwenden. Stattdessen gehen sie wieder zu kleineren, eigenen und kontrollierten Modellen über. Vielschichtige KI wird eher wieder zu einfachen Machine Learning-Anwendungen reduziert. Das ist effizienter, günstiger und kontrollierbarer. 

Und das ist auch eine Chance für Risikoabschätzung und Kontrolle rund um AI. Viele Medienunternehmen, viele Plattformen überarbeiten jetzt ihre KI-Projekte der ersten und zweiten Stunde. Umfassende Gesetzgebungsanstrengungen wie der EU AI Act, die auf Risikoklassifizierung setzen, können jetzt mit Transparenzanforderungen punkten und Dokumentationspflichten durchsetzen. Statt auf inhaltliche Kontrolle von Netzwerken und Plattformen zu setzen, können Transparenz und Model Risk Management als effizientere Regulierungsansätze durchgesetzt werden. Und statt Unsinnigkeiten wie Klarnamenpflicht oder KI-Kennzeichnungspflicht zu fordern, können mit technischer Transparenz Problemlösungen tatsächlich vorbereitet werden

Für Unternehmen ist das auf jeden Fall das Gebot der Stunde. Kostenreduktion, Effizienz, Kontrollierbarkeit sind zentrale Themen für die nächste Welle von sinnvollen KI-Projekten nach ersten euphorischen Testrunden. Diese Chance kommt allerdings mit zwei Bedingungen: Erstens sind konkrete Erfahrungen und technisches Knowhow notwendig. Wir binden nicht mehr einfach Open AI ein, wir arbeiten mit konkreteren Modellen oder erstellen unsere eigenen. Zweitens müssen wir es ernst meinen. Ein paar Tests hier, ein paar zusammengestoppelte Abrufe da – das ist nicht mehr ausreichend. Wer seinen KI-Einsatz kontrollieren und damit zu nachvollziehbaren, wiederholbaren und verlässlichen Ergebnissen kommen will, muss eben auch Geld in die Hand nahmen und Personal freigeben. Solche KI-Initiativen funktionieren nicht mehr nur als Bottom Up-Ansätze. KI kann man ebenso wenig delegieren wie andere Digitalisierungs-Initiativen.

Ein A****bombencontest ist auch ein Verdrängungswettbewerb

Der ORF gibt ein Gutachten über die Auswirkungen seiner Digitalpräsenz auf andere Medien in Auftrag. Die Autoren des Gutachtens verlaufen sich. Ihre Kernaussage ist: „Wir wissen es auch nicht.“ Der ORF feiert.

Was ist passiert? Seit zwei Jahren muss sich der ORF vermehrt der Frage stellen, wie sehr das öffentlich finanzierte Medium alle anderen Medien auf dem kleinen Markt Österreich dank seiner öffentlich gut gefüllten Taschen kommerziell an die Wand spielt. Umso mehr, seit dank Haushaltsgabe und ORF-Gesetz noch mehr Geld in die Kassen des Medienriesen gespielt wird und dem ORF noch mehr Möglichkeiten online offenstehen. Andere Medien sehen sich währenddessen multiplen Krisen ausgesetzt und experimentieren mit der Monetarisierung von Digitalinhalten – eine Herausforderung, der sich der öffentlich rechtliche Riese nie stellen musste. 

Trotzdem meint man, hier mitreden zu müssen. ORF-Vertreter richten anderen Medien gern aus, niemand hindere sie daran, so erfolgreich zu sein wie sie selbst. Jedes Medium hätte die gleichen Reichweiten und ähnliche Marktpositionen erzielen können (da ist anzumerken: Nein. Wer sich mit Monetarisierung beschäftigen musste, konnte sich nicht vollends auf Reichweite konzentrieren. Und umgekehrt). Dazu kommt: Auch in der ÖWA (Österreichichische Web Analyse) ist der ORF nicht zuletzt deshalb aus Platz 1, weil er meint, dass für öffentlich rechtliche Angebote andere Zählregeln gelten. Eine umstrittene Einstellung, die in absehbarer Zeit zum Ausschluss von orf.at führen kann.  

Um die vermeintliche Digital-Vormachtstellung zu untermauern, ließ man eben jetzt ein Gutachten erstellen. Eine erste, vor einem Jahr erstellte Umfrage, die hätte untermauern sollen, wie sehr User den ORF gegenüber anderen Medien bevorzugten, wurde nie veröffentlicht. Der sehr einfache Grund: User bevorzugten den ORF im Internet nicht aus inhaltlichen oder qualitätsorientierten Gründen gegenüber anderen Medien. Sein vorrangiger USP war schlicht: Er kostetet nichts. Wobei auch das falsch ist. Korrekt muss es heißen: Der ORF im Internet kostet nichts zusätzlich zu dem, was sie ohnehin an ORF-Gebühren zahlen müssen.

Deshalb jetzt eben Wissenschaft. 

Allerdings auch hier bleibt das einzig eindeutige Ergebnis: Nachrichtenkonsumenten sind in erster Linie preissensibel. Für über 60% der LeserInnen und Leser ist es das ausschlaggebende Argument, dass eine Nachrichtenseite nichts kostet. 

Das ist nun tatsächlich ein großer Verdienst, den sich öffentlich rechtliche, Corporate Newsrooms, Social Networks und auch ratlose Digitalnachrichtenseiten teilen können

Der Rest des Gutachtens ist recht spekulativ auf wackligen Stelzen unterwegs. Viele Annahmen und Voraussetzungen stimmen nicht: Weitaus mehr Seiten (als die Autoren annehmen) setzen auf Digitalabos. Digitalabos enthalten anderes als online verfügbar gemachte Zeitungsinhalte. Digitalmedien als ganzes konkurrieren nicht mit einer einzelnen Seite des ORF (der sogenannten Blauen Seite), sondern mit dem ganzen ORF Online-Universum von Sport über Lokalnachrichten bis zu Wetter und Kulturmagazinen. Die in der ÖAK (Österreichische Auflagenkontrolle) veröffentlichten Paid Content-Zahlen verhalten sich zu echten Digitalabozahlen so wie FTE-Kennzahlen zu Menschen – abgesehen davon, dass viele große Verlage nach wie vor ihre Digitalzahlen nicht an die ÖAK melden.

Für Weltnachrichten (die es vermeintlich überall gibt – solange es sie gibt) nutzen immer weniger Menschen Nachrichtenseiten von Medienhäusern, das ist richtig. Umso mehr sind Medienhäuser zusätzlich auf Diversifizierung und Spezialisierung angewiesen. Umso dynamischer ist der Markt. User reagieren sensibel auf Veränderungen, aber langsam. 

Die Gutachter interpretieren ihre Arbeit so, dass eine eventuelle Einstellung der Blauen Seite kaum Auswirkung auf den Digitalabo-Absatz anderer Medien hätte. Die gleichen Zahlen des gleichen Gutachtens können auch so interpretiert werden, dass eine umfassende Einschränkung des ORF im Internet zu einer Vervielfachung des Digitalabo-Marktes führen würde. 

Solche wackeligen Konstrukte sind wenig hilfreich. Schade, dass sich ORF-MacherInnen hinter so dünner Spekulation verstecken statt sich mit ihrer Rolle im Medienmarkt zu beschäftigen. 

Mustafa Suleyman, The Coming Wave

Es wird wild, meint Mustafa Suleyman. Das breitet er auf 300 Seiten aus und das ist in Summe dann schon ein wenig enttäuschend. Die Erwartungshaltung – jemand weiß so viel über AI und synthetische Biologie, dass er einen 300seitigen Bestseller darüber schreiben kann – ist deutlich zu spezifisch. Suleyman schreibt über alle möglichen Innovations- und Disruptionsthemen und streift seine eigentlichen Kernthemen jeweils an den Kapitelenden. 

Seine zwei Kernthesen dabei: 

  • Containment, also die Begrenzung und Kontrolle von Technologie, ist nicht möglich
  • Containment ist lebensnotwendig

Das sind natürlich Widersprüche, mit denen Suleyman in der Folge immer wieder spielt. Technologie ist als unaufhaltsame Welle beschrieben, die über die Zivilisation hereinbricht und alles verändert. Das ist eine deterministische Perspektive, die Menschen wenig Spielraum lässt. Technologie treibt und entscheidet und verändert. Mensch und Gesellschaft sind passive Objekte dieser Veränderungen. – Dass Menschen Technologie entwickeln, Gesellschaften Technologien nützen und verändern, um Probleme zu lösen, das sind wechselseitige Abhängigkeiten, die Deterministen noch nie Kopfschmerzen bereitet haben. Determinismus braucht Schwarzweiß-Kontraste. 

Natürlich ist Suleyman, Co-Founder von DeepMind, dem Entwickler von AlphaGo, kein Technologie-Gegner. In Kombination mit Biologie und DNA-Synthetisierungsmaßnahmen eröffnen KI und verbesserte Rechenleistung neue Möglichkeiten, die erstens ungeahnte Veränderungen mit sich bringen und zweitens jedem offenstehen. Das birgt ungeheures Potenzial. Fraglich ist allerdings, ob Menschen damit umgehen können. Und diese Frage stellt sich nicht nur in Hinblick auf die Konsequenzen potenzieller überwältigender Entwicklungen, sondern auch in Hinblick auf die produktive Nutzung. KI kann viele Probleme lösen, Rechenleistung kann viele Probleme lösen, in Verbindung mit synthetischer Biologie können sich diese Möglichkeiten potenzieren und zu Verbesserungen oder zur absoluten Katastrophe führen. KI kann Medikamentierung finetunen oder bei der Entdeckung der tödlichsten Bio-Kampfstoffe helfen. Für die Technik macht das wenig Unterschied; die notwendigen Geräte, meint Suleyman, kann sich bald jeder leisten und in Küche oder Garage unterbringen. 

Warum tut sich auf diesen Gebieten dann noch nicht mehr? Möglicherweise liegt das auch daran, dass KI und Technologie zwar viele Probleme lösen können, viele Menschen aber weder vor noch nach der Problemlösung wissen, dass es diese Probleme gibt. Noch weniger wissen sie, was man mit ihrer Lösung anfangen kann oder welche Bedrohung dahintersteckt. Cyberrisiken bleiben abstrakt, mit Ki manipulierte DNA noch viel mehr. 

Diese Kluft zwischen Potenzial, Realität und Erwartung bremst das Buch öfters aus. Die Wiederholung von Superlativen ermüdet, es gibt eben keine Steigerung mehr zur Vielzahl finaler Krisen, ultimativer Fehler und überwältigender Veränderungen (von denen überdies – Druckerpresse, Dampfmaschine, Internet – doch einige schon in den letzten mehreren hundert Jahren in Gang gesetzt wurden), die den Leser abstumpfen, noch bevor das letzte Drittel des Buchs erreicht ist. 

Zu dieser Kluft passt auch, dass eine der letzten großen Cyberattacken, die FBI und andere Geheimdienste aus aller Welt auf den Plan rief und die größten Streaming- und Social Network-Plattformen für längere Zeit lahmgelegt hatte, dann doch nicht das Meisterwerk einer bösartigen Strategie, sondern das Produkt gelangweilter Teenies und ihrer zwielichtigen Marketingideen war.

Weil Containment aber trotz allem notwendig ist, kommt Suleyman dann doch auf den Punkt. Technologie kann nicht mit Vorschriften und inhaltlichen Regulierungen beschränkt werden. Wer Technologie in den Griff bekommen will, muss sich mit Technologie und ihrer Natur beschäftigen, statt alte Kontrollidee auszugraben.

Technischen Problemen muss mit technischen Lösungen begegnet werden, dafür ist technisches Verständnis notwendig. Suleymans Regeln, die Chancen auf Containment gefährlicher Technologien erhalten sollen, gehen über das Beschwören von Gefahren, das Äußern kulturpessimistischer Positionen oder die Aufrufe zu politischem Handeln hinaus. Wer sich sinnvoll mit Technologie beschäftigen will, muss lernen, damit umzugehen, muss die grundlegenden Funktionsweisen verstehen und muss sich die Hände schmutzig machen. 

Reflektierende Positionen sind wichtig, die Chance auf Lösungen lebt aber in Erfahrung, Anwendungen, selbstgeschriebenen Codezeilen und eigenen Experimenten. Daraus können Lösungen und Perspektiven entwickelt werden. Der Rest der Beiträge in Technologiedebatten sind hehre Prinzipien aus heißer Luft. 

Damit kommt Suleyman letztlich doch zu erstaunlich konkreten Punkten – leider erst auf den letzten zwanzig Seiten seines Buchs. Es ist zu wünschen, dass viele der Prediger, Visionäre und Feuilletontechnologen auch so weit kommen. Und dann auch in Betracht ziehen, diese Empfehlungen ernstzunehmen. 

Es wäre wünschenswert. 

Der Stand aktueller Diskussionen rund um Klarnamenpflicht, KIRegulierungen oder Daten und Machine Learning lässt anderes befürchten. Das ist schade. Denn Entwicklung wird dort möglich, wo Augenmerk auf scheinbar Selbstverständlichkeiten gelegt wird, wo Blackboxen geöffnet werden und normalerweise Unhinterfragtes im Detail analysiert wird. Damit wächst die Chance, Dinge in den Griff zu bekommen. Durch den Wettlauf um möglichst spitze Takes und aufrüttelnde Schreckensvisionen sinkt sie eher. Das ist eines der zentralen Argumente, die man aus Sulyemans Buch mitnehmen kann. 

Klarnamenbeschwörer und andere Distinktionsspießer

Sie treten in Wellen auf und kehren immer wieder, als wären sie in einem langsamen aber unaufhaltsamen Strudel der Gezeiten gefangen, der sie in unregelmäßigen Intervallen immer wieder an Land spült: Klarnamenbeschwörer, empörte Cancel Culture-Diagnosten und Diskursschönheitstrauerredner sind, ohne es sehen zu wollen, Alter Egos der gleichen Kulturkritikschablonen.

Anonymität zerstört den Diskurs, unqualifizierter Widerspruch zerstört den Diskus, Formmängel zerstören den Diskurs.

Hinter diesen Einwänden steckt, das Adrian Daub in seinen Cancel Culture-Forschungen herausgearbeitet, oft der bloße Unwille, sich damit auseinanderzusetzen, dass da jemand mitredet, für den kein Platz am Tisch vorgesehen war. Oft ist es ehrliche – aber trotzdem ungerechtfertigte – Empörung darüber, dass jemand Gehör bekommt, den man gern ingoriert hätte. Sie widersprechen? Cancel Culture! Sie haben lustige Nicknames? Klarnamenpflicht! Sie verstoßen gehen unsere Rituale? Diskurszerstörer!

Die Klarnamenpflichttforderer fordern oft auch inhaltliche Regulierung von Social Network-Plattformen und Beichtpflicht für die Verwendung von KI. Das ist alles nachvollziehbar. Es ist nicht einmal falsch. Allein, es ist müßige Beschäftigungstherapie. Es ist das Dreschen von Phrasen und frommen Wünschen, die teils eine bald 300 Jahre zurückreichende Geschichte haben. In diesen 300 Jahren hätte den Beschwörern auch mal dämmern können, dass jene Lösungen, die man seit 300 Jahren beschwört, vielleicht keine Lösungen sind? Sonst hätten sie viellleicht etwas gelöst?

Aber Diagnosen allein sind auch ein liebgewonnenes Spiel. Es sind liebgewonnene und gut eingeübte Rituale, die man nicht einfach durch von der Tradition abweichende Fragestellungen über Bord werfen darf.

So trat heute in Österreich der Digitalstaatssekretär, der eben erst mit seiner KI-Behörde die Digitalzukunft des Landes gesichert hatte, vor die Presse und verkündete Klarnamenpflicht ohne Konzept, um Wirtshäuser vor ungerechten Bewertungen zu schützen. Und prompt packten bewährte Klarnamenbeschwörer und angehende KI-Dompteure ihre Essays aus den vergangenen Jahrzehnten aus. Nachdem sie gestern von totaler Disruption und alles verändernden Tsunamis gepredigt haben, wollen sie heute weiter Probleme mit schlechten Ideen von vorgestern lösen. Danke.

Henry Kissinger, Eric Schmidt: The Age of AI

Viel mehr an Flughöhe geht nicht für einen Text. Das ist aber auch nicht zu erwarten, wenn Henry Kissinger und Eric Schmidt, ehemaliger Google CEO, gemeinsam an einem Text zu KI arbeiten. Da werden schnell mal die letzten 2500 Jahre Geistesgeschichte gestreift und dann noch die Kriege der Zukunft verhandelt, um einem Thema wie dem KI-Zeitalter gerecht zu werden

Der Bogen in die Vergangenheit stellt AI in den Kontext von Theorien über Wahrnehmung und Erkenntnis. In Kurzfassung: Platons Ideen blieben unerkennbar, der Wahrnehmung sind nur Phänomene zugänglich. Hume macht auf den Unterschied zwischen Wiederholung und Kausalität aufmerksam: Nur weil Dinge öfter in der gleichen Reihenfolge geschehen, ist das noch lange kein Hinweis auf kausale Zusammenhänge zwischen diesen Ereignissen. Kant schob das Ding an sich in den Bereich des Unerkennbaren und legte die Kategorien des Verstandes als Möglichkeiten und zugleich Grenzen des von diesem Verstand Erkennbaren fest. Heisenberg schließlich postulierte, dass der Weg eines Teilchens überhaupt erst dadurch entsteht, dass wir ihn beobachten und als solchen beschreiben. 

Kurzfassung: Da sind eine ganze Menge am Komplikationen im Spiel, die auch die fortgeschrittensten Erkenntnistheorien nicht zu lösen vermochten. Komplexere und raffiniertere Instrumente und Versuchsanordnungen haben erst dazu angesetzt, ein wenig mehr Klarheit zu schaffen, letztlich aber noch mehr Unschärfen offenbar gemacht. 

Ist KI jetzt ein neues Instrument, mit dem wir Dinge erkennen können, die uns zuvor nicht zugänglich waren? Das ist möglich. Schafft KI noch mehr von diesen Unschärfen, mit denen wir zwar etwas erkennen, aber nicht verstehen, warum wir es erkennen? Das ist wahrscheinlich. Komplexe und oft schlecht dokumentierte oder geheim gehaltene Machine Learning Modelle funktionieren, aber der Wert der durch sie gewonnenen Erkenntnis ist fragwürdig – sobald man über die unmittelbare Auflösung zuvor formulierter Problemstellungen hinausgehen möchte. Das Problem ist gelöst, man darf aber nicht hinterfragen, wie und warum. Maschinen als Kandidaten von Turing-Tests sind so gesehen Vorreiter des Behaviorismus: Denn zur Disposition steht nur ihr sicht- und messbares Verhalten, nicht ihr innerer Mechanismus. Gemessen wird bei Turing-Tests nicht, ob eine Maschine mit einem Menschen mithalten kann, sondern ob der Mensch sich von der Maschine täuschen lässt. Das sind grundverschiedene Fragen.

In Bezug auf sinnvolle Positionen zu KI ist es sehr wichtig, den Unterschied zwischen diesen Fragestellungen verstehen zu können. 

Künstliche Intelligenz ist vor allem effizient. Sie prüft Alternativen schneller als Menschen und kommt auch in der Evaluierung der Folgen einzelner Entscheidungen schneller voran. Dabei ist der vorgegebene Rahmen relevant: Welches Problem soll KI lösen? Noch relevanter ist aber die Einschätzung der Umgebung, in der KI arbeitet: Welcher Stellenwert wird den Ergebnissen einer KI zugestanden? Wie weit ist diese Frage noch relevant oder wie weit wurde sie durch Prozesse bereits übergangen, das heißt wie umfassend ist eine KI an weitere Anwendungen angebunden, die ihr nicht nur algorithmische Entscheidungen, sondern auch so etwas wie Handlungen erlauben? Das ist der Punkt, an dem aus gewöhnlicher KI allgemeine KI oder AGI wird – Artificial General Intelligence. AGI bleibt nicht auf auf einem Bildschirm angezeigte Ergebnisse beschränkt, sie kann darüber hinaus Prozesse in Gang setzen und über Systemgrenzen hinweg Handlungen anstoßen. KI beschreibt, wie etwas gemacht werden könnte, AGI setzt das gleich um. – Noch ist AGI eine Vision.  

Weil KI vor allem effizient ist, ist die Frage, wie KI lernen soll, weniger drängend als die Frage, was KI lernen soll. Das Wie ist seit langem in Gang gesetzt, das Was kann noch gesteuert werden. Aus philosophischer Perspektive sind Wie und Was aber durchaus Begriffe, die ineinander übergehen können. Am Beispiel des KI-Trainings: Menschen können entscheiden, in welche Themengebiete sich KI einarbeitet (das ist das Was), im Detail eröffnet sich damit aber noch sehr viel Spielraum beim Wie des Lernens: supervised machine learning arbeitet Vorgaben ab und versucht Dinge nachzuvollziehen. Beispiele sind etwa klassische Sortieraufgaben. Unsupervised machine learning schlägt selbständig gefundene Muster vor, es bleibt allerdings dem Anwender – oder den weiteren Rechenschritten – vorbehalten, ob diese Muster als nützlich empfunden werden. Reinforcement learning schließlich integriert dieses Anwenderfeedback direkter in den Lernprozess. Zwischenstufen im Prozess nehmen Information darüber auf, ob ein Lernergebnis erwünscht ist oder nicht. Praktische Anwendungen dafür sind etwa Ethikregeln im machine learning: Modelle können schnell Strategien entwickeln, Probleme auf unethische oder illegale Weise zu lösen, Reinforcement greift ein und lässt solche Lösungen nicht als Lösungen gelten. Das ist ein Beispiel dafür, wie Was und Wie ineinandergreifen. Die Methode des Lernens, das Wie, beeinflusst auch das Was, indem auch bei vorerst weniger ethisch relevanten Fragestellungen ethische Dimensionen eine Rolle spielen. 

Abstraktes machine learning wird so zu einer pragmatischen Angelegenheit, in der Kompromisse eine Rolle spielen. KI entdeckt nichts, KI schafft nichts Neues, KI arbeitet Regeln ab und geht manchmal trotzdem undurchsichtige Wege. Das sind mitunter gefährliche Momente, das sind Punkte, an denen man hartnäckig bleiben und versuchen müsste, zu entschlüsseln, was genau passiert ist. 

Das stellt allerdings vor zwei Probleme: Zum einen arbeitet KI so schnell so viele Möglichkeiten ab, dass das Nachvollziehen solcher Prozesse menschliche Möglichkeiten übersteigt. Ein Beispiel dafür sind die zur Genüge nacherzählten Lerneffekte von Deep Mind beim Go-Spielen, als plötzlich neue Spielzüge im Raum standen. Zum anderen sind auch menschliche Erkenntnis und rationale Systeme nicht immer so rational und transparent, wie wir es für uns beanspruchen. Viele Wissenschaftstheorien, viele Welterklärungssysteme sind rund um dunkle Flecken gebaut, die sich mit diesen Systemen selbst nicht ausreichend erklären lassen. Vielleicht ist diese Gemeinsamkeit der intelligenteste und menschlichste Aspekt von KI. 

Es kann aber ebenso der unangenehmste Aspekt sein. Am Beispiel von KI-gesteuerten Waffensystemen erklären Kissinger und Schmidt, dass es ebendiese dunklen Flecken sind, die den Umgang mit KI besonders riskant machen können. KI in Waffensystemen weiß mehr, hat mehr Informationen verarbeitet und Entscheidungen abgewogen, als Menschen es je können. Und KI taktiert nicht, hat keine Gewissensbisse und kennt keine psychologischen Spiele. Ob das ein Vorteil oder Nachteil für ihr Gegenüber ist – egal ob von menschlicher oder künstlicher Intelligenz – muss offen bleiben, betonen Schmidt und Kissinger. Auch das bedeutet letztlich: Der Umgang mit KI ist eine pragmatische Angelegenheit, in der man sich schrittweise vorantasten muss. In manchen Fällen geht das leichter, in anderen, wie dem Kriegsbeispiel, ist das riskanter. 

Der Umgang mit KI ist für Kissinger und Schmidt ein derart breites Feld, dass sie KI als ein großes Paradigma des Welterfassens betrachten. KI steht für sie auf einer Stufe mit Glauben – einige Jahrhunderte war Glaube der vorherrschende Weg der Welterklärung, Welterklärungen mussten im Einklang mit Religionen sein – und Vernunft. Vernunft als dominierender Zugang zur Welt weckt die Erwartung, alles müsste erklärbar und begründbar sein. Eine Hoffnung, die sich gerade in den letzten Jahrzehnten auch als Täuschung erwiesen hat. Nicht etwa, weil sich Esoterik und Übernatürliches durchgesetzt hätten, sondern weil Physik und Logik bei Unschärfen, Unentscheidbarkeiten und Wahrscheinlichkeiten gelandet sind. 

Es bleibt also offen, was dieses neue Prinzip des Weltzugangs über KI bedeutet wird. 

Generell geben Kissinger und Schmidt weniger Antworten. Ihr Anliegen ist es eher, die Dimension aktueller Fragestellungen erkennbar zu machen. Dem kann man entgegenhalten, dass das mitunter wenig ist. Man kann auch infrage stellen, ob KI als Instrument zwischen uns und der Welt einen so viel größeren Unterschied machen wird als Mikroskope, Teleskope oder Film und Fotografie. Auch das sind Techniken, die die ehemaligen Grenzen des Wahrnehmbaren gesprengt haben. Eine andere Art skeptischer Fragen ist bei all den Anleihen an Druckerpresse und Dampfmaschine, ob wir tatsächlich von diesen Innovationen der Vergangenheit aus in die Zukunft rechnen wollen. Und wo, wenn das möglich wäre, die bahnbrechende Disruption von KI angesiedelt wäre? Was hat man sich bei der Erfindung des Rades gedacht, bei der Instrumentalisierung des Feuers? Oder waren auch diese Ereignisse möglicherweise keine Ereignisse, sondern schleichende Entwicklungen, aus denen nachträglich einschneidende Wendepunkte herausdestilliert wurden? (Zur Frage, wann ein Ereignis ein Ereignis ist, hat Žižek eines seiner wenigen präzisen Argumente entwickelt). 

All das führt zu einigen wenigen jedenfalls festzuhaltenden Punkten: Mit KI muss man arbeiten. KI muss man anwenden, einsetzen, testen. Man kann sie natürlich auch verweigern oder ignorieren. Aber KI ist kein Ereignis, dass sich mit eigenem Antrieb über die Welt verbreiten wird. KI wird sich verbreiten, aber jemand wird diese Verbreitung mitgestalten. Dem können wir uns ausliefern – wenn wir uns gern mit halluzinogenem Determinismus, Visionen und Dystopien beschäftigen. Oder wir können selbst mitgestalten – wenn wir uns mit einem pragmatischen Zugang anfreunden können. Und damit, dass Ergebnisse offen bleiben. Wir werden nicht die großen Weichen stellen. Die findet vielleicht später jemand. 

Die Lust an der KI-Angst

Es wird ein Wahlkampfjahr. Man merkt das unter anderem daran, wie viele neue Glücksritter sich als Experten und künftige KandidatInnen zu platzieren versuchen. Es wird ein EU-Wahlkampfjahr – das verschärft die Situation insofern, als Glücksritter aller Arten herausgefordert sind, sich Themen zu widmen, denen sie nicht gewachsen sind. das wäre nicht schlimm – vielen auf europäischer oder internationaler Ebene zu verhandelnden Themen ist niemand allein gewachsen. Schlimm wird es aber dann, wenn Menschen in ihren Ambitionen so tun, als wären sie diesen Themen gewachsen und simple Handlungen, man kann es nicht Lösungen nennen, für komplexe Themen vorschlagen. Noch schlimmer ist das nur, wenn die handelnden Personen sich für differenziert, weitsichtig, populismuskritisch und zukunftsorientiert halten. 

Technologie und Politik sind eine Glatteiskombination, auf der man nur schwer ein gutes Bild abgeben kann. Alle reden über Technologie, wenige haben Expertise oder Erfahrung. Technologie ist relevant, prägt viele Lebensbereiche und wird damit für alle zum Themen. Social, Data, KI – die Trendthemen der letzten Jahre haben einander überholt, bevor noch irgendwas ansatzweise geregelt gewesen wäre. 

Der EU AI Act ist zwar fixiert, aber noch immer recht ungreifbar. Und in seiner gezielt technikfernen Risikoklassifikation sehr abstrakt, abstrakter als ein technikorientierter Spezialistenzugang sein könnte. 

Der Digital Services Act (DSA) ist ein greifbareres Thema. Der DSA soll auf internationaler Ebene diverse Schattenseiten von Internet und Onlinemedien regeln und unter anderem vor Mobbing und Desinformation schützen. 

Und damit sind wir beim Thema. Geht es um Wahlen, geht es um Demokratie, geht es um das Gute – dann geht es um den Ruf nach Verboten und Regulierung. 

Es steht außer Frage, dass digitale Plattformen und Social Networks Probleme verursachen. Aber es ist eine bestürzende Themenverfehlung nach inhaltlicher Regulierung zu rufen und die Anwendung von Mediengesetzen, wie sie für Zeitungen, Onlinemedien oder Fernsehsender gelten, zu fordern. 

Plattformen und Netzwerke erstellen keine Inhalte. Inhalte sind ihnen egal. Es würde nichts an der zugrundeliegenden Problematik ändern, wenn bestimmte Inhalte – sofern es dafür jemals eine sinnstiftende Klassifikation geben würde – entfernt würden. Manche Menschen könnten vielleicht, mit dem Gefühl, etwas erreicht zu haben, besser und selbstzufriedener schlafen. Aber es ist eine Diskussion, wie wir sie in Wien schon Ende der 90er Jahre geführt haben – etwas als Helene Partik-Pablé, damals FPÖ-Politikerin und Staatsanwältin, Hausdurchsuchungen bei einem Provider durchführte, weil jemand im Internet verbotene Bilder aus dem Internet über die Server des Providers angesehen hatte. Technik hat seither Lichtjahre an Entwicklungssprüngen zurückgelegt. Die Qualität technologiepolitischer Debatten eher nicht. 

Manche Inhalte sind gefährlich und bedrohlich. Aber können sie moderiert werden, zumal wenn sie in Sprachen verhandelt werden, von denen die betroffenen Konzerne nicht einmal wussten, dass es sie gibt?

Überdies: Gesetze gelten. Probleme liegen in ihrer Anwendung, und darin, dass sie den Kern des Problems nicht treffen.

Es ist erschreckend, wie schnell Menschen nach Einschränkungen und Verboten rufen, ohne sich bewusst zu sein, dass sie damit Infrastrukturen fordern, die im Handumdrehen gegen selbst gerichtet werden können. Verbot von Verschlüsselungssoftware? Her mit dem gläsernen Menschen. Einschränkungen beim Einsatz von KI-Methoden? Dann rekonstruiert in Handarbeit, was andere automatisiert gefälscht haben. Kennzeichnungspflicht für technische Manipulationen? Muss dann auch angegeben werden, welcher Instagram-Filter verwendet wurde, welche Bildbearbeitungsapp, deren Namen man gar nicht mehr weiß? Oder welche Brennweite bei Fotos verwendet wurde? Weitwinkelobjektive machen schließlich große Nasen. 

Sinnvollere und härtere Regulierungen als Inhaltskontrolle sollten an Transparenz ansetzen. Der Schatz und das Geheimnis von Plattformen und Social Networks sind nicht Inhalte und Redaktionen, es sind Daten, Machine Learning Modelle und andere Algorithmen. Jede Verpflichtung zur Transparenz auf dieser Ebene bietet viel mehr Möglichkeiten zum Risikomanagement als jeder Eingriff in Inhalte. Model Risk Management im Machine Learning ist ein sich etablierendes Feld – Modelle können daraufhin geprüft werden, welchen Schaden sie in welchem Umfeld anrichten können und wie sie zu bändigen sind. Intransparente Modelle funktionieren nach einiger Zeit nur noch als bloße Verstärker, die mehr vom gleichen hervorbringen, ohne verständlich zu sein – das macht es schwer, ihren Lauf zu verändern oder Regeln für sie zu etablieren. 

Genau das sind aber sinnvolle Möglichkeiten. 

Ein Beispiel: Die meisten Plattform-Modelle zielen darauf ab, Menschen länger online zu halten, indem ihnen Dinge gezeigt werden, die sie binden – egal was es ist. Man klickt oder wischt weiter und hat nach wenigen Minuten keinen Überblick mehr, wo man ist, wie man dorthin kam, wer gerade spricht und wie diese Information einzuschätzen ist. Intransparente Modelle machen hier einfach weiter. Transparente Modelle können angehalten werden, nach x dem Modell folgenden Inhalten das Muster zu brechen und etwa passende Hinweise anzuzeigen – oder Inhalte aus Medien, die Public Value Content produzieren. 

Datentransparenz ist eine andere mögliche Regelung, die in Ansätzen auch bereits im EU Data Act angesprochen wird. Eine ausführlichere und tiefergreifende Idee dazu stellen Thomas Ramge und Viktor Mayer Schönberger in „Das Digital“ vor. Datenintensive Unternehmen könnten zu Datentransparenz verpflichtet werden – oder auch Teile ihrer Abgaben in Form von Daten leisten. In vielen Punkten sehen Ramge und Mayer-Schönberger in Daten zu aktive und mächtige Akteure, als Regulierungsansatz taugt diese Idee aber allemal. 

Transparenz ist die wichtigste verletzliche Stelle von Tech-Konzernen. Einen weiteren Hinweis dafür liefert Open AI: Die vermeintlich Guten, die als transparente Alternative zu kommerziellen Problembären gestartet sind, verweigerten unlängst die Veröffentlichung versprochener Dokumente. Erstaunlicherweise sind es jetzt sogar chinesiche AI-Entwickler, die auf Transparenz setzen. Die chinesische 01.AI soll Metas Llama übertreffen – und setzt außerdem dazu an, vielleicht auch den Boden für Transparenz in China zu bereiten. Denn um besser zu werden, braucht das Modell mehr Information, so wie sie etwa in Open Data zu finden wären. 

Alles Ansätze dazu, problematische Technologie zu verändern. Der Ruf nach inhaltlicher Regulierung wird demgegenüber genau wie das, was er ist: Eine Idee von vor 30 Jahren, die damals schon eine wenig erfolgreiche jahrhundertealte Geschichte hatte. 

Eva Menasse, Alles und nichts sagen

Oje, was ist denn da passiert? Eine Digitalasketin konnte dann doch der Versuchung nicht widerstehen, über etwas zu schreiben, mit dem sie sich bekennenderweise nicht beschäftigt: das Internet. Eva Menasse versteigt sich zu einer Digitalkulturkritik und schreibt dabei aus der Position der sehr weit entfernten Beobachterin. Was ein anthropologisch oder ethnologisch reizvoller Zugang hätte werden können, wird sehr schnell zu einer Orgie klischeehafter Platitüden, die mit schlechten Beispielen und zweifelhaften Argumenten gestützt werden. 

Ein paar Beispiele: Menasse beschwört einen Rausch der Information durch grenzenlos Verbindungen in Social Networks herauf, in denen jeder mit allen sofort verbunden und mit aus tausenden Kilometern Entfernung hereinströmenden Reizen ausgesetzt ist. Diese Erwartung hatten frühe UserInnen vor 15 Jahren bei ihren ersten Schritten auf Facebook. Heute sehen sie dort statt interessanter Nachrichten von Korrespondenzfreunden aus Neuseeland oder Botswana die aktuellen Angebote von Gertis Strickstube in Simmering, auf Instagram dagegen exerzieren Influencer die gleichen Trends vor oder Coaches und Lebensberater verkaufen Schulungsprogramme. 

Menasse beklagt den spontanen Zorn und die Konsequenzen unbedachter Zuspitzungen und persönlicher Untergriffe. Offenbar, ohne sich bewusst zu sein, wie viel strategisch konsequente Aufbauarbeit in der Etablierung einer funktionierenden Trollpersönlichkeit steckt. Das unterstützt sie mit der Suggestivbehauptung, wir alle hätten wohl, als wir noch Briefe schrieben, mehr fertig geschriebene Briefe zerrissen oder sonst wie vernichtet, als sie abzuschicken. – Hat wer? 

Sie führt sogar Gil Ofarims gerichtlich festgestellte Lügen über seine angebliche antisemitische Diskriminierung als Indiz für das Problem rasanter Verbreitung ungeprüfter Informationen ins Feld. Hier waren nicht die Medien und ihr Tempo das Problem. Hier verbreitete jemand mit seinem eigenen Gesicht und Namen hartnäckig und konsequent falsche Informationen mit sich selbst als Zeugen und führte Medien aller Arten (und lange Zeit auch Ermittler und Gerichte) an der Nase herum.

Atmosphärisch kann man vielen von Menasses Ausführungen zustimmen. Aber viele sind mit wenig Sorgfalt argumentiert. Und oft geht die Diagnose auch deutlich an ihrem Objekt vorbei. Menasse beklagt etwa rechte Radikalisierung als Digitalphänomen, das durch Tempo und Distanz angeheizt wurde. Gefährliche rechte Radikalisierung ist allerdings kein Internetding. Die findet real und im geheimen statt. Natürlich sorgen Telegram Channels für die passende Begleitmusik und für das notwendige Characterdesign der handelnden Personen. Aber es wäre schön, wenn Radikalisierung ein Netzphänomen wäre. Das trifft allerdings eher auf die Gegenbewegung zu: Kritik an Rechtsextremen und Solidarisierung mit Betroffenen sind eine fröhliche Netzbeschäftigung, deren Ausübende gerne Pose über Handlung stellen. Das war erst in den letzten Tagen wieder zu beobachten, als so manche solidarisch Empörte sich empörten, von dieser oder jener Politikerin kein solidarisches Statement zu den „Demos gegen Rechts“ gelesen zu haben – worauf die Betroffenen den digitalen Beleg nachreichen mussten, dass sie ganz banal analog ohnehin vor Ort waren. Wenn es nicht im Netz ist, ist es nicht passiert. – Dieser Grundsatz gilt, außer für jene, die stattdessen lieber unbeachtet real agieren. 

Menasses Kritik ist intellektuelle Kulturkritik an von traditioneller Kultur abweichenden Medien und Kulturtechniken, die man vor hundert Jahren über da Kino, vor siebzig Jahren über das Fernsehen und vor fünfzehn Jahren über das Internet hätte schreiben können. Heute ist sie nicht unbedingt falsch. Aber berührend altmodisch, wenig relevant, und als Diagnose beschreibt sie eher Internet-Wahrnehmung und Stimmungslage in Feuilleton und Gesellschaftsseiten als digitale Entwicklungen. Das letzte Drittel des Texts widmet sich einer Antisemitismus-Diskussion, in der Digitales keine Rolle mehr spielt und beim Lesen völlig in Vergessenheit gerät, welche Punkte die Autorin in den ersten beiden Dritteln des Texts machen wollte.