Blättern in Paralleluniversen

Sie begegnen den Neugierigen öfters auf Twitter, man hört von dem einen oder andere Affront, im eigenen Alltag sind sie aber völlig irrelevant: Neokonservative Blätter wie Pragmaticus oder Weltwoche tragen die intellektuelle Nase hoch. Aber was ist dran? Neulich in der Bahnhofsbuchhandlung bin ich meiner Neugierde erlegen. Ich musste mal in die Horte der Cancel Culture-Kritik schnuppern. 

Es sind ja alles kluge Leute. Es verwundert allerdings, wenn in Leitartikeln wiederholt betont wird, wo die Wahrheit zu finden sei. Nämlich genau hier. Im Pragmaticus schreiben Expertinnen „unverfälscht“, erklärt Andreas Schnauder. Und die Weltwoche tritt gar an, um die „Wogen des Wahnsinns“ in der Welt zu glätten, lässt uns Roger Köppel wissen. Das ist interessant. Beide verschreiben sich also der Agitation. Insbesondere der Pragmaticus, der ExpertInnen den Vorrang gegenüber JournalistInnen einräumt, verabschiedet sich damit von der Idee der analysierenden Berichterstattung. Da schreiben Think Tank-Mitarbeiter über Gaza oder über Zinsen und bringen damit natürlich eine Agenda ins Blatt, ein Pro, das großzügig auf sein Kontra verzichtet. Man kann das machen, das ist nicht unseriös, reine Pro-Kontra-Gegenüberstellungen sind ebenso vorhersehbar langweilig und reden öfter aneinander vorbei als miteinander – aber man sollte es nicht Journalismus nennen. Wer sich mit solchen Texten, die etwa so vorhersehbar spannend sind wie ein Fernsehabend mit Schlagerrevue (gibts sowas noch?), unterhalten möchte, kann das gerne tun. Viele schätzen ja die Vorhersehbarkeit.

Manchmal verwundern aber kognitive Dissonanzen. Die aktuelle Pragmaticus-Ausgabe etwa stellt sich dem Thema Verbote. Da werden Freiheitsbilder heraufbeschworen, da sind Essverbote in öffentlichen Verkehrsmitteln Akte der Knechtschaft. Gestern im Zug neben mit hat eine Gruppe Schüler übelriechende panierte Klumpen von KFC aus großen Eimern gefuttert, Helden des Freiheitskampfes also, denen man dereinst Denkmäler setzen wird. Da wird das Hinwegsetzen über Verbote von jenen gefordert, die zugleich auf Integration pochen. Mit dem 911er mit 200 Sachen über die Autobahn brettern ist ok, bei der Hochzeitsparty mit der Schreckschusspistole in die Luft ballern ist Zeichen mittelalterlicher Rückständigkeit. Gehört verboten.

Da beanspruchen „Kulturphilosophen“, das „gesamte Panorama“ westlicher Geisteshaltungen über die Jahrhunderte im Blick zu haben und beklagen eine schleichende Moralisierung – klar, vor ein paar Jahrhunderten gaben das nicht, da haben wir alles kühl und rational durchdiskutiert mit Feuer und Schwert.

Coronaverbote waren schlimme Eingriffe in die Freiheitsrechte und nur mal ein Vorgeschmack auf die heraufdräuenden Klimaverbote. Klimawandel kann übrigens nicht ganz so schlimm sein: Schließlich haben Eisbären auch die Eem-Warmzeit von 130.000 Jahren überlebt, lernen wir auch in dieser Ausgabe.

Am deutlichsten abgelehnt werden einer Umfrage im Heft zufolge im übrigen Verbote beim Autofahren, egal ob Tempolimits oder Verbrenner-Aus, gefolgt von Drogen- und Alkoholverboten. Wenn der moderne Freiheitskämpfer also seinen KFC-Kübel im Zug aufgegessen hat, raucht er einen Ofen und fährt betrunken Auto.

Immer noch besser, als kognitiv invasivem Nudging zum Opfer zu fallen. Auch davon lernen wir im Pragmaticus. 69% befragter Menschen fühlen sich übrigens von Medien bevormundet; diese wollten Meinungen durchsetzen oder aufzwingen. Bevormundend, btw, finde ich die „Conclusio“-Boxen am Ende des Artikels, die noch einmal zusammenfassen, was man jetzt wirklich aus dieser Story mitnehmen soll – um Menschen vor dem anstrengenden Missverständnis zu bewahren, eigene Schlüsse zu ziehen. In den Headlines der Conclusio-Boxen steht auch was von „Fakten“. Dazu muss man sagen: Fakten vertragen sich nicht mit dem häufig dort verwendeten Konjunktiv. „Fakten“ im Konjunktiv sind Hypothesen. Das ist auch nichts schlechtes. Aber doch etwas deutlich anderes.

Und die Weltwoche? Wenn Roger Köppel nicht gerade Wogen des Wahnsinns in der Welt glättet (wenn das im übrigen kein bevormundendes investives Nudging ist …) ist er offenbar sehr fleißig. Eine ganze Reihe von Storys und Interviews in diesem Heft sind von ihm selbst. Dazu kommen noch einige Essays und Kolumnen von Russland-Verstehern, Analysten im wilden Infight mit Strohmännern, Vernunftapologeten, auf die, blättern man einmal um, Interviews mit Wirtschaftsastrologen folgen, die Markenhoroskope erstellen, und, Achtung, auch Tom Kummer führt hier wieder Interviews. (Für die Nachgeborenen: Kummer war der Interview-Star der späten 90er Jahre, dem Hollywood und der Rest der Welt intimste Geheimnisse für das Magazin der Süddeutschen verrieten. Nur hatten viele dieser Interviews nie stattgefunden. Kummer verschwand für einige Jahre. Chefredakteur des SZ-Magazins war damals, dann nicht mehr, Ulf Poschardt.)

Weltwoche-Kolumnisten befleißigen sich gern einer ausufernd adjektivüberladenen Sprache und liefern Takes, zu denen Menschen außerhalb ihres Gedankenuniversums erst mal nachrecherchierten müssen. Teilweise, weil ich noch nie von der Sache gehört habe, teilweise, weil die vertretene Perspektive so schräg ist, dass sie dazu herausfordert, sich neue Fakten zu verschaffen. So wird etwa Serbien als technologisches und soziales Fortschrittsland des Balkan beschrieben. Hatte ich so noch nicht gehört. Ein andere Kolumnist freut sich über eine ganze Schulklasse ohne Handys, „und alle verstanden Schweizerdeutsch“. Und es wird gefeiert, dass das kritische Buch der Autorin Michèle Binswanger über die von einem Kollegen missbrauchte Politikerin Jolanda Spiess-Hegglin erscheinen konnte. Binswanger wurde vor einigen Monaten erst wegen der Verleumdung von Spiess-Hegglin verurteilt; zwischen der Weltwoche und Spiess-Hegglin gab es ebenfalls einige Rechtsstreitigkeiten.

Und auf all dieses Durcheinander folgt ein schöner Kultur- und Rezensionsteil, den ich ohne die Zeitung davor vielleicht sogar öfter lesen würde.

Beide Magazine beklagen immer wieder Welten ohne Halt und sie versuchen, diese aufzuhalten. Beim Pragmaticus ist hypostasierte Vernunft wie aus dem Cancel Culture-Kritik-Lehrbuch das Gegenmittel der Wahl. Köppel beklagt überhaupt öfters ein beerdigtes Christentum.

Es ist schön und manchmal beneidenswert, wenn man sich mit solchen Retrospektiven beschäftigen kann. Es ist verständlich, dass Nostalgie ihr Publikum findet. Es ist auch erschreckend, dass sich diese Spielart von Medien weniger Zukunftssorgen machen muss als andere Formate.

Sowohl der Pragmaticus als auch die Weltwoche erfüllen die Funktion, LeserInnen einen sicheren Hafen zu bieten. Sie ordnen ein, urteilen, verurteilen – auch und gerade wenn sie beanspruchen, das Gegenteil zu tun. Sie bieten erwartbare Meinungen in überschaubarer Zahl. Es ist eine Art intellektueller Boulevard, der weit ausholt und dann doch immer wieder bei den gleichen Erwartbarkeiten landet.

William Macaskill: What we owe to the future

Longtermism hat viel Keulen- und Bullshit-Potenzial. Keulen-Potenzial, weil sich mit Verweis auf Diverses, das sich in Zukunft noch ereignen möge, vieles erschlagen lässt. Bullshit-Potenzial, weil auch einfache Kriterien wie Schlüssigkeit und Konsistenz, mit denen sich Argumente üblicherweise befestigen lassen, im Schatten von Millionen kommender Jahre, in denen sie vielleicht einmal relevant werden, zu zähem Brei zerfließen. 

Ich habe Schwierigkeiten mit William Macaskills „What we owe to the future“. Dabei sind seine zentralen Argumente durchaus eingängig. Wenn nicht grob etwas schiefgeht, werden in Zukunft noch unfassbar viel mehr Menschen auf unserem Planeten leben, als bisher gelebt haben. Das sollte verdeutlichen, dass die Zukunft wichtiger ist als unsere Vergangenheit, jedenfalls aber als unsere eigene Lebenszeit. Und weil unsere Handlungen Einfluss auf die Lebensqualität der unfassbar vielen Menschen haben, die noch leben werden, sind wir mit unseren Handlungen also für das Wohlergehen unfassbar vieler Menschen verantwortlich. Das gilt für jede Handlung und für sehr lange Zeit. 

Entwicklungen vollziehen sich nicht zwangsläufig und nicht von selbst. Macaskill wendet sich aber nicht gegen Formen von technologischem oder anderem Determinismus, er lässt nur kein Schicksal gelten. Das ist eine schwache Erklärung. Denn historische Entwicklungen nehmen ihren Lauf  und werden von diversen Abhängigkeiten und Entscheidungen beeinflusst – weshalb jede unserer Handlungen eben so wichtig sei. Das ist nun nicht von der Hand zu weisen, aber hilft das bei Entscheidungen? Selbst wenn wir klare Vorstellungen davon hätten, wie das Leben von Menschen in zehn, tausend oder einer Million Jahren besser wäre – wie können wir eine Linie von unseren Entscheidungen zu dieser Verbesserung ziehen? Und selbst wenn wie das für unsere Entscheidungen können, wie können wir das für die hunderttausenden Entscheidungen, die in dieser Sache noch getroffen werden, während wir dann gar nicht mehr da sind? Ist die einzige Sicherheit, eben alle folgenden Generationen auch zu Longtermisten zu erziehen? 

Macaskill skizziert unterschiedliche Frameworks, nach denen eigene Handlungen beurteilt werden können oder mit denen Kausalitäten und Verantwortungen nachgezogen werden können. Die Flughöhe ist dabei sehr hoch und man muss schon Freude an Visionen, Spekulationen und dem Gewicht der eigenen Rolle dabei haben, um darin Sinn oder Nutzen zu erkennen. 

Es verwundert nicht, dass Longtermism unterschiedliche Ausprägungen und Apologeten findet. 

Eine Richtung setzt auf Lehrbuch-Liberalismus und Kapitalismus und argumentiert im longtermistischen Framework etwa dagegen, Schwachen zu helfen oder Schwächen auszugleichen. Langfristig nämlich sei das gleiche Kapital bei Stärkeren besser angelegt. Die Unterstützung Starker trage also mehr dazu bei, in Summe das Wohlbefinden aller zu steigern. Ähnliche Argumentationen sollen sich etwa bei Peter Thiel und anderen Tech-Ideologen finden.

Aber auch Macaskills eigene praktische Konsequenzen sind schließlich Karriereberatung für wohlmeinende young professionals. Die Marke 80000hours bemüht sich um Sinn im Job. 80000 Stunden verbringt ein Mensch im Lauf seines Lebens mit seinem Brotjob. Das ist viel Zeit. Die sollte erstens möglichst mit Freude verbracht werden, zweitens sollte sie, im Sinn des Longtermisms, mit etwas Nützlichem verbracht werden. Beides zusammen, Freude und Relevanz, erhöht die Chancen auf gelingende Karrieren. Auch daran ist nichts falsch. Aber es ist auch ein eigenartiges Fundament für philosophische Argumentation über das Gute in der Welt. 

80000hours.org sammelt trotzdem sehr ausführliche und hilfreiche Analysen über wichtige Anliegen für die ganze Welt – und bietet damit Inspiration, wie auch der eigene Alltag im größeren Zusammenhang für das Gute gesehen werden kann. Dann sind dann doch wieder Punkte für den Longtermism, auch wenn Macaskills Überbau nach wie vor nicht überzeugend ist. 

Am Ponyhof der Digitalisierung

Trends und neue Entwicklungen schön und gut, aber am Ende des Tages hat jeder Tag ein Ende. Dann muss etwas erledigt sein – darin sind sich Zeitungen und Bauernhöfe tatsächlich nicht so unähnlich. Ich weiß das aus Erfahrung aus beiden Branchen.

Und das ist nicht nur eine Metapher. 

Digitalisierungsprojekte in einem Zeitungsverlag unterscheiden sich gar nicht so sehr von der Digitalisierung eines Bauernhofs. Beide betreiben altes Handwerk, in dem sich trotz aller Umbrüche in den grundlegenden Rahmenbedingungen nur sehr wenig verändert hat. 

Zeitungen erscheinen täglich, das Vieh muss täglich gefüttert werden. Redaktionen sind grundsätzlich praktisch unführbare Organisationen, Bauern sind traditionell Sinnbilder von Sturheit.

Und in beiden Branchen spielen öffentliche Förderungen wichtige Rollen. 

Aber der Reihe nach. 

Egal in welchem Stadium digitaler Transformation eine Zeitung heute ist, es heißt immer: Zu wenig, zu spät, zu alt, zu phantasielos. Man blickt neidisch auf entfernte Vorbilder, denen dank internationaler Reichweite und Relevanz Sagenhaftes zugetraut wird. Man staunt über das nächste Gen Z/Social First/datadriven/ultratargeted Medienspinoff, dessen Reichweiten dann doch humorvoll niedrig sind und dessen Kommerzialisierungspläne in einer fernen Zukunft liegen, in der auch der heute trendigste Kram wieder hoffnungslos veraltet sein wird.

Rezepte liegen auf der Hand; Daten, Engagement, Loyalty müssen her. Allein auch hier gilt: Was sehr viele schon sehr lang als Lösung alter Probleme beschreiben, wird wohl doch allein keine ganz patente Lösung sein – sonst gäbe es die Probleme nicht mehr.

Funktionierende Lösungen sind die Feinde der guten Lösungen. „Es hat noch jeden Tag funktioniert“ ist die intelligentere Version von „Das haben wir immer schon gemacht.“ In einer Umgebung, die jeden Tag Ergebnisse bringen muss, gewinnt dieser Einwand aber deutlich und zurecht an Gewicht. Zeitungen bringen keine täglichen virtuellen Ergebnisse im Sinn von Fortschritt oder erreichten Meilensteinen, es sind tägliche reale Produkte, die geplant, umgesetzt, geprüft und verkauft werden müssen. Das ist unaufschiebbar, es gibt keine Pause-Taste. Es gibt nur eine Stopp-Taste. Die ist allerdings endgültig. Man kann nicht einfach einen Tag aussetzen und dann weitermachen. Nachrichten laufen weiter – so wie das Schaf gemolken werden muss oder wie der Gemüseacker gegossen werden muss.

Das ist ein Problem. 

Das Problem betrifft nicht nur Zeiteinteilung und Priorisierung – es liefert auch Beharrungsargumente. Eben weil jeden Tag ein neues Produkt geschaffen wird und weil es jeden Tag ein neues Ergebnis gibt, kann, so die Position, auf der beharrt wird, der Zustand nicht so schlecht sein. 

Das schafft Resilienz, die kaum noch von Renitenz abzugrenzen ist.

Eine andere Hürde ist die nicht zu verleugnende Abhängigkeit von äußeren Einflüssen und Ereignissen. Man kann mit dem Wetter umgehen – aber wenn Blüten abfrieren, wird es keine Ernte geben, wenn Wasser ausbleibt, wird nichts wachsen. Die Nachrichtenlage beeinflusst die Erfolgschancen für Zeitungen. Natürlich kann man vorplanen, Serien, Ratgeber, Analysen und Servicestorys vorbereiten. Deren begrenzter Erfolg zeigt aber nur ein anderes Problem: Reichweiten, die für kleinere Nachrichtenmedien eine erfreuliche Entwicklung darstellen, sind für größere Zeitungsverlage ein katastrophaler Einbruch. Spektakuläre Ereignisse können nicht geplant werden, aber sie erfordern eine gewisse Größe der Organisation, um sie abdecken zu können – und sie kannibalisieren einander (und die vorbereiteten Service- und Ratgeberstorys erst recht).

Oft bedeutet das: Die Nachrichtenorganisation schleppt viel Overhead mit, der an vielen Tagen überflüssig wirkt. Darauf zu verzichten wird aber schnell zum noch größeren Problem. 

Berater und Marketingspezialisten raten Zeitungen wohlmeinend, sich ihrer Stärken im Erklären und im Herstellen von Zusammenhängen zu besinnen. Zeitungen sollten einzigartige relevante Inhalte liefern, die sich von Social Network- und KI-Geschwätz abgrenzen. Daran ist nicht grundlegend etwas falsch. Es ist nur praktisch sehr schwierig, jeden Tag relevante Einzigartigkeit zu produzieren. Erklärungen, Hintergründe und Zusammenhänge zu irrelevanten Themen können sehr gut und sachlich korrekt umgesetzt sein – allerdings interessieren sie in der Regel kein relevantes Publikum.

Neue Methoden und Diversifizierung sind Wege, neue Zielgruppen anzusprechen und neue Märkte zu erschließen. Selbstvermarktung erhöht die Margen und senkt die Abhängigkeit von Zwischenhändlern; Produzent und Publikum finden direkt zueinander. Das klingt gut. Das bringt aber auch eine Vielfalt neuer Tätigkeiten mit sich, die zu Lasten anderer Aufgaben  gehen. Das Tempo der Diversifizierung sinkt mit der Intensität der Diversifizierungsmaßnahmen. Wer in Veränderung drin steckt, kommt nicht so leicht mehr raus, wer Trends perfektioniert absurft, verliert Substanz. Wer von Tiefkühlgemüse und Billigfleisch auf nachhaltigen biozertifizierten handgemachten Slowfood-Schafkäse umgestellt hat, kann trotzdem noch Probleme mit Veganismus oder Blauzungenkrankheit bekommen.

Medienunternehmen, die das Social Media-Spiel und damit vermeintlich ihre Präsenz bei begehrten jüngeren Zielgruppen optimiert haben, müssen sich die Frage stellen, wie sie ihre Präsenz auf fremden Kanälen gewinnbringend nützen. Umwegrentabilität über Bekanntheit ist für Newcomer relevant; wer schon einmal ein Abo verkauft hat, möchte darüber hinaus. Perfektionierte Plattformpräsenz hat stets Vice demonstriert – mit Erfolg. Vor zehn Jahren war die Frage, ob Google Vice kauft oder doch Vice Google. Vice-Beiträge performten überall, gestandene Medienmanager staunten, dass es so etwas wie Revenue Sharing bei Youtube gab. Der Plattform-Erfolg führte dazu, dass es schlicht nicht mehr notwendig war, eigene Vice-Plattformen aufzurufen. Im Mai 2023 war Vice insolvent. Die Regionalisierung in immer irrelevantere Lokalausgaben hat dieser Entwicklung noch den Rest gegeben.

Heute wird TheNewsMovement gefeiert – die Social Media-Reichweiten liegen allerdings hinter jenen der Oldschool-Zeitungs-Platzhirschen aus Medien-Zwergstaaten wie Österreich. Und der Movement-Gründer tauschte sein Startup gegen die Chefrolle des Tankers Washington Post.

Landwirtschaften erzielen oft auch auf Umwegen Einnahmen. Manchmal sind es nicht Produkte, die Geld bringen, sondern der Verzicht auf eben diese Produkte. Dann werden Landwirt für Landschaftspflege bezahlt oder für zu Zulassen von Wildnisstreifen.

Auch das kann eine valide Option für Medienunternehmen sein. Das Internet braucht Inhalte. Es ist nicht gut zu ihnen und in ständigen Wellenbewegungen sind mal die Inhalte, mal die Technik wichtiger. Und dank generativer KI erzeugt sich Technik ihre Inhalte selbst. Ist das Match also gelaufen? Nein. Wer schon mal einen der abgeschlossenen KI Bots wie Chat GPT bedient hat, die keine neuen Inhalte verarbeiten können, ist bald enttäuscht. Das zeigt: Auch KI muss ständig dazulernen. Und dazu braucht sie Material. Ist es ein realistisches Szenario, dass in absehbarer Zeit Tech-Unternehmen Lizenzen an Medien zahlen, um deren Inhalte verarbeiten zu dürfen? Dazu gibt es bereits erste Ansätze; Tech-Unternehmen zeigen sich, nach den Lizenzstreitigkeiten der vergangenen Jahre, Medienunternehmen gegenüber großzügig. Werden Medienunternehmen diese Großzügigkeit und damit möglicherweise einhergehende Abhängigkeiten überleben? Das ist offen. Die erste große Kooperationswelle, als Telekomunternehmen rund um das beginnende Jahrtausend begannen, Medieninhalte zu kaufen um sie neu zu bündeln und zu verpacken, war für Medien kurzfristig lukrativ, führte sie aber konsequent auf die schiefe Bahn, auf der sie sich heute befinden.

Man freut sich über jeden Keim. Es ist toll, wenn Pflanzen aufgehen, es ist toll, wenn Pläne aufgehen. Auch die in den Himmel rankende Bohnenpflanze hat sich einmal mit einem feuchten Wattebausch begnügt. Davon können umgekehrt Medienunternehmen lernen. Medien und Digitales – hier zählt alles oder nichts, der Sieger drängt den Rest in den Graben. Dabei liegen neue Chancen in den Details. Datengetriebene und effizienzorientierte Perspektiven müssen lernen, auf die feinen Unterschiede zu achten und die kleinen Entwicklungen schätzen zu lernen. Das ist eine der härtesten Lektionen für aufmerksamkeitsverwöhnte Medienmenschen. Und vielleicht eine, die man wirklich und besser vom Ponyhof lernt. – Oder dort, wo jeden Tag ein echtes handwerkliches Produkt, das auch jemand kaufen wollte, fertig werden musste. So wie eine Zeitung. 

Adrian Daub: Cancel Culture Transfer

Die Erwähnung von Cancel Culture ist oft ein verlässlicher Indikator dafür, dass man gerade einen geist- und belanglosen, großteils faktenfreien Text liest, in dem in der Regel kulturpessimistisch eingestellte Schreibende Phrasen recyceln. Verschärft wird dieser Umstand, wenn Umstände an nicht näher genannten „amerikanischen Universitäten“ als Belege genannt werden.

Adrian Daub zeichnet die Entstehungsgeschichte des Begriffs und seiner Übersiedlung aus den USA nach Europa mit einer Fülle historischen Materials nach. So klärt er etwa auch die Frage, was mit Canceln eigentlich gemeint ist. Ist es tatsächlich Auslöschung, radikales Entfernen, Beseitigen, das an Wegsperren und Straflager mahnt? Die historischen Ursprünge dürften in dem Hashtag #cancelcolbert liegen, mit dem eine Twitteruserin eine missglückte Parodie von Stephen Colbert kommentierte (für die dieser sich später entschuldigte). Cancel bezog sich auf das Absetzen einer Fernsehshow, halbironisch gebraucht von einer Twitteruserin. Die Reaktionen auf diesen Tweet blieben einstellig. Colbert stieg weiter zu einem der erfolgreichsten Comedians der Welt auf.

Cancel Culture funktioniert als Konstrukt der Kritik ähnlich wie Political Correctness. Der Begriff ist eine vage Umschreibung für eine Ansammlung anzuklagender Punkte, konkrete Inhalte können dabei wechseln. Jene, die in den Beschreibungen der Kritiker Cancel Culture betreiben, haben dagegen meistens keinen klaren Begriff von dem, was sie vermeintlich tun.

Cancel Culture-Erzählungen strapazieren Anekdoten und versteigen sich von dort zu unspezifischen Verallgemeinerungen. Daub exerziert das an einer Fülle von gut dokumentierten Beispielen vor. Besonders ergiebige Beispiele liefern dafür Ulf Poschardt und andere One Trick Ponys aus dem Feuilleton. Berühmt ist auch der sogenannte Flipchart-Hoax, den unter anderen sich gecancelt fühlende Berühmtheiten wie Jordan Peterson strapaziert haben. In wechselnden Unternehmen (bei Peterson war es eine Bank) soll das Wort Flipchart aus dem Sprachgebrauch verbannt worden sein, weil es an die Bezeichnung “Flip” für Menschen von den Philippinen erinnere. Das soll Menschen, die sich dagegen verwehren wollten, in Burnout oder andere Probleme getrieben haben. Peterson erzählt die Geschichte als Erlebnis einer seiner Patientinnen. Die Story wurde allerdings einige Jahre vorher (und auch danach) immer wieder in wechselnden Zusammensetzungen mit anderen Unternehmen und ohne Bezug auf Peterson erzählt.

Die Erzählungen der Cancel Culture-Kritiker sind meist vage oder, wie bei Peterson, hyperspezifisch genug, um weder verifiziert noch widerlegt werden zu können. 

Die aggressivsten Formen angeblicher Cancel Culture dagegen lassen sich in ihren Wurzeln recht gut zu den Sprachspielen von Black Twitter zurückverfolgen, zu einer Sprachkultur, die sich nicht an das unverständige Publikum wendet, die sich eigentlich an überhaupt niemanden wendet und keine konkreten Reaktionen erwartet oder Folgen bewirken will, sondern eher eine Art der Poesie darstellt. Sich davon angesprochen zu fühlen – das kann nur zu Missverständnissen führen. Die Darstellung von Daub erinnert an die Auseinandersetzung von Henry Louis Gates mit beleidigenden Rap-Texten, die Gates auf die Figur des Signifying Monkey, einer Legendengestalt der Yoruba zurückführte. Sich von Trash-Talk beleidigt zu fühlen oder eine andere Form der persönlichen Betroffenheit in diesen Texten zu suchen, ist also etwa ähnlich, als würde sich heute jemand von den Texten von Abraham a Sancta Clara oder Francois Villon beleidigt fühlen.

Problematisch ist an Cancel Culture-Texten vor allem, dass sie im gut situierten Feuilleton stattfinden, sich nicht an die angeblich Cancelnden richten, um etwas über deren Gründe zu erfahren oder sie vom Canceln abzuhalten, sondern dass sie sich an ein dankbares Publikum richten, das sich gerne gruselt und empört. Cancel Culture-Kritik ist ein Ritual zur eigenen Bestätigung, das, das schreibt Daub über die New York Times, vor allem Unbehagen darüber zum Ausdruck bringt, dass andere Zuhören und Mitreden dürfen und man nicht unter sich ist. Die Stimmen von außen werden als falsch empfunden. Wenn sie bezug auf identitätspolitische Argumente nehmen, sind sie überdies zu emotional; die Kritik daran dagegen wird als Kern der Vernunft gesehen.

Daub sammelt eine Reihe weiterer Belege für die schlechte Argumentationsqualität von Cancel Culture-Kritik, streift Identitätspolitik, Gendern und andere Verwandte dieser Debatten und weist auch auf die teilweise großzügige Dotierung von Cancel Culture-Kritik oder angeblicher Cancel Culture-Dokumentation durch konservative Stiftungen und Think Tanks hin. 

Gibt es einen Ausweg aus diesem recht festgefahrenen Dilemma, in dem seit über 30 Jahren, seit dem Aufkommen der ersten Political Correctness-Kritik, keine neuen Argumente mehr greifen? Daub erwähnt eine Möglichkeit gleich zu Beginn seines Texts: Diejenigen, die ohnehin nicht gemeint sind, die von Cancel Culture nicht betroffen sind, könnten schlicht von etwas anderem reden. Das ist allerdings insofern unwahrscheinlich, als sich die mit Cancel Culture-Kritik einhergehende Inszenierung für viele auch als Prominenzbooster erwiesen hat. Nachvollziehbare Fälle von Canceln finden sich dagegen eher unter Schwächeren: Daub skizziert dazu Diskussionen aus gender- und herkunftssensibler Fantasyliteratur. Dort kann der falsche Ton zu bestimmten Identitäten tatsächlich Karrieren beenden, bevor sie begonnen haben – aber auch aus diesem Milieu zitiert Daub Fälle, in denen Kritik von konservativen Zeitungen aufgegriffen und in Karriereturbos verwandelt wurde.

Daub fasst Cancel Culture-Kritik als Fälle kultureller und moralischer Panik zusammen. Und ein wesentliches Merkmal von Panik ist es eben, nicht mehr so genau hinzusehen auf das, wovor man sich fürchtet …

EU AI Act: Sieg der Ängstlichkeit

Europa feiert, der erste Kontinent mit AI-Regulierungen zu sein. In den EU AI Act sind eine Menge Technologieängste verpackt. Rahmenbedingungen für eine positive Entwicklung Europas als Technologietreiber sind nur schwer zu erkennen.

Eigentlich hätte es eine spannende Story werden können – aber niemand wollte sie spannend machen. Die Diskussion um den EU AI Act zog sich lange hin, immer wieder tauchten neue Aspekte auf und der AI-Hype des letzten Jahres schien dann alles über den Haufen zu werfen.

Lobbyisten standen Schlange, Google bemühte sich, die Europäische Union vor kritischen Fehlern zu bewahren (so schrieben es Google-Lobbyisten zumindest in sich an interne Audiences richtenden Memos), insgesamt listet Integrity Watch über 210 Lobbyisten-Termine rund um den AI Act im EU-Parlament. 

Was stand auf dem Spiel, wie sollte es weitergehen, was fehlte eigentlich noch zu einer Entscheidung? Diese Fragen habe ich dem Berichterstatter Dragos Tudorache vor einigen Monaten gestellt und insgeheim auf eine spannende Story rund um widerstreitende Interessen, neue Aspekte und politische Auseinandersetzungen mit vielschichtiger sich noch entwickelnder Technologie gehofft.

Tudoraches Antwort konnte allerdings langweiliger und ausweichender nicht sein. Der AI Act befinde sich im Prozess der EU-Gesetzgebung, werde weiter diskutiert und so bald wie möglich zur Abstimmung gebracht. Punkt. 

Jetzt liegt offenbar die Einigung auf dem Tisch. Und was war dabei so schwer? 

Die Ergebnisse verwirren auf den ersten Blick ein wenig. Die relevantesten Aspekte, die jetzt auch in den meisten Medienberichten referiert werden, betreffen den Schutz von Bürgern vor Überwachung und Manipulation – Themen, wie wir sie seit Vorratsdatenspeicherung, DSGVO und Whats App-Ver- oder Entschlüssungsdiskussionen kennen. Biometrische Identifikationssysteme sollen also nicht schrankenlos verwendet werden können. Social Scoring bleibt in der EU unerwünscht. BürgerInnen werden sich beschweren können.

Und sonst? Ich habe den Act durchgeblättert; hier sind einige Punkte, die mir besonders aufgefallen sind. Im AI Act werden viele Probleme von Technikgesetzgebung im allgemeinen offensichtlich. 

Recht beschreibt Abstraktionen, Technik schafft Fakten 

Gesetzgebung orientiert sich an erwünschten Zuständen und möchte Rahmenbedingungen gestalten, die diese Zustände ermöglichen. Technik dagegen schafft Fakten. Letztes kann gezielt oder unabsichtlich vonstatten gehen. Manchmal werden Projekte konzipiert und umgesetzt. Manchmal schafft Technik, manchmal auch ein Nebenprodukt technischer Entwicklungen, die Voraussetzungen, die andere Prozesse in Gang bringen oder sie zeitigen Ergebnisse, die in anderen Zusammenhängen verwendet werden können. Die besten Verschlüsselungssysteme etwa machen das Leben von Sicherheitsbehörden leichter, wenn sie selbst diese Toole verwenden. Aber sie machen ihnen das Leben zur Hölle, wenn sie von anderen verwendet werden. Und für Entschlüsselungssysteme gilt das gleiche. Wo soll Gesetzgebung hier ansetzen? 

Diese Unklarheit zieht sich durch den AI Act. Entwickler von high risk AI Anwendungen sollen ausschließen, dass diese missbräuchlich verwendet werden können. Wie lässt sich das feststellen? Wer ist verantwortlich für Missbrauch? Wer stellt Missbrauch einer in anderen Zusammenhängen nützlichen Lösung fest? Diese Abgrenzungen machen keinen Sinn, wenn nicht geklärt ist, in welcher Beziehung Technologie und Gesellschaft hier gesehen werden. Setzt Technologie Entwicklungen in Gang, die unaufhaltsam fortschreiten? Bestimmt also Technologie Gesellschaft, Kultur und Natur? Oder ist Technologie das Ergebnis sozialer Prozesse und dient zur Lösung von Problemen, die eben sozial relevant sind? Über technischen und sozialen Determinismus kann man lange streiten. Zuletzt sind die Argumente der Techno-Deterministen etwas aus der Mode gekommen; gegenüber dystopischer Science Fiction war Technik zuletzt einfach zu freundlich. Gerade mit AI aber haben viele Freunde mahnender Technovisionen wieder eine lohnende Gegnerin gefunden.

AI-Risikostufen als Auslegungssache

Die Einteilung von AI Anwendungen in verschiedene Risikostufen von minimal risk bis unacceptable risk stellt den Kern des AI Act dar. Ein in der Presseaussendung ausdrücklich erwähntes Beispiel für minimal risk sind Recommender Systeme, unter unacceptable risk fallen Anwendungen, die Menschen manipulieren und ihren freien Willen untergraben sollen. Letztes klingt bösartig, Recommender Systeme dagegen sind meist freundliche Shopping-Assistenten, die Kunden Zusatzprodukte empfehlen. Hinter diesen Empfehlungen allerdings arbeiten durchaus komplexe Algorithmen, die mitunter hunderte Parameter verarbeiten, um zu einer Empfehlung zu kommen Und sie verfolgen ein Ziel: Sie wollen den Kunden, der gar nichts kaufen oder mit seiner aktuellen Auswahl im Einkaufskorb den Shopping-Prozess abschließen wollte, zu etwas anderem überreden. Man kann es nun spitzfindig nennen, auch Empfehlungen als Manipulation des freien Willens zu betrachten. Aber es ist ganz und gar nicht spitzfindig, festzustellen, dass Empfehlungen Beispiele komplexer Technologien sind, die auch die Grundlage für ganz andere, weniger freundliche Anwendungen sein können.

Der gleiche Algorithmus, der feststellt: „Wenn du A kaufst, kaufst du vielleicht auch B“, kann auch feststellen: „Weil du A tust, bist du ein politisch verdächtiges Subjekt“. Ich fürchte, es ist keine besonders gelungene Abgrenzung, wenn die Trennung von minimum und unacceptable risk dermaßen leicht übersprungen werden kann. 

Diese Trennung in Risikoklassen und wohl auch die Verantwortung des AI-Entwicklers sind als abstrakte Definitionen sehr problematisch und werden wohl einiger konkreter Einzelfälle bedürfen, um näher bestimmt zu werden. 

Aufklärung- und Kennzeichnungspflichten: Wann ist das schon verständlich? 

Andere Regelungen des AI Act sind zahlreiche Informations- und Kennzeichnungspflichten. Anwender sollen verstehen, dass sie gerade mit einem AI-System interagieren, und sie sollen verstehen und nachvollziehen können, in welchem Ausmaß AI zu dieser Interaktion beiträgt. Das ist ein herausfordernder und ziemlich aufklärerischer Anspruch.

Wer ist dafür verantwortlich, dass diese Transparenz gelingt? Wo verläuft die Grenze zwischen Bringschuld der Entwickler und Holschuld der Anwender? Wer legt fest, was erklärt werden muss, wann etwas ausführlich genug erklärt ist und in welcher Form die Erklärung stattfinden muss? Werden jetzt ellenlange allgemeine Geschäftsbedingungen nicht mehr nur von ebenso langen Datenschutzerklärungen, sondern auch von noch längeren AI-Disclaimern begleitet?

Heute hat jeder Webseitenbetreiber eine lange automatisch erstellte Datenschutzerklärung in seinem Impressum verlinkt, ohne zu wissen, was eigentlich darin steht und wozu das notwendig ist. User lesen das nicht. Die einzigen Profiteure dieses Umstands sind die Webmaster der Webseiten der Anwaltskanzleien, die die Datenschutzgeneratoren zur Verfügung stellen – und die sich jetzt über eine ungeahnte Fülle neuer Backlinks freuen können. Wird das auch das Schicksal der Aufklärung über künstliche Intelligenz? 

Ein eigener Paragraph fordert über diese allgemeine Kennzeichungspflicht hinaus noch eine Kennzeichnungspflicht für mit künstlicher Intelligenz generierte Bilder, Videos und Audios. Das wirft wieder ähnliche Abgrenzungsschwierigkeiten auf: Wie künstlich soll es denn sein? Reichen Filter oder die Anwendung von Animationsprpogrammen? Muss ein unverfälschtes Bild zugrunde liegen, sind Täuschungsabsicht oder -möglichkeit oder die Verwechselbarkeit mit realen Szenen notwendig? Oder muss jede Fantasy-Visualisierung mit Drachen und Prinzessinnen gekennzeichnet werden?

Was mich dabei eigentlich beschäftigt: Ich konnte keinen Hinweis zur Kennzeichnungspflicht KI-generierter Texte finden. Mögliche Interpretationen: Bilder und Videos werden als wirksamer eingeschätzt , Bilder vermitteln mehr Autorität. Bilder werden als Abbildungen verstanden, die Tatsache, dass bei jedem Bild, auch einer bloß abbildenden Fotografie, eine fremde Intelligenz im Spiel war, die Aufnahmemoment, Bildausschnitt und Veröffentlichung bestimmt hat, wird ausgeblendet. Bilder geschehen von selbst, Texte dagegen entstehen nicht durch zufällige Anordnung von Buchstaben – ob eine künstliche oder eine andere Intelligenz im Spiel war, ist weniger wichtig.

Texte lügen noch besser als Bilder 

Das ist eine Reihe von Missverständnissen. Wer mit digitalen Bildbearbeitungstools zu tun hatte, weiß wie viele Prozesse auch dann schon unkontrolliert laufen, wenn nur einfach Farbkorrekturen angewendet werden. Der Automatisierungsgrad entscheidet dabei nur über das Tempo der Veränderungen (und darüber, wieviele Bilder in welcher Zeit bearbeitet werden können) – die realen Möglichkeiten sind die gleichen. Und auch versierte Anwender wissen nicht genau, was die Software wirklich macht – es ist egal, ob sie selbst Befehle tippen, Buttons klicken oder mit natürlicher Sprache einen Chatbot steuern. Das ist auch bei KI-generierten Texten nicht viel anders. Ohne den Text genau zu überprüfen, nachzurecherchieren und die Argumente nachzuvollziehen und auf ihre Konsequenzen hin durchzudenken, sollten weder handgeschriebene noch künstlich generierte Texte veröffentlicht werden. Beides passiert. 

Die unterschiediche Behandlung von Bild und Text im AI Act lässt vermuten, dass entweder Bildern mehr Autorität über unbedarfte User eingeräumt wird, oder dass Manipulation in Texten als leichter entschlüsselbar angesehen wird – oder dass das Problem möglicherweise ein ganz anderes ist und die Kennzeichnungspflicht KI-generierter Bilder am Ziel vorbeigeht. Gerade KI-generierte Texte, die sich am kleinsten gemeinsamen Nenner orientieren, wiederholen was alle sagen und keinen Bezug zu Wahrheit oder Argumenten herstellen können, können nur von auf dem Gebiet, das der Text behandelt, besonders versierten Menschen überprüft werden. Eine KI kann leichter lernen, ob sie Menschen mit fünf oder sechs Fingern zeichnen soll, als zu entscheiden, ob sich mit dem Idealismus Kants jetzt eher Relativismus oder doch Realismus argumentieren lässt oder ob eine Vermögenssteuer Wirtschaft und Sozialsystem nützen oder schaden wird.

Falls die Kennzeichnung als Unterstützung im Kampf gegen Fake News und Desinformation gemeint war, so geht das ein wenig am Ziel vorbei. Falls es ein Beitrag zur Bewusstseinsbildung auch in breiten und wenig digitalen Bevölkerungsteilen gedacht war, dann bleiben all die Graubereiche unberührt, ohne die KI kaum als relevantes Phänomen zu begreifen ist.

US-Konzerne und -Institutionen als stärkste Mitgestalter in Europa 

Aus dieser Perspektive finde ich es immer wieder auch spannend, wer in die Entstehung welcher Regelungen involviert war und wer wie intensiv lobbyiert hat. Verleger und andere Produzenten von intellectual property, ohne die Künstliche Intelligenz keine Intelligenz simulieren könnte, waren recht zurückhaltend. Ihre Kernthemen drehten sich offenbar vorrangig um Copyrights und Lizenzen. Das kann grundsätzlich zu neuen Geschäftsmodellen führen, wenn Inhalte nicht mehr nur an Distributoren, sondern auch an Tech-Unternehmen lizenziert werden. Aber es kann etwas zu kurz gegriffen sein, wenn die Ergebnisse dieser Lizenzproduktionen dann plötzlich Mitbewerber unter neuen Marktbedingungen sind. Ob es dazu kommt, wovon KI lernen soll, wenn sie einmal alte inhalteproduzierende Intelligenz ökonomisch vernichtet hat, und ob KI nicht doch der beste Freund des Journalisten wird, dem sie bei Recherche, Archivierung und andern Aufgaben hilft, ist noch offen.

Integrity Watch hat 210 Lobbyistentermine zum AI Act bei den beiden Berichterstattern, Axel Voss und anderen in KI, Daten, und andere Technologiefragen involvierten Abgeordneten des EU-Parlaments dokumentiert. Ganz vorne dabei sind Google mit acht und Microsoft mit sieben Terminen. Die American Chamber of Commerce hat sechs Mal interveniert, auffällig ist auch das Future of Life Institute mit vier Terminen. Nach Eigendefinition bemüht sich das Institut um Technikfolgenabschätzung und -steuerung. Größte Geldgeber sind Skype-Mitbegründer Jaan Tallinn und Ether-Mitbegründer Vitalik Buterin. Tallinn war eine Zeit im Vorstand des Instituts, Buterin hat – laut der eigenen Transparenzseite – keinen Einfluss auf Agenda und Schwerpunkte. TikTok wurde zwei Mal vorstellig, IBM ebenso. Der Bundesverband deutscher Digitalpublisher begnügte sich mit einem Termin.

Einige Ausnahmen von den strengen Regelungen sind vermutlich im Interesse aller Beteiligten, auch wenn sie das Potenzial haben, die Regelungen des Acts pauschal zu unterwandern. KI-Anwendungen im privaten und persönlichen Bereich und zu Forschungs- und Entwicklungszwecken sind von den Vorschriften und Risikoklassen ausgenommen. Für sie gibt es Sandbox-Regelungen, in denen experimentiert werden darf. Entwicklungsumgebungen für KI werden also letztlich ähnlich problematische Umgebungen wie Labors, in denen gefährliche Viren und Bakterien untersucht werden. Das baut Hürden auf und schränkt, wenn die die Regeln tatsächlich ernst genommen werden, auf die Dauer den Kreis jener, die es sich leisten können und wollen, zu Künstlicher Intelligenz zu forschen, deutlich ein. KI-Entwicklung wird zum Luxus – oder findet künftig außerhalb von Europa statt.

Als Übergangslösung, bis der Act auch überall in Kraft tritt, können und sollen Tech-Unternehmen einen AI Pact mit der EU abschließen. Dieser Pact bedeutet die vorläufig freiwillige Anerkennung des Act und wird hoffentlich auch als Chance genützt, all die diskutierbaren Bestimmungen näher zu schärfen. 

Endlich: eine KI-Behörde (/sarkasm)

Was wäre Bürokratie ohne Behörden? Zur Überwachung und Weiterentwicklung des EU AI Acts soll eine eigene KI-Behörde geschaffen werden, mit eigenen Dependancen in allen EU Mitgliedsstaaten. 

Eine eigene Behörde – das wird natürlich vor allem die Österreicher freuen. Digitalisierungsstaatssekretär Tursky, der diesen Job nicht mehr lang machen wird, hat sich vor einigen Monaten noch als KI-Warner hervorgetan, der dringende Regulierungen und eine Behörde forderte und allen Ernstes in Interviews so tat, als treibe er die EU vor sich her (im übrigen unwidersprochen vom ORF-Interviewer).

Vor einigen Wochen mutierte er zum wohlwollende KI-Erklärer, die auf die Visionen unabsehbarer Gefahren verzichtete und stattdessen als Auskennen wissen ließ, dass KI ja bereits in sehr vielen harmlosen Anwendungen arbeite. Auch diese plötzliche Wendung, ein kompletter Widerspruch zu seinen Aussagen einige Wochen davor, blieb vom Interviewer unbemerkt. 

Tursky erwähnte Kennzeichnungspflichten, wünschte sich eine „unideologische“ KI (was in der Regel die Umschreibung ist für eine KI, die die eigene Ideologie reproduziert) und verwechselte KI-Regelungen ebenfalls mit Maßnahmen gegen Fake News und Desinformation – ganz so, wie er es offenbar im Entwurf des AI Act gelesen hatte. 

Die größte Sorge in dieser Konstellation von Bürokraten, die gefallen wollen und einer Technologie, die sich plakativen Festschreibungen entzieht, ist dass diese Bürokraten in den zu gründenden KI-Behörden sitzen werden und dort neue KI-Regelunge erfinden werden und, noch schlimmer, an der Operationalisierung der bisherigen Regeln arbeiten werden. Sie werden also darüber entscheiden, ob einer Kennzeichnungspflicht genüge getan wurde, ob dem Missbrauch einer riskanten Anwendung tatsächlich ausreichend vorbeugt wurde und ob die als riskant eingestufte Anwendung erstens tatsächlich riskant ist, ob sie zweitens Forschungs- oder kommerziellen Zwecken dient und ob die notwendigen Sicherheitsbestimmungen eingehalten werden.

Das lässt einen ausgedehnte bürokratischen Overhead befürchten. 

Insgesamt ist der AI Act wohl ähnlich einzuschätzen wie die Datenschutzgrundverordnung: Es stecken ehrenwerte Absichten dahinter, an den einzelnen Entscheidungen ist im großen und ganzen nichts falsch. In Summe hat das Regelwerk aber das Potenzial, eine Armee von papierenen Monstern hervorzubringen, die niemandem nützen und keinen anderen Zweck erfüllen, als die neu geschaffenen Auflagen dieses Regelwerks zu erfüllen. In der Praxis werden sie wenig weitere Auswirkungen haben, als dass sie bürokratische Aufwände nach sich ziehen. Und es wird damit in Summe nicht leichter, KI-Anwendungen zu entwickeln. Im Gegenteil: Vermutlich überlegt man es sich in Zukunft noch gründlicher, ob die Entwicklung tatsächlich in Europa stattfinden soll.

Ein positiver Effekt der Auflagen und des Bemühens um ethisch-europäische KI kann die Entwicklung eigener europäischer KI-Varianten sein, die am Anfang lästige Zusatzaufgabe sind, im Lauf der Zeit aber vielleicht neue Effekte hervorbringen – ähnlich wie das sportliche Training in Höhenluft erst belastender ist, dann aber bessere Effekte bringt. Die Frage ist, werd den ausreichenden Atem hat, die belastenden Phasen durchzustehen. Schon bei Open AI, dem aktuell erfolgreichsten AI-Unternehmen, hatten unlängst die Befürworter der nichtkommerziellen Perspektive nur für wenige Tage in einem spektakulären Führungsstreit die Oberhand – und mussten dann Verfechter kommerzieller Ansätze zurückbitten und ihre eigenen Plätze räumen.

So gesehen klingt im EU AI Act auch eine große Portion Angst mit. Das beste Rezept gegen diese Angst ist mehr praktische Erfahrung mit Künstlicher Intelligenz, mehr Bereitschaft, sich in konkreten Fällen damit auseinanderzusetzen. Beides vermisse ich in der Politik, aber auch in Medien, Kunst und vielen anderen Bereichen. Zukunfts-Bullshitten ist für mich kein gelungener Fall von konkreter Auseinandersetzung.

Achille Mbembe, Brutalisme

Die Zukunft kommt nicht mehr. Sie ist schon da, sie ist insofern vorweggenommen, als wir so tun müssen, als hätten wir alle Mittel, sie zu steuern und zu gestalten. Digitalisierung schafft Phantasmen universellen Wissens, in denen keine Frage offen bleibt, auch nicht die nach der Zukunft. Wir finden auf alles eine Antwort, es bleibt kein Raum für Unbekanntes. Das verkleinert die Welt – die Welt hat ihre Grenzen erreicht. Wir müssen uns der Tatsache stellen: Das ist es. Da kommt nichts anderes mehr. Dieses Bewusstsein von Endlichkeit ist die Ausgangslage für harte Verteilungskämpfe, die Normalisierung von Extremsituationen und ständig neue Versionen der Vorstellung von Essenz und Zweck des Menschen.

Das ist in etwa die Kernthese von Mbembes sehr dichtem und komplexem Brutalisme-Text. Mbembe schreibt wortgewaltig und radikal, betont diverse und außereuropäische Perspektiven, verwendet (hier und noch öfter in anderen Texten) das N-Wort, um das andere zu kennzeichnen, und war wegen seiner Ausführungen zu Biopolitik und Machttechniken gelegentlich mit Antisemitismus-Vorwürfen konfrontiert.

Brutalisme ist eine Fortführung der Überlegungen zu Biopolitik und Nekropolitik und beschreibt ein von Digitalisierung und Berechenbarkeit geprägtes Weltbild as Diagnoseframework unserer Zeit. Brutalismus muss etwa in der Dimension des Begriffs Humanismus verstanden werden. Der Begriff bietet eine Perspektive auf globale Entwicklungen.

Mbembes Perspektiven sind großteils keine freundlichen. Hoffnung ist kein Wert, Werte als anzustrebende Leitbilder, als Essenzen, auf die man hinarbeiten kann, haben generell eher ausgedient. Was zählt, ist Berechenbarkeit. Digitalisierung und Rationalisierung sind wesentliche Grundpfeiler des Brutalismus. Berechenbarkeit schafft Gemeinsamkeiten. Diese sind allerdings keine verbindenden Elemente, sie sind Gemeinsamkeiten im Sinn von Gemeinheiten oder Banalitäten – es gibt nichts anderes. Vernunft ist ökonomisch, biologisch, algorithmisch – sie berechnet und entscheidet mehr, als sie entdeckt. Das gehört zu den Grundzügen technologischer Vernunft.

Weil Technik entscheidet und definiert (und sich dabei nicht um Ideen wie Wahrheit kümmern muss) entstehen andere Versionen von richtig und falsch. Richtig ist in technisch dominierten Weltbildern was funktioniert. Dieser Pragmatismus findet sich in frühen Technologiekonzepten von John Dewey bis Don Ihde und erfährt bei Mbembe eine weitere Zuspitzung: Sieger müssen recht haben.

Das stellt den Sinn von Begriffen wie richtig und falsch infrage – und es wird für Mbembe zur Startrampe für einen Essay über Machtmechanismen. 

In welcher Beziehung stehen Brutalismus und Migration? Mbembe ist geneigt, ein Recht auf Migration zu postulieren, ein Recht, das in weiten Teilen der Welt nicht verankert, aber teilweise Praxis ist, bis es in Europa an harte Grenzen stößt. Er greift marxistische Motive auf und dehnt den Begriff der Überflüssigen auf jene auf, denen im Rahmen von Migrationsregelungen keine Rolle gegeben wird, jenen, die weder erwünschte Zuzügler noch zu duldende Flüchtlinge sind. Migrationspolitik im Zeichen des Brutalismus ist für Mbembe Lebensraumpolitik – ein NS-belasteter Begriff. Etwas verschwommen ist allerdings der Adressat dieser Diagnose. In vielem beschreibt Mbembe Maßnahmen und Zustände aus außereuropäischen Migrationsrouten, greift aber die Europäische Union an. Die Einteilung von Menschen in nützliche und überflüssige, von Weltregionen in lebenswerte, sichere, bewohnbare und lebensfeindliche und die Erstellung von Matrizen, die bestimmte Arten von Menschen auf bestimmte Regionen verteilen und sie dorthin verschieben wollen, ist ein kerneuropäisches Anliegen, aber eines, das ohne den Rest der Welt nicht umsetzbar sein wird. Brutalismus als Nutzenkalkül jedenfalls verändert die Rolle der Überflüssigen – für Mbembe haben sie nicht einmal mehr Fleischwert.

Von hier aus schlägt Mbembe eine nicht ganz leicht nachzuvollziehende Brücke zu Kunst und Restitution. Das verbindende Element: Die (europäisch-)brutalistische Perspektive kategorisiert und rationalisiert ohne Sinn für ihr verborgene Essenzen. Das ist ein Erklärungsansatz für Migrationspolitik, das ist auch ein Leitmotiv in der Debatte um afrikanische Kunst und Restitution.

Mbembe ist ein klarer Befürworter der Restitution afrikanischer Kunst aus europäischen Museen. Restitution bedeutet allerdings nicht nur die Rückgabe von Gegenständen. Er verbindet mit Restitution auch die Auseinandersetzung damit, was die geraubten oder gekauften oder ertauschten Gegenstände bedeuten. Unrechtmäßige Aneignung ist für Mbembe nicht nur mit Gewalt verbunden. Sie liegt auch dann vor, wenn Kunstgegenstände entfremdet, (falsch) interpretiert, aus einer europäischen Perspektive bewertet wurden und damit dazu beigetragen haben, falsche Bilder von afrikanischer Kunst, Philosophie und Technik entstehen zu lassen. Die Kunstgegenstände wurden missbraucht und zu Zeugen einer nie stattgefundenen Geschichte gemacht. So erzählen sie – für Europäer stringente – Geschichten, die Sinn ergeben und Wirkung entfalten und damit, auch wenn sie zurückgegeben werden, falsche Perspektiven produzieren. 

Auch das ist Brutalismus. 

Was sind Gegenpositionen? Mbembe erwähnt einen möglicherweise anderen afrikanischen Begriff von Technologie, der Technik weniger als Werkzeug und Mittel zum Zweck sieht. Im Vordergrund steht mehr die Auseinandersetzung mit dem, was ist, nicht mit dem, was durch Technik geschaffen wird. Dabei bleibt Mbembe allerdings vage und Andeutungen verhaftet.

Gebührenfinanzierung ist keine Quantenphysik

Bislang fernseherlose Mitmenschen bekamen in den vergangenen Wochen ein wenig überraschende Post vom ORF: Sie hätten sich zur Zahlung der ab Jahresbeginn zu zahlenden neuen Haushaltsabgabe zu registrieren, und zwar flott. Mangelnde Mitarbeit bei der Rekrutierung von ZahlerInnen würde mit der Verdopplung der Zahllast geahndet. Wer dieser Registrierungspflicht nachkam, erhielt in den letzten Tagen Post zur Einrichtung einer Bankverbindung und wurde auf der Rückseite dieses Schreibens darüber aufgeklärt, was der ORF mit dem nunmehrigen Geldsegen zu tun gedenke.

Dort liest man unter anderem: „Wofür wird der ORF-Beitrag verwendet? (…) das ORF.at-Netzwerk (…) ORF Topos, Social Media-Profile (…) bald noch mehr Online-Angebote.“

Das wäre nicht überraschend, hätte die Entscheidung für die Haushaltsabgabe nicht eine viel diskutierte Vorgeschichte. Eine, in deren Rahmen ein Jubelpost auf orf.at zum 25 jährigen Bestehen der Seite das staunende Publikum belehrt hatte: „Damals wie auch im Sommer 2022 sind ‚Blaue‘ und ‚Gelbe Seite‘, also sport.ORF.at, nicht gebührenfinanziert“. Daraus strickten ORF-ApologetInnen wilde und wirre Legenden vom digital erfolgreichen ORF, der eben verstanden habe, wie die digitale Welt funktioniere, und dem eine Armada unfähiger Zeitungsmannschaften der Erfolg neide. Der ORF war weder das erste noch vom Fleck weg das erfolgreichste Onlinemedium, er war nur das, das sich keine Gedanken über Monetarisierung oder Kannibalisierung anderer Kanäle machen musste.

Diese Ausgangssituation und eine Vielfalt an Inhalten aus Fernsehen und Radio, mit denen Online quersubventioniert werden konnten, verschaffte dem Öffentlich-Rechtlichen eine komfortable Position. Eine, aus der ihm jetzt noch mehr Möglichkeiten gegeben werden, online first und only zu produzieren.

Die schlechte Situation der privaten Medien ist nur teilweise auf das ohne weitere Bezahlschranke verfügbare ORF-Angebot zurückzuführen. Natürlich schadet es einem Markt, wenn der größte Player völlig andere Bedingungen hat, aber gleichzeitig wie ein normaler Wettbewerber um Leser und Werbung konkurriert. Noch mehr schadet der Heiligenschein, mit dem manchen MitarbeiterInnen und FreundInnen ihre Arbeit umgeben, und die insinuiert, nur ÖR-Information wäre wertvolle und interessenfreie Information. Gut nachgewiesene Korruption in den mittleren Etagen lässt anderes vermuten; der Umgang mit diese Korruptionsfällen (betroffene Mitarbeiter wurden an andere lukrativ klingende Positionen versetzt) wurde zu einem eigenen Problem. Die aktuelle Imagekampagne („Ich setze mich für … ein“) ist eine eigene Gattung absurden Theaters, etwa wenn vermittelt werden soll, dass sich ORF-Redakteure qua ihrer ORF-heit für Information ohne Grenzen einsetzen. Da gehört schon mehr dazu.

Manche Verleger machen sich umgekehrt Hoffnungen, dass die Neuregelungen für den ORF, die als Einschränkungen verkauft werden, LeserInnen von orf.at vergraulen werden. Die einzige Beschränkung ist allerdings eine Obergrenze für Textmeldungen auf der Hauptseite. Das wird wettgemacht durch Video- und Audiobeiträge, online first und only Beiträge, und wie man liest, eine Reihe neuer Online-Angebote. Flankiert wird das ganze von einer österreichweit flächendeckenden Werbeaktion, die den ORF nichts kostet. Denn neben der üblichen Werbung erhält jeder Haushalt mehrere Briefe, in denen orf.at angepriesen und auf neue Online-Angebote hingewiesen wird. Das fällt unter Kosten für die EIntreibung der Haushaltsabgabe – und die muss der ORF nicht selbst tragen. Die wurden einfach aufgeschlagen: Der ORF will 683 Millionen Budget aus der Haushaltsabgabe, die Haushalte zahlen aber 722 Millionen Euro – um auch noch die Kosten für die Eintreibung abzudecken.

Statt einer Einschränkung gibt es also nicht nur neue Möglichkeiten für den ORF, sondern auch noch eine kostenlose (was ja letztlich immer heißt: von den Kunden bezahlte) Werbekampagne, die den ORF-Onlineinhalten noch einmal ganz neue Startvorteile verschaffen wird.

Das ist dann schon ein wenig zermürbend.

Streit bei Open AI, Robotergesetze und: Wer managt Technik?

Der Superstar war wohl überrascht: Der Aufsichtsrat von Open AI hat Open AI-Gründer und Mastermind Sam Altman gefeuert. Man fühle sich zu wenig informiert, Altman habe Zielen Visionen und konkrete Entwicklungsschritte des Unternehmens nicht ausreichend klar und verständlich nach oben kommuniziert – so und ähnlich konnten Aussagen interpretiert werden, mit denen der Aufsichtsrat seine Entscheidung in den Stunden danach erklärte. Altman war kurz indigniert, heuerte wenige Stunden später bei Microsoft an und durfte sich noch einige Stunden später über eine Solidaritätserklärung von etwa 80% der Open AI-Belegschaft freuen, die nämlich ihrerseits den Aufsichtsrat zum Rücktritt aufforderte.

Noch weiß man nicht genau, was den Aufsichtsrat wirklich beschäftigt hat. Aus der Ferne betrachtet, und all die Visionen, Halluzinationen und düsteren Prophezeiungen rund um AI im Ohr, entsteht das Bild von Kontrollwünschen: Es geht um Macht im Unternehmen, über Wissen, Verfügungsmacht über Technologie, Entscheidungsgewalt über die Zukunft und den Wunsch, Menschen, Technik, Maschinen, Geld und die Zukunft gleichermaßen zu kontrollieren.

Dann geriet die Sache außer Kontrolle: Der Open AI-Aufsichtsrat knickte ein. Altman und  andere, die teils aus Solidarität mit ihm, teils mit der Aussicht auf bessere Perspektiven, das Unternehmen verlassen hatten, kehrten in ihre Jobs zurück.

Über dem Durcheinander schweben große Fragezeichen: Was war hier los? Und vor allem: Was hat sich durchgesetzt? Businesserwartungen an ein Unternehmen? Die Macht einer weit verbreiteten erfolgreichen Technologie? Das technische Genie eines Einzelnen? Und was hätte durch den Machtkampf entschieden oder reguliert werden sollen?

In der Frühzeit der Science Fiction stellte Isaac Asimov die Robotergesetze in den Raum. Damals, 1942, zeichnete sich ab, dass autonome Maschinen eine Herausforderung werden könnten – aber die Idee, man würde das regeln können, war stärker. Roboter sollten Menschen nicht verletzen oder gefährden, sie sollten Menschen gehorchen, solange sie das nicht in Konflikt mit der ersten Regel bringt, und sie sollten sich selbst beschützen, solange sie das nicht in Konflikt mit den ersten beiden Regeln bringt.

Das waren die einfach gefassten ersten drei Robotergesetze. Später wurden sie durch ein Gesetz #0, das Gesetz #1 auf die gesamte Menschheit (vor einzelnen Menschen) ausdehnte, und ein Gesetz #4, das Robotern das Recht auf Selbstschutz einräumte, solange das nicht mit den vorherigen Gesetzen kollidierte, erweitert. 

Asimov selbst misstraute manchen Maschinen so sehr, das er beispielsweise keine Flugzeuge bestieg. Ob Gesetze helfen könnten, solche Maschinenskepsis in den Griff zu bekommen? 

Diskussionswürdig blieb im Licht der potenziellen Robotergesetzgebung immer die Frage, an wen sich Robotergesetze eigentlich richteten. An Roboter? Auf welcher Grundlage sollten diese sich an Gesetze von Fremden halten? An Menschen, die Maschinen maßregeln sollten? Wie? An Roboterentwickler? Also an Menschen, die Maschinen lehren wollten, selbstständig zu entscheiden?

Man möchte Technik kontrollieren, um zu kontrollieren, was mit Technik gemacht werden kann. Am liebsten möchte man auch Menschen kontrollieren, die Technik kontrollieren, um alles zu kontrollieren.

Bislang war das wenig erfolgreich. Entscheidungen wie die, Erfinder einer Technologie zu feuern, um mehr Kontrolle über die Entwicklung einer Technologie zu bekommen, sind ein neuer Versuch. Bei digitalen Technologien, die in der Produktion wenig ressourcenintensiv sind (im Betrieb dann schon) und mitunter leicht reproduziert werden können, ist die Kontrolle doppelt schwierig. 

Was erwartet sich ein Aufsichtsrat, der eine weit fortgeschrittene und erfolgreiche Entwicklung kappt, sich selbst damit einiger Möglichkeiten beraubt und die freigesetzten Menschen an nichts hindern kann? Welche Kontrolle soll damit erreicht werden? Welche Argumente sind es, die dazu führen, diese Entscheidung innerhalb weniger Tage wieder über den Haufen zu werfen? 

Welche Vorstellungen von Kontrolle über Technologie führen zu solchen Irrwegen? 

TechnologiehysterikerInnen, die in den letzten Jahren in schneller Abfolge Social Network-, Daten- und KI-ExpertInnen wurden, argumentieren auf technologisch-deterministischen Perspektiven. Das bedeutet: Hier ist Technologie der bestimmende und schwer kontrollierbare Faktor. Technologie prägt Gesellschaft, Technologie setzt unausweichliche Prozesse in Gang. Der Mensch ist dabei Passagier. Was im Feld der Technologie geschieht, vollzieht sich mit Notwendigkeit.

Das ist die geeignete Kulisse von Visionen und Prophezeiungen, die oft hereinbrechende Mächte an die Wand malen, die „alles ändern“ werden, deren Auswirkungen man sich „noch gar nicht vorstellen“ kann, die Ungeahntes in Gang setzen werden. Verborgene technische Wirkmächte legitimieren Worthülsen, die in aller Austauschbarkeit vorrangig Aufregung erzeugen und Klarheit gar nicht anstreben.

Dem möchte man entgegenhalten: Technologie ist von Menschen gemacht. Technologie reflektiert soziale Ziele, Erwartungen und Bedürfnisse. Technologie ist beeinflussbar. – Das zeichnet noch nicht unbedingt ein freundlicheres Bild. Es bleibt offen, wessen Ziele und Erwartungen in die Entwicklung von Technologie fließen. 

Müssten hier bereits Robotergesetze ansetzen? 

Weder in einem technologisch deterministischen noch in einem sozial deterministischen Verständnis von Technik lassen sich klare Entwicklungslinien prognostizieren. 

In der einen Perspektive möchte man lieber „die Technologie“ besitzen, in der anderen „die Menschen“. 

In der einen Perspektive ist Technologie Kapital, in der anderen hat sie wenig intrinsischen Wert. Einmal herrscht der Glaube, eine Lösung  gefunden zu haben, etwas vorläufig endgültig geregelt zu haben, einmal ist die führende Idee, alles wäre im Fluss. Einmal erinnert es an die Entführungen von Physiker und Atomwissenschaftler durch Sowjets, einmal daran, dass diese Entführungen nichts Nennenswertes hervorbrachten. 

Die Open AI-Posse stellt einen Aufsichtsrat bloß, der glaubt, mit theoretischen und strategischen Prinzipien managen zu können. Das geht heute nicht mehr. Das sollte die eigentliche Essenz für Manager und Chefinnen sein, die meinen, vom Schreibtisch weg entscheiden zu können. Sie können verhindern und zerstören, im besten Fall das Verhindern verhindern. Aber sie können keine konkreten Ergebnisse herbeiführen. Das machen heute jene, die Technik verstehen und damit Dinge in Gang setzen können. Die anderen sind Passagier.

Das bedeutet auch – es wird Zeit für ein fünftes Robotergesetz: Du sollst den Roboter verstehen lernen. Sonst bleibt jede Diskussion über sozialen oder technischen Determinismus bloße Geräuschemacherei.