Definitionen und die Rumpelkammer der Logik

„Fakten sind doch per Definition wahr!“ – das hielt mir unlängst jemand entgegen, der meine Notizen zu Knorr Cetinas „Die Fabrikation von Erkenntnis“ gelesen hatte. Das ist ein interessanter Einwand – allerdings weniger seiner eigentlichen Intention nach, sondern weil damit die Rolle und Funktion von Definitionen in den Mittelpunkt gerückt werden.

Kurz zum Ausgangspunkt: Knorr Cetina vertritt pragmatisch-konstruktivistische Positionen zu Wahrheit und Erkenntnis. Denen zufolge finden wir keine Fakten, wir nähern uns nicht einer Realität, die es zu entdecken gilt, sondern wir – je nach Perspektive – einigen uns auf Fakten, wir schaffen sie oder wir setzen sie innerhalb eines Regelsystems, um innerhalb dieses Systems weiterarbeiten zu können. Grundsätzlich ist das in der Wissenschaftsphilosophie seit der Kritik an Francis Bacon und dessen Idee, einen über der Welt liegenden Schleier lüften zu wollen, weitverbreiteter Konsens. Also etwa seit der Mitte des 17. Jahrhunderts. Gerade unter Menschen, die viel mit scheinbar einfachen und klaren Zusammenhängen zu tun haben – oft im Finanzbereich, manchmal auch unter Technikern – ist diese Sichtweise heute noch umstritten. Eigentlich ist das zu kurz gegriffen: Es stößt manche nach wie vor vor den Kopf. Und dann entstehen solche Gegenargumente wie jenes mit den Definitionen.

Definitionen kommt bei allen Auseinandersetzungen mit dem Themenkreis rund um Daten, Fakten oder Wahrheit eine tragende Rolle zu. Definitionen machen Begriffe greifbar, so dass überhaupt erst sinnvoll darüber gestritten werden kann, ob etwas wahr ist oder nicht. Zugleich ist die Notwendigkeit von Definitionen aber ein Hinweis darauf, dass ein Begriff problematisch ist und nähere Untersuchung braucht.

Definitionen von Daten, Fakten und Wahrheit sind so alt wie die moderne Wissenschaft selbst. Die frühen experimentierenden Wissenschaftler der Royal Society des 17. Jahrhunderts schufen durch ihre Experimente Fakten, die ganz gezielt als möglichst neutrale, nicht näher zu hinterfragende, aber durchaus interpretationsbedürftige Wissenselemente zu sehen waren. Fakten waren etwas Wahrnehmbares und Messbares. Wahrheit allerdings war etwas anderes. Beobachtbare Fakten führten Robert Boyle, Experimentator mit der Luftpumpe, zu der Annahme, es müsse so etwas wie einen luftleeren Raum geben. Rationalistische Dogmatiker wie Thomas Hobbes schlossen aus den gleichen Fakten, dass dort, wo keine Luft war, Äther sein müsse – denn Leere könne es nicht geben.

Fakten sind etwas gemachtes – das sagt schon der Wortstamm.

Umso größerer Hoffnungsträger waren Daten. Schließlich suggeriert deren Wortstamm, sei seien simpel gegeben. Nachdem Daten aber ebenso gewissen Kriterien, in mancherlei Hinsicht sogar bestimmten Formaten entsprechen müssen, stellt sich auch hier bei geringfügig näherer Betrachtung heraus: Daten sind nicht so einfach, sie sind auch nicht gegeben, sie sind ebenfalls gemacht. Wie Fakten. Oder sie sind zumindest gesammelt – Data sind eigentlich Capta, um bei lateinischen Wortstämmen zu bleiben.

Das führt jetzt endlich zu Frage der Definitionen. Definitionen sind etwas anderes als Theorien und als Kriterien. Eine Definition von etwas liefert noch nicht unbedingt Hinweise dafür, wie etwas als das Definierte zu erkennen sei. Beliebte Beispiele dafür kommen aus der Chemie: Die Definition von Flüssigkeiten als sauer oder basisch setzt an deren pH-Wert an. Das Kriterium, um über diese Eigenschaft einer Flüssigkeit zu entscheiden, liefert die Färbung eines Teststreifens. Eine Definition hat also recht wenig mit Wahrheit zu tun oder mit der Frage, ob die als notwendig definierten Eigenschaften tatsächlich vorliegen. Das muss auf anderer Ebene festgestellt werden.

Die Wissenschaftstheorie kennt mehrere Arten von Definitionen:

Stipulative Definitionen legen die Bedeutung eines Begriffs fest. Oft führen stipulative Definitionen neue Begriff ein, die als Kürzel für bislang mit mehreren Bedingungen beschriebene Sachverhalte eingesetzt werden.

Deskriptive, nominale Definitionen beschreiben, sie erklären etwas mit anderen Worten. Oft werden dabei auch Kriterien aufgezählt.

Reduktive Definitionen schließlich führen Begriffe auf Bekanntes zurück. Reduktiv definierte Begriffe sind Kombinationen anderer, als bekannt vorausgesetzter Begriffe.

Deskriptive und reduktive Definitionen funktionieren im Idealfall ähnlich wie Mathematik. Sie setzen auf einem funktionierenden akzeptierten System auf, so wie Mathematik etwas herleiten, berechnen oder beweisen kann, weil es zuvor so festgelegt wurde. Das Ergebnis einer mathematischen Fragestellung ist immer schon in den Regeln der Mathematik enthalten. Aber manchmal sind die Regeln kompliziert anzuwenden. Dennoch: Regeln sind meistens Konventionen. Ihre Wahrheit liegt darin, dass sie akzeptiert sind. Oft basieren Regeln auf Näherungen (wie bei der Arbeit mit Funktionen und Ableitungen), manchmal sind sie auch Erfindungen, deren Zweck es ist, etwas möglich zu machen – so wie imaginäre Zahlen eingeführt werden mussten, weil die bislang geltenden Regeln bei manchen Prozessen trotz korrekter Ausführung unmögliche Ergebnisse produzierten. Eine Wurzel aus -1 kann das Ergebnis einfacher Rechnungen sein, aber sie kann mit diesen einfachen Rechnungen nicht dargestellt werden.

Deskriptive und reduktive Definitionen sind analytische Techniken. Vorher hergestellte Zusammenhänge werden nachher untersucht. Daher eignen sie sich nicht für die Arbeit mit großen unscharfen Begriffen wie Wahrheit. Das zeigt sich nicht nur in der Mathematik. Auch das Rechtssystem ist ein komplexes geschaffenes System, das erst geschaffen wurde, dann analysiert und auf seine Grenzen hin untersucht wird – und dabei so behandelt wird, als wäre es Gesetz …

Synthetisches dagegen ist immer spekulativ. Stipulative Definitionen sind synthetisch, sie stellen neue Verbindungen her. Sie führen einen Begriff ein und geben ihm eine Bedeutung, oder sie finden ein Wort für eine bestehende Situation. Stipulative Definitionen haben soviel mit Wahrheit zu tun wie die Benennung eines neuen Asteroiden oder eines neuen Insekts mit ihren EntdeckerInnen – es heißt nun mal so, weil jemand das so vorgeschlagen hat. In bezug auf die Ausgangsfrage und Fakten bedeutet das: Wenn man möchte, kann man durchaus Fakten als per Definition wahr definieren. Das bedeutet aber noch lange nicht, dass diese Definition auch wahr ist.

Denn „per Definition“ bedeutet: Innerhalb dieser Regeln (und dann meist nur noch implizit: auf die wir uns geeinigt haben, die ich voraussetze, zu denen ich aktuell keine Alternative sehe ) gilt dieses oder jenes. „Per Definition“ schließt daher, wie jeder Appell, immer ein: Es könnte auch anders sein. Deshalb brauchen wir Regeln, deshalb wollen wir uns abgrenzen.

Tritt das einen endlosen Regress los, in dem immer weiter Abgrenzungen und Regeln notwendig werden, in dem wir immer weitere Bedingungen akzeptieren müssen? Am Beispiel von Fakten: Fakten sind wahr, weil sie durch bestimmte Prozesse wissenschaftlichen Arbeitens gewonnen wurden und geprüft werden können. Diese Prozesse sind relevante Qualitätskriterien, die sich unter der überwiegenden Mehrheit von Wissenschaftlerinnen etabliert haben. Sie haben sich etabliert, weil sie Kritik, Diskussion und Nachvollziehbarkeit ermöglichen. Das sind relevante Merkmale wertfrei und neutral geführter Diskurse. Wertfrei und neutral sind wichtige Eigenschaften, die nicht den Blick auf Tatsachen verstellen. – Solche Diskussionen, die Wissenschaftstheorie, -philosophie und -soziologie seit den 70er Jahren beschäftigen, sind zuletzt in Verruf geraten. Die Post-Corona-Ratlosigkeit angesichts der vielen katastrophal schlechten Kommunikationsaktivitäten vieler Behörden und Regierungen lassen aber erkennen, dass eben diese Diskussion nicht ganz müßig ist. Wissenschaft wurde verunglimpft, überstrapaziert, verachtet, mit Verantwortung überladen – alles weil unausgesprochen blieb, welche Spielregeln für das aktuell verfügbare Wissen galten und nach welchen Regeln die dadauf aufbauenden Empfehlungen zustandegekommen waren.

Allein die theoretische Möglichkeit des Regresses (Harry Collins hat diesen Regress in vielen Laborsituationen beschrieben) ist für viele Kritiker, die sich für vernunftorientiert halten, Frevel an den vermeintlichen Errungenschaften der Aufklärung, der Punkt, an dem rationale Diskussion unmöglich wird und reiner Unklarheit, Ungewissheit und langweiligen Wiederholungen weicht. Auch für jene, die hier ein Abenteuer sehen, beginnt hier dünnes Eis. Es ist aber nicht nur Knorr Cetina, die hierzu Orientierung und Argumentationshilfe liefert. David Bloor mit der Wissenschaftssoziologie, Ludwik Fleck mit den Überlegungen zur Entstehung einer wissenschaftlichen Tatsache, die Urahnen der Wissenschaftstheorie Kuhn und Lakatos, und, möglicherweise unfreiwillig, auch Karl Popper sind Zeugen, die man hier anrufen kann.

Wir befinden uns mitten in der Rumpelkammer der Logik. Die Rumpelkammer erfüllt ihren Zweck dadurch, dass sie vergessen werden kann. Sie enthält vieles, das uns aktuell vor ein Problem stellt, das wir nicht in unmittelbarer Nähe oder in unserem Sichtfeld haben möchten, von dem wir aber glauben, dass wir es später noch mal brauchen können. Vielleicht wissen wir auch gerade nicht, was es ist, aber es sieht wichtig aus. Oder es hat irgendeine sentimentale Bedeutung für uns. Solange die Rumpelkammer noch Dinge aufnehmen werden kann und die Tür nachher noch geschlossen werden kann, ist die Welt in Ordnung. Jede Theorie, jede Form von Logik braucht diese Rumpelkammer. Sogar Mathematik lässt hier vieles verschwinden und beweist, was sie vorher definiert hat, ohne sich Gedanken über die Grundlagen dieser Definitionen zu machen (die natürlich praktisch, pragmatisch und in diesem Sinn richtig sind – aber auch anders sein könnten). In der Rumpelkammer landen Anomalien, Unerklärliches, das in viele Einzelteile zerlegt und erklärt werden kann. Es gibt keine durchgängig rationalen Erklärungen dafür, warum manches in der Rumpelkammer landet und anderes im Salon ausgestellt wird. Die Erklärungen sind Wert- und Geschmacksurteile oder zweckorientierte Schlusssfolgerungen.

Deshalb entstehen Probleme vor allem dann, wenn die Rumpelkammer geöffnet wird. Vielleicht ist kein Platz mehr, vielleicht hat jemand eigenartige Geräusche gehört, vielleicht erliegen wir auch nur dem alle paar Jahre wiederkehrenden Rappel, ausmisten zu wollen (obwohl wir uns dann ohnehin kaum von etwas trennen können). Dann müssen wir uns der Frage stellen, warum wir etwas aufheben oder wegwerfen, welchen Wert wir diesem Gegenstand (also diesem Argument) beimessen, was wir noch brauchen, damit diese alten Sessel im Salon gut aussehen (also unter welchen Voraussetzungen ein Argument sinnvoll sein kann) – und das führt oft zu Ärger.

Definitionen zu hinterfragen, das führt ebenso in die Rumpelkammer. Da muss aufgeräumt, neu sortiert und abgestaubt werden – und auf dem Weg dorthin stellt man sich viele unliebsame Fragen, denen man lieber nie begegnet wäre. Wenn wir verständlich bleiben wollen, dann schließen wir die Tür zur Rumpelkammer möglichst bald wieder – neue Definitionen haben das Potenzial zu Missverständnissen, langwierigen Diskussionen und größeren Veränderungen, als man sie eigentlich anstoßen wollte.

Wenn allerdings zweckmäßige, angemessene und sachlich brauchbare Definitionen mit Wahrheit verwechselt werden, dann müssen wir tief hinein in die Rumpelkammer. Und es ist zu erwarten, dass auf diesem Weg einige Menschen verloren gehen werden, die keinen Sinn darin sehen, die Rumpelkammer aufzuräumen. Deshalb lassen wir sie ja so gerne verschlossen. Aber manches fordert eben dazu heraus …

Karin Knorr Cetina, Die Fabrikation von Erkenntnis

In den 70er Jahren, als dieses Buch erschien, war es revolutionär, heute ist es in Gefahr,  in gefährliche Nähe zu Querdenkern und Esoterikern zu geraten: Karin Knorr Cetina stellt in ihrem Klassiker die Frage nach einer Anthropologie der Wissenschaft. Welche Rahmenbedingungen abseits von instrumenteller Rationalität bestimmen wissenschaftliches Arbeiten? Wie weit kann eine eigene wissenschaftlicher Rationalität isoliert werden, wie weit ist auch Wissenschaft Grundsätzen und Gewohnheiten alltäglichen Handelns unterworfen?

Knorr Cetinas Methode der Laboratory Studies setzt auf teilnehmende Beobachtung – so wie Anthropologen am Leben Indigener teilnehmen und wie es Bruno Latour teilweise noch heute praktiziert. Dazu gehört ein Theoriegerüst, dass sich auf Peirce und Quine stützt und Theoriebeladenheit von Beobachtung als Tatsache akzeptiert.

Daraus entwickelt Knorr Cetina eine Perspektive auf Wissenschaft, die jede Wissenschaft, auch technische Naturwissenschaften, als konstruktiv statt deskriptiv oder reflexiv kennzeichnet. Wissenschaftler schaffen Wissen und Fakten, sie entdecken sie nicht, sie schaffen Gesetzmäßigkeiten und Konstanten, die es ohne Wissenschaft und ihre Methoden nicht gebe.

Der Experimentator im Labor ist für Knorr Cetina eine der kausalen Ursachen seiner Ergebnisse. Wissenschaft ist eher eine Sache der Rechtfertigung als von Entdeckung: Als Ergebnis beschriebene Findings und Prozesse werden erklärt und in passende Zusammenhänge gestellt. Diese Zusammenhänge werden nicht schlicht vorgefunden, sie sind Ergebnis einer Wahl und diese Wahl kann besser oder schlechter gerechtfertigt werden.

Dabei spielt es eine große Rolle, wem gegenüber die Rechtfertigung greifen soll – wenn es wissenschaftliche Peers und Financiers überzeugt, ist es Wissenschaft. Die Ökonomie der Aufmerksamkeit (im eigentlich von Frank intendierten Sinn) bestimmt, wer lukratives Publikum der Rechtfertigung ist. Unterschiedliche Kreise des wissenschaftlichen Publikums bestimmen, wie nachhaltig sich Erkenntnisse etablieren (das hat auch Ludwik Fleck beschrieben).

Das steht im Gegensatz zu klassischen Idealbildern wissenschaftlicher Prozesse. Im Idealbild von Wissenschaft legen ForscherInnen Fakten frei und nähern sich so der Wahrheit. Das ist ein geradliniger Prozess, der von allerhand Störfaktoren beeinflusst werden kann, sich aber geradezu zwangsläufig vollzieht, wenn diese aus dem Weg geräumt sind. Schwächen dieser Annahme hat David Bloor mit seinem Strong Programme der Wissenssoziologie dargelegt. Knorr Cetina legt nach. Sie zieht die Prinzipien wissenschaftlicher Arbeit von Richard Merton in Zweifel: Skepizismus, Desinteresse im Sinn von Unvoreingenommenheit und Kommunismus im Sinn uneingeschränkten Teilens und Veröffentlichen von Erkenntnissen sind nicht die Leitlinien wissenschaftlicher Arbeit. 

Die Rationalität von WissenschaftlerInnen ist vielmehr opportunistisch: Sie orientiert sich an Gegebenheiten und Gelegenheiten. Erfolg ist in der wissenschaftlichen Arbeit relevanter und effizienter als Wahrheit. Bestätigte Hypothesen, reproduzierbare Experimente – das sind Kennzeichen des Erfolgs. Über Wahrheit sagen diese Ereignisse noch nichts aus.

Relevanz der eigenen Arbeit wird mit literarischen Techniken inszenziert. Dazu analysiert Knorr Cetina wissenschaftliche Papers in ihren verschiedenen Versionen bis zur final publizierten und weist nach, wie Begründungen im Verlauf der Finalisierungen reduziert und eliminiert werden und dadurch die vertretenen Hypothesen und Methoden mehr und mehr als selbstverständliche oder einzig mögliche Wahl etabliert werden.

Transepistemische und transwissenschaftliche Komponenten der wissenschaftlichen Arbeit schließlich stellen das Ideal des Kommunismus infrage: WissenschaftlerInnen kämpfen um Ressourcen und Positionen und brauchen beides, um ihre Arbeit fortsetzen und ausbauen zu können. Das sind keine Störfaktoren des wissenschaftlichen Prozesses, sondern notwendige Bestandteile – so wie die Suche nach einem bessern Mikroskop oder einem effizienteren Algorithmus. 

Wissen ist fabriziert – und das ist keine Schwäche oder Schwächung von Wissenschaft. Diese Einsicht stärkt des wissenschaftlichen Prozess und die Perspektive auf Wissen selbst als Prozess, nicht als Produkt. Wissen ist in Bewegung und steht immer in Beziehungen. Das ist eine pragmatische und konstruktivistische Perspektive, die weitaus dynamischere Beziehungen als Korrespondenz oder Konsistenz als Relevanzkriterien ansetzt. Das bedeutet auch: Es gibt viele verschiedene Gründe, warum etwas als wahr oder wissenschaftlich relevant angesehen werden kann. Und nicht alle dieser Gründe sind immer offenbar und für jedermann nachvollziehbar; sie entsprechen oft nicht dem ideal neutraler wertfreier unbeeinflusster Neutralität.

Diese pragmatische Wahrheitssicht ist durch Technowissenschaften zuletzt etwas in den Hintergrund geraten. Wo mehr gerechnet wurde schien es, als wäre auch Wahrheit eine Frage korrekter Rechenvorgänge und damit eindeutig und für alle nachvollziehbar. 

Gerade für Technowissenschaften ist es aber jetzt um so wichtiger, zweck- und kontextorientierte Konzepte von Wissenschaft und Wahrheit zuzulassen und zu verstehen. Wie sonst sollen Daten interpretiert werden können, sie sollen Algorithmen beurteilt werden können, wie sollen Fortschritte von Machine Learning eingeschätzt werden können? Abbildungs- oder entdeckungsorientierte Wahrheits- und Wissenschaftskonzepte ergeben keinen Sinn mehr, wo gerechnet, entschieden, berechnet und programmiert wird.

Überall dort, wo Technik eine relevante Rolle spielt, ist pragmatischer Konstruktivismus die angemessene Sicht auf Wissenschaft und Wahrheit. 

Blättern in Paralleluniversen

Sie begegnen den Neugierigen öfters auf Twitter, man hört von dem einen oder andere Affront, im eigenen Alltag sind sie aber völlig irrelevant: Neokonservative Blätter wie Pragmaticus oder Weltwoche tragen die intellektuelle Nase hoch. Aber was ist dran? Neulich in der Bahnhofsbuchhandlung bin ich meiner Neugierde erlegen. Ich musste mal in die Horte der Cancel Culture-Kritik schnuppern. 

Es sind ja alles kluge Leute. Es verwundert allerdings, wenn in Leitartikeln wiederholt betont wird, wo die Wahrheit zu finden sei. Nämlich genau hier. Im Pragmaticus schreiben Expertinnen „unverfälscht“, erklärt Andreas Schnauder. Und die Weltwoche tritt gar an, um die „Wogen des Wahnsinns“ in der Welt zu glätten, lässt uns Roger Köppel wissen. Das ist interessant. Beide verschreiben sich also der Agitation. Insbesondere der Pragmaticus, der ExpertInnen den Vorrang gegenüber JournalistInnen einräumt, verabschiedet sich damit von der Idee der analysierenden Berichterstattung. Da schreiben Think Tank-Mitarbeiter über Gaza oder über Zinsen und bringen damit natürlich eine Agenda ins Blatt, ein Pro, das großzügig auf sein Kontra verzichtet. Man kann das machen, das ist nicht unseriös, reine Pro-Kontra-Gegenüberstellungen sind ebenso vorhersehbar langweilig und reden öfter aneinander vorbei als miteinander – aber man sollte es nicht Journalismus nennen. Wer sich mit solchen Texten, die etwa so vorhersehbar spannend sind wie ein Fernsehabend mit Schlagerrevue (gibts sowas noch?), unterhalten möchte, kann das gerne tun. Viele schätzen ja die Vorhersehbarkeit.

Manchmal verwundern aber kognitive Dissonanzen. Die aktuelle Pragmaticus-Ausgabe etwa stellt sich dem Thema Verbote. Da werden Freiheitsbilder heraufbeschworen, da sind Essverbote in öffentlichen Verkehrsmitteln Akte der Knechtschaft. Gestern im Zug neben mit hat eine Gruppe Schüler übelriechende panierte Klumpen von KFC aus großen Eimern gefuttert, Helden des Freiheitskampfes also, denen man dereinst Denkmäler setzen wird. Da wird das Hinwegsetzen über Verbote von jenen gefordert, die zugleich auf Integration pochen. Mit dem 911er mit 200 Sachen über die Autobahn brettern ist ok, bei der Hochzeitsparty mit der Schreckschusspistole in die Luft ballern ist Zeichen mittelalterlicher Rückständigkeit. Gehört verboten.

Da beanspruchen „Kulturphilosophen“, das „gesamte Panorama“ westlicher Geisteshaltungen über die Jahrhunderte im Blick zu haben und beklagen eine schleichende Moralisierung – klar, vor ein paar Jahrhunderten gaben das nicht, da haben wir alles kühl und rational durchdiskutiert mit Feuer und Schwert.

Coronaverbote waren schlimme Eingriffe in die Freiheitsrechte und nur mal ein Vorgeschmack auf die heraufdräuenden Klimaverbote. Klimawandel kann übrigens nicht ganz so schlimm sein: Schließlich haben Eisbären auch die Eem-Warmzeit von 130.000 Jahren überlebt, lernen wir auch in dieser Ausgabe.

Am deutlichsten abgelehnt werden einer Umfrage im Heft zufolge im übrigen Verbote beim Autofahren, egal ob Tempolimits oder Verbrenner-Aus, gefolgt von Drogen- und Alkoholverboten. Wenn der moderne Freiheitskämpfer also seinen KFC-Kübel im Zug aufgegessen hat, raucht er einen Ofen und fährt betrunken Auto.

Immer noch besser, als kognitiv invasivem Nudging zum Opfer zu fallen. Auch davon lernen wir im Pragmaticus. 69% befragter Menschen fühlen sich übrigens von Medien bevormundet; diese wollten Meinungen durchsetzen oder aufzwingen. Bevormundend, btw, finde ich die „Conclusio“-Boxen am Ende des Artikels, die noch einmal zusammenfassen, was man jetzt wirklich aus dieser Story mitnehmen soll – um Menschen vor dem anstrengenden Missverständnis zu bewahren, eigene Schlüsse zu ziehen. In den Headlines der Conclusio-Boxen steht auch was von „Fakten“. Dazu muss man sagen: Fakten vertragen sich nicht mit dem häufig dort verwendeten Konjunktiv. „Fakten“ im Konjunktiv sind Hypothesen. Das ist auch nichts schlechtes. Aber doch etwas deutlich anderes.

Und die Weltwoche? Wenn Roger Köppel nicht gerade Wogen des Wahnsinns in der Welt glättet (wenn das im übrigen kein bevormundendes investives Nudging ist …) ist er offenbar sehr fleißig. Eine ganze Reihe von Storys und Interviews in diesem Heft sind von ihm selbst. Dazu kommen noch einige Essays und Kolumnen von Russland-Verstehern, Analysten im wilden Infight mit Strohmännern, Vernunftapologeten, auf die, blättern man einmal um, Interviews mit Wirtschaftsastrologen folgen, die Markenhoroskope erstellen, und, Achtung, auch Tom Kummer führt hier wieder Interviews. (Für die Nachgeborenen: Kummer war der Interview-Star der späten 90er Jahre, dem Hollywood und der Rest der Welt intimste Geheimnisse für das Magazin der Süddeutschen verrieten. Nur hatten viele dieser Interviews nie stattgefunden. Kummer verschwand für einige Jahre. Chefredakteur des SZ-Magazins war damals, dann nicht mehr, Ulf Poschardt.)

Weltwoche-Kolumnisten befleißigen sich gern einer ausufernd adjektivüberladenen Sprache und liefern Takes, zu denen Menschen außerhalb ihres Gedankenuniversums erst mal nachrecherchierten müssen. Teilweise, weil ich noch nie von der Sache gehört habe, teilweise, weil die vertretene Perspektive so schräg ist, dass sie dazu herausfordert, sich neue Fakten zu verschaffen. So wird etwa Serbien als technologisches und soziales Fortschrittsland des Balkan beschrieben. Hatte ich so noch nicht gehört. Ein andere Kolumnist freut sich über eine ganze Schulklasse ohne Handys, „und alle verstanden Schweizerdeutsch“. Und es wird gefeiert, dass das kritische Buch der Autorin Michèle Binswanger über die von einem Kollegen missbrauchte Politikerin Jolanda Spiess-Hegglin erscheinen konnte. Binswanger wurde vor einigen Monaten erst wegen der Verleumdung von Spiess-Hegglin verurteilt; zwischen der Weltwoche und Spiess-Hegglin gab es ebenfalls einige Rechtsstreitigkeiten.

Und auf all dieses Durcheinander folgt ein schöner Kultur- und Rezensionsteil, den ich ohne die Zeitung davor vielleicht sogar öfter lesen würde.

Beide Magazine beklagen immer wieder Welten ohne Halt und sie versuchen, diese aufzuhalten. Beim Pragmaticus ist hypostasierte Vernunft wie aus dem Cancel Culture-Kritik-Lehrbuch das Gegenmittel der Wahl. Köppel beklagt überhaupt öfters ein beerdigtes Christentum.

Es ist schön und manchmal beneidenswert, wenn man sich mit solchen Retrospektiven beschäftigen kann. Es ist verständlich, dass Nostalgie ihr Publikum findet. Es ist auch erschreckend, dass sich diese Spielart von Medien weniger Zukunftssorgen machen muss als andere Formate.

Sowohl der Pragmaticus als auch die Weltwoche erfüllen die Funktion, LeserInnen einen sicheren Hafen zu bieten. Sie ordnen ein, urteilen, verurteilen – auch und gerade wenn sie beanspruchen, das Gegenteil zu tun. Sie bieten erwartbare Meinungen in überschaubarer Zahl. Es ist eine Art intellektueller Boulevard, der weit ausholt und dann doch immer wieder bei den gleichen Erwartbarkeiten landet.

William Macaskill: What we owe to the future

Longtermism hat viel Keulen- und Bullshit-Potenzial. Keulen-Potenzial, weil sich mit Verweis auf Diverses, das sich in Zukunft noch ereignen möge, vieles erschlagen lässt. Bullshit-Potenzial, weil auch einfache Kriterien wie Schlüssigkeit und Konsistenz, mit denen sich Argumente üblicherweise befestigen lassen, im Schatten von Millionen kommender Jahre, in denen sie vielleicht einmal relevant werden, zu zähem Brei zerfließen. 

Ich habe Schwierigkeiten mit William Macaskills „What we owe to the future“. Dabei sind seine zentralen Argumente durchaus eingängig. Wenn nicht grob etwas schiefgeht, werden in Zukunft noch unfassbar viel mehr Menschen auf unserem Planeten leben, als bisher gelebt haben. Das sollte verdeutlichen, dass die Zukunft wichtiger ist als unsere Vergangenheit, jedenfalls aber als unsere eigene Lebenszeit. Und weil unsere Handlungen Einfluss auf die Lebensqualität der unfassbar vielen Menschen haben, die noch leben werden, sind wir mit unseren Handlungen also für das Wohlergehen unfassbar vieler Menschen verantwortlich. Das gilt für jede Handlung und für sehr lange Zeit. 

Entwicklungen vollziehen sich nicht zwangsläufig und nicht von selbst. Macaskill wendet sich aber nicht gegen Formen von technologischem oder anderem Determinismus, er lässt nur kein Schicksal gelten. Das ist eine schwache Erklärung. Denn historische Entwicklungen nehmen ihren Lauf  und werden von diversen Abhängigkeiten und Entscheidungen beeinflusst – weshalb jede unserer Handlungen eben so wichtig sei. Das ist nun nicht von der Hand zu weisen, aber hilft das bei Entscheidungen? Selbst wenn wir klare Vorstellungen davon hätten, wie das Leben von Menschen in zehn, tausend oder einer Million Jahren besser wäre – wie können wir eine Linie von unseren Entscheidungen zu dieser Verbesserung ziehen? Und selbst wenn wie das für unsere Entscheidungen können, wie können wir das für die hunderttausenden Entscheidungen, die in dieser Sache noch getroffen werden, während wir dann gar nicht mehr da sind? Ist die einzige Sicherheit, eben alle folgenden Generationen auch zu Longtermisten zu erziehen? 

Macaskill skizziert unterschiedliche Frameworks, nach denen eigene Handlungen beurteilt werden können oder mit denen Kausalitäten und Verantwortungen nachgezogen werden können. Die Flughöhe ist dabei sehr hoch und man muss schon Freude an Visionen, Spekulationen und dem Gewicht der eigenen Rolle dabei haben, um darin Sinn oder Nutzen zu erkennen. 

Es verwundert nicht, dass Longtermism unterschiedliche Ausprägungen und Apologeten findet. 

Eine Richtung setzt auf Lehrbuch-Liberalismus und Kapitalismus und argumentiert im longtermistischen Framework etwa dagegen, Schwachen zu helfen oder Schwächen auszugleichen. Langfristig nämlich sei das gleiche Kapital bei Stärkeren besser angelegt. Die Unterstützung Starker trage also mehr dazu bei, in Summe das Wohlbefinden aller zu steigern. Ähnliche Argumentationen sollen sich etwa bei Peter Thiel und anderen Tech-Ideologen finden.

Aber auch Macaskills eigene praktische Konsequenzen sind schließlich Karriereberatung für wohlmeinende young professionals. Die Marke 80000hours bemüht sich um Sinn im Job. 80000 Stunden verbringt ein Mensch im Lauf seines Lebens mit seinem Brotjob. Das ist viel Zeit. Die sollte erstens möglichst mit Freude verbracht werden, zweitens sollte sie, im Sinn des Longtermisms, mit etwas Nützlichem verbracht werden. Beides zusammen, Freude und Relevanz, erhöht die Chancen auf gelingende Karrieren. Auch daran ist nichts falsch. Aber es ist auch ein eigenartiges Fundament für philosophische Argumentation über das Gute in der Welt. 

80000hours.org sammelt trotzdem sehr ausführliche und hilfreiche Analysen über wichtige Anliegen für die ganze Welt – und bietet damit Inspiration, wie auch der eigene Alltag im größeren Zusammenhang für das Gute gesehen werden kann. Dann sind dann doch wieder Punkte für den Longtermism, auch wenn Macaskills Überbau nach wie vor nicht überzeugend ist. 

Am Ponyhof der Digitalisierung

Trends und neue Entwicklungen schön und gut, aber am Ende des Tages hat jeder Tag ein Ende. Dann muss etwas erledigt sein – darin sind sich Zeitungen und Bauernhöfe tatsächlich nicht so unähnlich. Ich weiß das aus Erfahrung aus beiden Branchen.

Und das ist nicht nur eine Metapher. 

Digitalisierungsprojekte in einem Zeitungsverlag unterscheiden sich gar nicht so sehr von der Digitalisierung eines Bauernhofs. Beide betreiben altes Handwerk, in dem sich trotz aller Umbrüche in den grundlegenden Rahmenbedingungen nur sehr wenig verändert hat. 

Zeitungen erscheinen täglich, das Vieh muss täglich gefüttert werden. Redaktionen sind grundsätzlich praktisch unführbare Organisationen, Bauern sind traditionell Sinnbilder von Sturheit.

Und in beiden Branchen spielen öffentliche Förderungen wichtige Rollen. 

Aber der Reihe nach. 

Egal in welchem Stadium digitaler Transformation eine Zeitung heute ist, es heißt immer: Zu wenig, zu spät, zu alt, zu phantasielos. Man blickt neidisch auf entfernte Vorbilder, denen dank internationaler Reichweite und Relevanz Sagenhaftes zugetraut wird. Man staunt über das nächste Gen Z/Social First/datadriven/ultratargeted Medienspinoff, dessen Reichweiten dann doch humorvoll niedrig sind und dessen Kommerzialisierungspläne in einer fernen Zukunft liegen, in der auch der heute trendigste Kram wieder hoffnungslos veraltet sein wird.

Rezepte liegen auf der Hand; Daten, Engagement, Loyalty müssen her. Allein auch hier gilt: Was sehr viele schon sehr lang als Lösung alter Probleme beschreiben, wird wohl doch allein keine ganz patente Lösung sein – sonst gäbe es die Probleme nicht mehr.

Funktionierende Lösungen sind die Feinde der guten Lösungen. „Es hat noch jeden Tag funktioniert“ ist die intelligentere Version von „Das haben wir immer schon gemacht.“ In einer Umgebung, die jeden Tag Ergebnisse bringen muss, gewinnt dieser Einwand aber deutlich und zurecht an Gewicht. Zeitungen bringen keine täglichen virtuellen Ergebnisse im Sinn von Fortschritt oder erreichten Meilensteinen, es sind tägliche reale Produkte, die geplant, umgesetzt, geprüft und verkauft werden müssen. Das ist unaufschiebbar, es gibt keine Pause-Taste. Es gibt nur eine Stopp-Taste. Die ist allerdings endgültig. Man kann nicht einfach einen Tag aussetzen und dann weitermachen. Nachrichten laufen weiter – so wie das Schaf gemolken werden muss oder wie der Gemüseacker gegossen werden muss.

Das ist ein Problem. 

Das Problem betrifft nicht nur Zeiteinteilung und Priorisierung – es liefert auch Beharrungsargumente. Eben weil jeden Tag ein neues Produkt geschaffen wird und weil es jeden Tag ein neues Ergebnis gibt, kann, so die Position, auf der beharrt wird, der Zustand nicht so schlecht sein. 

Das schafft Resilienz, die kaum noch von Renitenz abzugrenzen ist.

Eine andere Hürde ist die nicht zu verleugnende Abhängigkeit von äußeren Einflüssen und Ereignissen. Man kann mit dem Wetter umgehen – aber wenn Blüten abfrieren, wird es keine Ernte geben, wenn Wasser ausbleibt, wird nichts wachsen. Die Nachrichtenlage beeinflusst die Erfolgschancen für Zeitungen. Natürlich kann man vorplanen, Serien, Ratgeber, Analysen und Servicestorys vorbereiten. Deren begrenzter Erfolg zeigt aber nur ein anderes Problem: Reichweiten, die für kleinere Nachrichtenmedien eine erfreuliche Entwicklung darstellen, sind für größere Zeitungsverlage ein katastrophaler Einbruch. Spektakuläre Ereignisse können nicht geplant werden, aber sie erfordern eine gewisse Größe der Organisation, um sie abdecken zu können – und sie kannibalisieren einander (und die vorbereiteten Service- und Ratgeberstorys erst recht).

Oft bedeutet das: Die Nachrichtenorganisation schleppt viel Overhead mit, der an vielen Tagen überflüssig wirkt. Darauf zu verzichten wird aber schnell zum noch größeren Problem. 

Berater und Marketingspezialisten raten Zeitungen wohlmeinend, sich ihrer Stärken im Erklären und im Herstellen von Zusammenhängen zu besinnen. Zeitungen sollten einzigartige relevante Inhalte liefern, die sich von Social Network- und KI-Geschwätz abgrenzen. Daran ist nicht grundlegend etwas falsch. Es ist nur praktisch sehr schwierig, jeden Tag relevante Einzigartigkeit zu produzieren. Erklärungen, Hintergründe und Zusammenhänge zu irrelevanten Themen können sehr gut und sachlich korrekt umgesetzt sein – allerdings interessieren sie in der Regel kein relevantes Publikum.

Neue Methoden und Diversifizierung sind Wege, neue Zielgruppen anzusprechen und neue Märkte zu erschließen. Selbstvermarktung erhöht die Margen und senkt die Abhängigkeit von Zwischenhändlern; Produzent und Publikum finden direkt zueinander. Das klingt gut. Das bringt aber auch eine Vielfalt neuer Tätigkeiten mit sich, die zu Lasten anderer Aufgaben  gehen. Das Tempo der Diversifizierung sinkt mit der Intensität der Diversifizierungsmaßnahmen. Wer in Veränderung drin steckt, kommt nicht so leicht mehr raus, wer Trends perfektioniert absurft, verliert Substanz. Wer von Tiefkühlgemüse und Billigfleisch auf nachhaltigen biozertifizierten handgemachten Slowfood-Schafkäse umgestellt hat, kann trotzdem noch Probleme mit Veganismus oder Blauzungenkrankheit bekommen.

Medienunternehmen, die das Social Media-Spiel und damit vermeintlich ihre Präsenz bei begehrten jüngeren Zielgruppen optimiert haben, müssen sich die Frage stellen, wie sie ihre Präsenz auf fremden Kanälen gewinnbringend nützen. Umwegrentabilität über Bekanntheit ist für Newcomer relevant; wer schon einmal ein Abo verkauft hat, möchte darüber hinaus. Perfektionierte Plattformpräsenz hat stets Vice demonstriert – mit Erfolg. Vor zehn Jahren war die Frage, ob Google Vice kauft oder doch Vice Google. Vice-Beiträge performten überall, gestandene Medienmanager staunten, dass es so etwas wie Revenue Sharing bei Youtube gab. Der Plattform-Erfolg führte dazu, dass es schlicht nicht mehr notwendig war, eigene Vice-Plattformen aufzurufen. Im Mai 2023 war Vice insolvent. Die Regionalisierung in immer irrelevantere Lokalausgaben hat dieser Entwicklung noch den Rest gegeben.

Heute wird TheNewsMovement gefeiert – die Social Media-Reichweiten liegen allerdings hinter jenen der Oldschool-Zeitungs-Platzhirschen aus Medien-Zwergstaaten wie Österreich. Und der Movement-Gründer tauschte sein Startup gegen die Chefrolle des Tankers Washington Post.

Landwirtschaften erzielen oft auch auf Umwegen Einnahmen. Manchmal sind es nicht Produkte, die Geld bringen, sondern der Verzicht auf eben diese Produkte. Dann werden Landwirt für Landschaftspflege bezahlt oder für zu Zulassen von Wildnisstreifen.

Auch das kann eine valide Option für Medienunternehmen sein. Das Internet braucht Inhalte. Es ist nicht gut zu ihnen und in ständigen Wellenbewegungen sind mal die Inhalte, mal die Technik wichtiger. Und dank generativer KI erzeugt sich Technik ihre Inhalte selbst. Ist das Match also gelaufen? Nein. Wer schon mal einen der abgeschlossenen KI Bots wie Chat GPT bedient hat, die keine neuen Inhalte verarbeiten können, ist bald enttäuscht. Das zeigt: Auch KI muss ständig dazulernen. Und dazu braucht sie Material. Ist es ein realistisches Szenario, dass in absehbarer Zeit Tech-Unternehmen Lizenzen an Medien zahlen, um deren Inhalte verarbeiten zu dürfen? Dazu gibt es bereits erste Ansätze; Tech-Unternehmen zeigen sich, nach den Lizenzstreitigkeiten der vergangenen Jahre, Medienunternehmen gegenüber großzügig. Werden Medienunternehmen diese Großzügigkeit und damit möglicherweise einhergehende Abhängigkeiten überleben? Das ist offen. Die erste große Kooperationswelle, als Telekomunternehmen rund um das beginnende Jahrtausend begannen, Medieninhalte zu kaufen um sie neu zu bündeln und zu verpacken, war für Medien kurzfristig lukrativ, führte sie aber konsequent auf die schiefe Bahn, auf der sie sich heute befinden.

Man freut sich über jeden Keim. Es ist toll, wenn Pflanzen aufgehen, es ist toll, wenn Pläne aufgehen. Auch die in den Himmel rankende Bohnenpflanze hat sich einmal mit einem feuchten Wattebausch begnügt. Davon können umgekehrt Medienunternehmen lernen. Medien und Digitales – hier zählt alles oder nichts, der Sieger drängt den Rest in den Graben. Dabei liegen neue Chancen in den Details. Datengetriebene und effizienzorientierte Perspektiven müssen lernen, auf die feinen Unterschiede zu achten und die kleinen Entwicklungen schätzen zu lernen. Das ist eine der härtesten Lektionen für aufmerksamkeitsverwöhnte Medienmenschen. Und vielleicht eine, die man wirklich und besser vom Ponyhof lernt. – Oder dort, wo jeden Tag ein echtes handwerkliches Produkt, das auch jemand kaufen wollte, fertig werden musste. So wie eine Zeitung. 

Adrian Daub: Cancel Culture Transfer

Die Erwähnung von Cancel Culture ist oft ein verlässlicher Indikator dafür, dass man gerade einen geist- und belanglosen, großteils faktenfreien Text liest, in dem in der Regel kulturpessimistisch eingestellte Schreibende Phrasen recyceln. Verschärft wird dieser Umstand, wenn Umstände an nicht näher genannten „amerikanischen Universitäten“ als Belege genannt werden.

Adrian Daub zeichnet die Entstehungsgeschichte des Begriffs und seiner Übersiedlung aus den USA nach Europa mit einer Fülle historischen Materials nach. So klärt er etwa auch die Frage, was mit Canceln eigentlich gemeint ist. Ist es tatsächlich Auslöschung, radikales Entfernen, Beseitigen, das an Wegsperren und Straflager mahnt? Die historischen Ursprünge dürften in dem Hashtag #cancelcolbert liegen, mit dem eine Twitteruserin eine missglückte Parodie von Stephen Colbert kommentierte (für die dieser sich später entschuldigte). Cancel bezog sich auf das Absetzen einer Fernsehshow, halbironisch gebraucht von einer Twitteruserin. Die Reaktionen auf diesen Tweet blieben einstellig. Colbert stieg weiter zu einem der erfolgreichsten Comedians der Welt auf.

Cancel Culture funktioniert als Konstrukt der Kritik ähnlich wie Political Correctness. Der Begriff ist eine vage Umschreibung für eine Ansammlung anzuklagender Punkte, konkrete Inhalte können dabei wechseln. Jene, die in den Beschreibungen der Kritiker Cancel Culture betreiben, haben dagegen meistens keinen klaren Begriff von dem, was sie vermeintlich tun.

Cancel Culture-Erzählungen strapazieren Anekdoten und versteigen sich von dort zu unspezifischen Verallgemeinerungen. Daub exerziert das an einer Fülle von gut dokumentierten Beispielen vor. Besonders ergiebige Beispiele liefern dafür Ulf Poschardt und andere One Trick Ponys aus dem Feuilleton. Berühmt ist auch der sogenannte Flipchart-Hoax, den unter anderen sich gecancelt fühlende Berühmtheiten wie Jordan Peterson strapaziert haben. In wechselnden Unternehmen (bei Peterson war es eine Bank) soll das Wort Flipchart aus dem Sprachgebrauch verbannt worden sein, weil es an die Bezeichnung “Flip” für Menschen von den Philippinen erinnere. Das soll Menschen, die sich dagegen verwehren wollten, in Burnout oder andere Probleme getrieben haben. Peterson erzählt die Geschichte als Erlebnis einer seiner Patientinnen. Die Story wurde allerdings einige Jahre vorher (und auch danach) immer wieder in wechselnden Zusammensetzungen mit anderen Unternehmen und ohne Bezug auf Peterson erzählt.

Die Erzählungen der Cancel Culture-Kritiker sind meist vage oder, wie bei Peterson, hyperspezifisch genug, um weder verifiziert noch widerlegt werden zu können. 

Die aggressivsten Formen angeblicher Cancel Culture dagegen lassen sich in ihren Wurzeln recht gut zu den Sprachspielen von Black Twitter zurückverfolgen, zu einer Sprachkultur, die sich nicht an das unverständige Publikum wendet, die sich eigentlich an überhaupt niemanden wendet und keine konkreten Reaktionen erwartet oder Folgen bewirken will, sondern eher eine Art der Poesie darstellt. Sich davon angesprochen zu fühlen – das kann nur zu Missverständnissen führen. Die Darstellung von Daub erinnert an die Auseinandersetzung von Henry Louis Gates mit beleidigenden Rap-Texten, die Gates auf die Figur des Signifying Monkey, einer Legendengestalt der Yoruba zurückführte. Sich von Trash-Talk beleidigt zu fühlen oder eine andere Form der persönlichen Betroffenheit in diesen Texten zu suchen, ist also etwa ähnlich, als würde sich heute jemand von den Texten von Abraham a Sancta Clara oder Francois Villon beleidigt fühlen.

Problematisch ist an Cancel Culture-Texten vor allem, dass sie im gut situierten Feuilleton stattfinden, sich nicht an die angeblich Cancelnden richten, um etwas über deren Gründe zu erfahren oder sie vom Canceln abzuhalten, sondern dass sie sich an ein dankbares Publikum richten, das sich gerne gruselt und empört. Cancel Culture-Kritik ist ein Ritual zur eigenen Bestätigung, das, das schreibt Daub über die New York Times, vor allem Unbehagen darüber zum Ausdruck bringt, dass andere Zuhören und Mitreden dürfen und man nicht unter sich ist. Die Stimmen von außen werden als falsch empfunden. Wenn sie bezug auf identitätspolitische Argumente nehmen, sind sie überdies zu emotional; die Kritik daran dagegen wird als Kern der Vernunft gesehen.

Daub sammelt eine Reihe weiterer Belege für die schlechte Argumentationsqualität von Cancel Culture-Kritik, streift Identitätspolitik, Gendern und andere Verwandte dieser Debatten und weist auch auf die teilweise großzügige Dotierung von Cancel Culture-Kritik oder angeblicher Cancel Culture-Dokumentation durch konservative Stiftungen und Think Tanks hin. 

Gibt es einen Ausweg aus diesem recht festgefahrenen Dilemma, in dem seit über 30 Jahren, seit dem Aufkommen der ersten Political Correctness-Kritik, keine neuen Argumente mehr greifen? Daub erwähnt eine Möglichkeit gleich zu Beginn seines Texts: Diejenigen, die ohnehin nicht gemeint sind, die von Cancel Culture nicht betroffen sind, könnten schlicht von etwas anderem reden. Das ist allerdings insofern unwahrscheinlich, als sich die mit Cancel Culture-Kritik einhergehende Inszenierung für viele auch als Prominenzbooster erwiesen hat. Nachvollziehbare Fälle von Canceln finden sich dagegen eher unter Schwächeren: Daub skizziert dazu Diskussionen aus gender- und herkunftssensibler Fantasyliteratur. Dort kann der falsche Ton zu bestimmten Identitäten tatsächlich Karrieren beenden, bevor sie begonnen haben – aber auch aus diesem Milieu zitiert Daub Fälle, in denen Kritik von konservativen Zeitungen aufgegriffen und in Karriereturbos verwandelt wurde.

Daub fasst Cancel Culture-Kritik als Fälle kultureller und moralischer Panik zusammen. Und ein wesentliches Merkmal von Panik ist es eben, nicht mehr so genau hinzusehen auf das, wovor man sich fürchtet …

EU AI Act: Sieg der Ängstlichkeit

Europa feiert, der erste Kontinent mit AI-Regulierungen zu sein. In den EU AI Act sind eine Menge Technologieängste verpackt. Rahmenbedingungen für eine positive Entwicklung Europas als Technologietreiber sind nur schwer zu erkennen.

Eigentlich hätte es eine spannende Story werden können – aber niemand wollte sie spannend machen. Die Diskussion um den EU AI Act zog sich lange hin, immer wieder tauchten neue Aspekte auf und der AI-Hype des letzten Jahres schien dann alles über den Haufen zu werfen.

Lobbyisten standen Schlange, Google bemühte sich, die Europäische Union vor kritischen Fehlern zu bewahren (so schrieben es Google-Lobbyisten zumindest in sich an interne Audiences richtenden Memos), insgesamt listet Integrity Watch über 210 Lobbyisten-Termine rund um den AI Act im EU-Parlament. 

Was stand auf dem Spiel, wie sollte es weitergehen, was fehlte eigentlich noch zu einer Entscheidung? Diese Fragen habe ich dem Berichterstatter Dragos Tudorache vor einigen Monaten gestellt und insgeheim auf eine spannende Story rund um widerstreitende Interessen, neue Aspekte und politische Auseinandersetzungen mit vielschichtiger sich noch entwickelnder Technologie gehofft.

Tudoraches Antwort konnte allerdings langweiliger und ausweichender nicht sein. Der AI Act befinde sich im Prozess der EU-Gesetzgebung, werde weiter diskutiert und so bald wie möglich zur Abstimmung gebracht. Punkt. 

Jetzt liegt offenbar die Einigung auf dem Tisch. Und was war dabei so schwer? 

Die Ergebnisse verwirren auf den ersten Blick ein wenig. Die relevantesten Aspekte, die jetzt auch in den meisten Medienberichten referiert werden, betreffen den Schutz von Bürgern vor Überwachung und Manipulation – Themen, wie wir sie seit Vorratsdatenspeicherung, DSGVO und Whats App-Ver- oder Entschlüssungsdiskussionen kennen. Biometrische Identifikationssysteme sollen also nicht schrankenlos verwendet werden können. Social Scoring bleibt in der EU unerwünscht. BürgerInnen werden sich beschweren können.

Und sonst? Ich habe den Act durchgeblättert; hier sind einige Punkte, die mir besonders aufgefallen sind. Im AI Act werden viele Probleme von Technikgesetzgebung im allgemeinen offensichtlich. 

Recht beschreibt Abstraktionen, Technik schafft Fakten 

Gesetzgebung orientiert sich an erwünschten Zuständen und möchte Rahmenbedingungen gestalten, die diese Zustände ermöglichen. Technik dagegen schafft Fakten. Letztes kann gezielt oder unabsichtlich vonstatten gehen. Manchmal werden Projekte konzipiert und umgesetzt. Manchmal schafft Technik, manchmal auch ein Nebenprodukt technischer Entwicklungen, die Voraussetzungen, die andere Prozesse in Gang bringen oder sie zeitigen Ergebnisse, die in anderen Zusammenhängen verwendet werden können. Die besten Verschlüsselungssysteme etwa machen das Leben von Sicherheitsbehörden leichter, wenn sie selbst diese Toole verwenden. Aber sie machen ihnen das Leben zur Hölle, wenn sie von anderen verwendet werden. Und für Entschlüsselungssysteme gilt das gleiche. Wo soll Gesetzgebung hier ansetzen? 

Diese Unklarheit zieht sich durch den AI Act. Entwickler von high risk AI Anwendungen sollen ausschließen, dass diese missbräuchlich verwendet werden können. Wie lässt sich das feststellen? Wer ist verantwortlich für Missbrauch? Wer stellt Missbrauch einer in anderen Zusammenhängen nützlichen Lösung fest? Diese Abgrenzungen machen keinen Sinn, wenn nicht geklärt ist, in welcher Beziehung Technologie und Gesellschaft hier gesehen werden. Setzt Technologie Entwicklungen in Gang, die unaufhaltsam fortschreiten? Bestimmt also Technologie Gesellschaft, Kultur und Natur? Oder ist Technologie das Ergebnis sozialer Prozesse und dient zur Lösung von Problemen, die eben sozial relevant sind? Über technischen und sozialen Determinismus kann man lange streiten. Zuletzt sind die Argumente der Techno-Deterministen etwas aus der Mode gekommen; gegenüber dystopischer Science Fiction war Technik zuletzt einfach zu freundlich. Gerade mit AI aber haben viele Freunde mahnender Technovisionen wieder eine lohnende Gegnerin gefunden.

AI-Risikostufen als Auslegungssache

Die Einteilung von AI Anwendungen in verschiedene Risikostufen von minimal risk bis unacceptable risk stellt den Kern des AI Act dar. Ein in der Presseaussendung ausdrücklich erwähntes Beispiel für minimal risk sind Recommender Systeme, unter unacceptable risk fallen Anwendungen, die Menschen manipulieren und ihren freien Willen untergraben sollen. Letztes klingt bösartig, Recommender Systeme dagegen sind meist freundliche Shopping-Assistenten, die Kunden Zusatzprodukte empfehlen. Hinter diesen Empfehlungen allerdings arbeiten durchaus komplexe Algorithmen, die mitunter hunderte Parameter verarbeiten, um zu einer Empfehlung zu kommen Und sie verfolgen ein Ziel: Sie wollen den Kunden, der gar nichts kaufen oder mit seiner aktuellen Auswahl im Einkaufskorb den Shopping-Prozess abschließen wollte, zu etwas anderem überreden. Man kann es nun spitzfindig nennen, auch Empfehlungen als Manipulation des freien Willens zu betrachten. Aber es ist ganz und gar nicht spitzfindig, festzustellen, dass Empfehlungen Beispiele komplexer Technologien sind, die auch die Grundlage für ganz andere, weniger freundliche Anwendungen sein können.

Der gleiche Algorithmus, der feststellt: „Wenn du A kaufst, kaufst du vielleicht auch B“, kann auch feststellen: „Weil du A tust, bist du ein politisch verdächtiges Subjekt“. Ich fürchte, es ist keine besonders gelungene Abgrenzung, wenn die Trennung von minimum und unacceptable risk dermaßen leicht übersprungen werden kann. 

Diese Trennung in Risikoklassen und wohl auch die Verantwortung des AI-Entwicklers sind als abstrakte Definitionen sehr problematisch und werden wohl einiger konkreter Einzelfälle bedürfen, um näher bestimmt zu werden. 

Aufklärung- und Kennzeichnungspflichten: Wann ist das schon verständlich? 

Andere Regelungen des AI Act sind zahlreiche Informations- und Kennzeichnungspflichten. Anwender sollen verstehen, dass sie gerade mit einem AI-System interagieren, und sie sollen verstehen und nachvollziehen können, in welchem Ausmaß AI zu dieser Interaktion beiträgt. Das ist ein herausfordernder und ziemlich aufklärerischer Anspruch.

Wer ist dafür verantwortlich, dass diese Transparenz gelingt? Wo verläuft die Grenze zwischen Bringschuld der Entwickler und Holschuld der Anwender? Wer legt fest, was erklärt werden muss, wann etwas ausführlich genug erklärt ist und in welcher Form die Erklärung stattfinden muss? Werden jetzt ellenlange allgemeine Geschäftsbedingungen nicht mehr nur von ebenso langen Datenschutzerklärungen, sondern auch von noch längeren AI-Disclaimern begleitet?

Heute hat jeder Webseitenbetreiber eine lange automatisch erstellte Datenschutzerklärung in seinem Impressum verlinkt, ohne zu wissen, was eigentlich darin steht und wozu das notwendig ist. User lesen das nicht. Die einzigen Profiteure dieses Umstands sind die Webmaster der Webseiten der Anwaltskanzleien, die die Datenschutzgeneratoren zur Verfügung stellen – und die sich jetzt über eine ungeahnte Fülle neuer Backlinks freuen können. Wird das auch das Schicksal der Aufklärung über künstliche Intelligenz? 

Ein eigener Paragraph fordert über diese allgemeine Kennzeichungspflicht hinaus noch eine Kennzeichnungspflicht für mit künstlicher Intelligenz generierte Bilder, Videos und Audios. Das wirft wieder ähnliche Abgrenzungsschwierigkeiten auf: Wie künstlich soll es denn sein? Reichen Filter oder die Anwendung von Animationsprpogrammen? Muss ein unverfälschtes Bild zugrunde liegen, sind Täuschungsabsicht oder -möglichkeit oder die Verwechselbarkeit mit realen Szenen notwendig? Oder muss jede Fantasy-Visualisierung mit Drachen und Prinzessinnen gekennzeichnet werden?

Was mich dabei eigentlich beschäftigt: Ich konnte keinen Hinweis zur Kennzeichnungspflicht KI-generierter Texte finden. Mögliche Interpretationen: Bilder und Videos werden als wirksamer eingeschätzt , Bilder vermitteln mehr Autorität. Bilder werden als Abbildungen verstanden, die Tatsache, dass bei jedem Bild, auch einer bloß abbildenden Fotografie, eine fremde Intelligenz im Spiel war, die Aufnahmemoment, Bildausschnitt und Veröffentlichung bestimmt hat, wird ausgeblendet. Bilder geschehen von selbst, Texte dagegen entstehen nicht durch zufällige Anordnung von Buchstaben – ob eine künstliche oder eine andere Intelligenz im Spiel war, ist weniger wichtig.

Texte lügen noch besser als Bilder 

Das ist eine Reihe von Missverständnissen. Wer mit digitalen Bildbearbeitungstools zu tun hatte, weiß wie viele Prozesse auch dann schon unkontrolliert laufen, wenn nur einfach Farbkorrekturen angewendet werden. Der Automatisierungsgrad entscheidet dabei nur über das Tempo der Veränderungen (und darüber, wieviele Bilder in welcher Zeit bearbeitet werden können) – die realen Möglichkeiten sind die gleichen. Und auch versierte Anwender wissen nicht genau, was die Software wirklich macht – es ist egal, ob sie selbst Befehle tippen, Buttons klicken oder mit natürlicher Sprache einen Chatbot steuern. Das ist auch bei KI-generierten Texten nicht viel anders. Ohne den Text genau zu überprüfen, nachzurecherchieren und die Argumente nachzuvollziehen und auf ihre Konsequenzen hin durchzudenken, sollten weder handgeschriebene noch künstlich generierte Texte veröffentlicht werden. Beides passiert. 

Die unterschiediche Behandlung von Bild und Text im AI Act lässt vermuten, dass entweder Bildern mehr Autorität über unbedarfte User eingeräumt wird, oder dass Manipulation in Texten als leichter entschlüsselbar angesehen wird – oder dass das Problem möglicherweise ein ganz anderes ist und die Kennzeichnungspflicht KI-generierter Bilder am Ziel vorbeigeht. Gerade KI-generierte Texte, die sich am kleinsten gemeinsamen Nenner orientieren, wiederholen was alle sagen und keinen Bezug zu Wahrheit oder Argumenten herstellen können, können nur von auf dem Gebiet, das der Text behandelt, besonders versierten Menschen überprüft werden. Eine KI kann leichter lernen, ob sie Menschen mit fünf oder sechs Fingern zeichnen soll, als zu entscheiden, ob sich mit dem Idealismus Kants jetzt eher Relativismus oder doch Realismus argumentieren lässt oder ob eine Vermögenssteuer Wirtschaft und Sozialsystem nützen oder schaden wird.

Falls die Kennzeichnung als Unterstützung im Kampf gegen Fake News und Desinformation gemeint war, so geht das ein wenig am Ziel vorbei. Falls es ein Beitrag zur Bewusstseinsbildung auch in breiten und wenig digitalen Bevölkerungsteilen gedacht war, dann bleiben all die Graubereiche unberührt, ohne die KI kaum als relevantes Phänomen zu begreifen ist.

US-Konzerne und -Institutionen als stärkste Mitgestalter in Europa 

Aus dieser Perspektive finde ich es immer wieder auch spannend, wer in die Entstehung welcher Regelungen involviert war und wer wie intensiv lobbyiert hat. Verleger und andere Produzenten von intellectual property, ohne die Künstliche Intelligenz keine Intelligenz simulieren könnte, waren recht zurückhaltend. Ihre Kernthemen drehten sich offenbar vorrangig um Copyrights und Lizenzen. Das kann grundsätzlich zu neuen Geschäftsmodellen führen, wenn Inhalte nicht mehr nur an Distributoren, sondern auch an Tech-Unternehmen lizenziert werden. Aber es kann etwas zu kurz gegriffen sein, wenn die Ergebnisse dieser Lizenzproduktionen dann plötzlich Mitbewerber unter neuen Marktbedingungen sind. Ob es dazu kommt, wovon KI lernen soll, wenn sie einmal alte inhalteproduzierende Intelligenz ökonomisch vernichtet hat, und ob KI nicht doch der beste Freund des Journalisten wird, dem sie bei Recherche, Archivierung und andern Aufgaben hilft, ist noch offen.

Integrity Watch hat 210 Lobbyistentermine zum AI Act bei den beiden Berichterstattern, Axel Voss und anderen in KI, Daten, und andere Technologiefragen involvierten Abgeordneten des EU-Parlaments dokumentiert. Ganz vorne dabei sind Google mit acht und Microsoft mit sieben Terminen. Die American Chamber of Commerce hat sechs Mal interveniert, auffällig ist auch das Future of Life Institute mit vier Terminen. Nach Eigendefinition bemüht sich das Institut um Technikfolgenabschätzung und -steuerung. Größte Geldgeber sind Skype-Mitbegründer Jaan Tallinn und Ether-Mitbegründer Vitalik Buterin. Tallinn war eine Zeit im Vorstand des Instituts, Buterin hat – laut der eigenen Transparenzseite – keinen Einfluss auf Agenda und Schwerpunkte. TikTok wurde zwei Mal vorstellig, IBM ebenso. Der Bundesverband deutscher Digitalpublisher begnügte sich mit einem Termin.

Einige Ausnahmen von den strengen Regelungen sind vermutlich im Interesse aller Beteiligten, auch wenn sie das Potenzial haben, die Regelungen des Acts pauschal zu unterwandern. KI-Anwendungen im privaten und persönlichen Bereich und zu Forschungs- und Entwicklungszwecken sind von den Vorschriften und Risikoklassen ausgenommen. Für sie gibt es Sandbox-Regelungen, in denen experimentiert werden darf. Entwicklungsumgebungen für KI werden also letztlich ähnlich problematische Umgebungen wie Labors, in denen gefährliche Viren und Bakterien untersucht werden. Das baut Hürden auf und schränkt, wenn die die Regeln tatsächlich ernst genommen werden, auf die Dauer den Kreis jener, die es sich leisten können und wollen, zu Künstlicher Intelligenz zu forschen, deutlich ein. KI-Entwicklung wird zum Luxus – oder findet künftig außerhalb von Europa statt.

Als Übergangslösung, bis der Act auch überall in Kraft tritt, können und sollen Tech-Unternehmen einen AI Pact mit der EU abschließen. Dieser Pact bedeutet die vorläufig freiwillige Anerkennung des Act und wird hoffentlich auch als Chance genützt, all die diskutierbaren Bestimmungen näher zu schärfen. 

Endlich: eine KI-Behörde (/sarkasm)

Was wäre Bürokratie ohne Behörden? Zur Überwachung und Weiterentwicklung des EU AI Acts soll eine eigene KI-Behörde geschaffen werden, mit eigenen Dependancen in allen EU Mitgliedsstaaten. 

Eine eigene Behörde – das wird natürlich vor allem die Österreicher freuen. Digitalisierungsstaatssekretär Tursky, der diesen Job nicht mehr lang machen wird, hat sich vor einigen Monaten noch als KI-Warner hervorgetan, der dringende Regulierungen und eine Behörde forderte und allen Ernstes in Interviews so tat, als treibe er die EU vor sich her (im übrigen unwidersprochen vom ORF-Interviewer).

Vor einigen Wochen mutierte er zum wohlwollende KI-Erklärer, die auf die Visionen unabsehbarer Gefahren verzichtete und stattdessen als Auskennen wissen ließ, dass KI ja bereits in sehr vielen harmlosen Anwendungen arbeite. Auch diese plötzliche Wendung, ein kompletter Widerspruch zu seinen Aussagen einige Wochen davor, blieb vom Interviewer unbemerkt. 

Tursky erwähnte Kennzeichnungspflichten, wünschte sich eine „unideologische“ KI (was in der Regel die Umschreibung ist für eine KI, die die eigene Ideologie reproduziert) und verwechselte KI-Regelungen ebenfalls mit Maßnahmen gegen Fake News und Desinformation – ganz so, wie er es offenbar im Entwurf des AI Act gelesen hatte. 

Die größte Sorge in dieser Konstellation von Bürokraten, die gefallen wollen und einer Technologie, die sich plakativen Festschreibungen entzieht, ist dass diese Bürokraten in den zu gründenden KI-Behörden sitzen werden und dort neue KI-Regelunge erfinden werden und, noch schlimmer, an der Operationalisierung der bisherigen Regeln arbeiten werden. Sie werden also darüber entscheiden, ob einer Kennzeichnungspflicht genüge getan wurde, ob dem Missbrauch einer riskanten Anwendung tatsächlich ausreichend vorbeugt wurde und ob die als riskant eingestufte Anwendung erstens tatsächlich riskant ist, ob sie zweitens Forschungs- oder kommerziellen Zwecken dient und ob die notwendigen Sicherheitsbestimmungen eingehalten werden.

Das lässt einen ausgedehnte bürokratischen Overhead befürchten. 

Insgesamt ist der AI Act wohl ähnlich einzuschätzen wie die Datenschutzgrundverordnung: Es stecken ehrenwerte Absichten dahinter, an den einzelnen Entscheidungen ist im großen und ganzen nichts falsch. In Summe hat das Regelwerk aber das Potenzial, eine Armee von papierenen Monstern hervorzubringen, die niemandem nützen und keinen anderen Zweck erfüllen, als die neu geschaffenen Auflagen dieses Regelwerks zu erfüllen. In der Praxis werden sie wenig weitere Auswirkungen haben, als dass sie bürokratische Aufwände nach sich ziehen. Und es wird damit in Summe nicht leichter, KI-Anwendungen zu entwickeln. Im Gegenteil: Vermutlich überlegt man es sich in Zukunft noch gründlicher, ob die Entwicklung tatsächlich in Europa stattfinden soll.

Ein positiver Effekt der Auflagen und des Bemühens um ethisch-europäische KI kann die Entwicklung eigener europäischer KI-Varianten sein, die am Anfang lästige Zusatzaufgabe sind, im Lauf der Zeit aber vielleicht neue Effekte hervorbringen – ähnlich wie das sportliche Training in Höhenluft erst belastender ist, dann aber bessere Effekte bringt. Die Frage ist, werd den ausreichenden Atem hat, die belastenden Phasen durchzustehen. Schon bei Open AI, dem aktuell erfolgreichsten AI-Unternehmen, hatten unlängst die Befürworter der nichtkommerziellen Perspektive nur für wenige Tage in einem spektakulären Führungsstreit die Oberhand – und mussten dann Verfechter kommerzieller Ansätze zurückbitten und ihre eigenen Plätze räumen.

So gesehen klingt im EU AI Act auch eine große Portion Angst mit. Das beste Rezept gegen diese Angst ist mehr praktische Erfahrung mit Künstlicher Intelligenz, mehr Bereitschaft, sich in konkreten Fällen damit auseinanderzusetzen. Beides vermisse ich in der Politik, aber auch in Medien, Kunst und vielen anderen Bereichen. Zukunfts-Bullshitten ist für mich kein gelungener Fall von konkreter Auseinandersetzung.

Achille Mbembe, Brutalisme

Die Zukunft kommt nicht mehr. Sie ist schon da, sie ist insofern vorweggenommen, als wir so tun müssen, als hätten wir alle Mittel, sie zu steuern und zu gestalten. Digitalisierung schafft Phantasmen universellen Wissens, in denen keine Frage offen bleibt, auch nicht die nach der Zukunft. Wir finden auf alles eine Antwort, es bleibt kein Raum für Unbekanntes. Das verkleinert die Welt – die Welt hat ihre Grenzen erreicht. Wir müssen uns der Tatsache stellen: Das ist es. Da kommt nichts anderes mehr. Dieses Bewusstsein von Endlichkeit ist die Ausgangslage für harte Verteilungskämpfe, die Normalisierung von Extremsituationen und ständig neue Versionen der Vorstellung von Essenz und Zweck des Menschen.

Das ist in etwa die Kernthese von Mbembes sehr dichtem und komplexem Brutalisme-Text. Mbembe schreibt wortgewaltig und radikal, betont diverse und außereuropäische Perspektiven, verwendet (hier und noch öfter in anderen Texten) das N-Wort, um das andere zu kennzeichnen, und war wegen seiner Ausführungen zu Biopolitik und Machttechniken gelegentlich mit Antisemitismus-Vorwürfen konfrontiert.

Brutalisme ist eine Fortführung der Überlegungen zu Biopolitik und Nekropolitik und beschreibt ein von Digitalisierung und Berechenbarkeit geprägtes Weltbild as Diagnoseframework unserer Zeit. Brutalismus muss etwa in der Dimension des Begriffs Humanismus verstanden werden. Der Begriff bietet eine Perspektive auf globale Entwicklungen.

Mbembes Perspektiven sind großteils keine freundlichen. Hoffnung ist kein Wert, Werte als anzustrebende Leitbilder, als Essenzen, auf die man hinarbeiten kann, haben generell eher ausgedient. Was zählt, ist Berechenbarkeit. Digitalisierung und Rationalisierung sind wesentliche Grundpfeiler des Brutalismus. Berechenbarkeit schafft Gemeinsamkeiten. Diese sind allerdings keine verbindenden Elemente, sie sind Gemeinsamkeiten im Sinn von Gemeinheiten oder Banalitäten – es gibt nichts anderes. Vernunft ist ökonomisch, biologisch, algorithmisch – sie berechnet und entscheidet mehr, als sie entdeckt. Das gehört zu den Grundzügen technologischer Vernunft.

Weil Technik entscheidet und definiert (und sich dabei nicht um Ideen wie Wahrheit kümmern muss) entstehen andere Versionen von richtig und falsch. Richtig ist in technisch dominierten Weltbildern was funktioniert. Dieser Pragmatismus findet sich in frühen Technologiekonzepten von John Dewey bis Don Ihde und erfährt bei Mbembe eine weitere Zuspitzung: Sieger müssen recht haben.

Das stellt den Sinn von Begriffen wie richtig und falsch infrage – und es wird für Mbembe zur Startrampe für einen Essay über Machtmechanismen. 

In welcher Beziehung stehen Brutalismus und Migration? Mbembe ist geneigt, ein Recht auf Migration zu postulieren, ein Recht, das in weiten Teilen der Welt nicht verankert, aber teilweise Praxis ist, bis es in Europa an harte Grenzen stößt. Er greift marxistische Motive auf und dehnt den Begriff der Überflüssigen auf jene auf, denen im Rahmen von Migrationsregelungen keine Rolle gegeben wird, jenen, die weder erwünschte Zuzügler noch zu duldende Flüchtlinge sind. Migrationspolitik im Zeichen des Brutalismus ist für Mbembe Lebensraumpolitik – ein NS-belasteter Begriff. Etwas verschwommen ist allerdings der Adressat dieser Diagnose. In vielem beschreibt Mbembe Maßnahmen und Zustände aus außereuropäischen Migrationsrouten, greift aber die Europäische Union an. Die Einteilung von Menschen in nützliche und überflüssige, von Weltregionen in lebenswerte, sichere, bewohnbare und lebensfeindliche und die Erstellung von Matrizen, die bestimmte Arten von Menschen auf bestimmte Regionen verteilen und sie dorthin verschieben wollen, ist ein kerneuropäisches Anliegen, aber eines, das ohne den Rest der Welt nicht umsetzbar sein wird. Brutalismus als Nutzenkalkül jedenfalls verändert die Rolle der Überflüssigen – für Mbembe haben sie nicht einmal mehr Fleischwert.

Von hier aus schlägt Mbembe eine nicht ganz leicht nachzuvollziehende Brücke zu Kunst und Restitution. Das verbindende Element: Die (europäisch-)brutalistische Perspektive kategorisiert und rationalisiert ohne Sinn für ihr verborgene Essenzen. Das ist ein Erklärungsansatz für Migrationspolitik, das ist auch ein Leitmotiv in der Debatte um afrikanische Kunst und Restitution.

Mbembe ist ein klarer Befürworter der Restitution afrikanischer Kunst aus europäischen Museen. Restitution bedeutet allerdings nicht nur die Rückgabe von Gegenständen. Er verbindet mit Restitution auch die Auseinandersetzung damit, was die geraubten oder gekauften oder ertauschten Gegenstände bedeuten. Unrechtmäßige Aneignung ist für Mbembe nicht nur mit Gewalt verbunden. Sie liegt auch dann vor, wenn Kunstgegenstände entfremdet, (falsch) interpretiert, aus einer europäischen Perspektive bewertet wurden und damit dazu beigetragen haben, falsche Bilder von afrikanischer Kunst, Philosophie und Technik entstehen zu lassen. Die Kunstgegenstände wurden missbraucht und zu Zeugen einer nie stattgefundenen Geschichte gemacht. So erzählen sie – für Europäer stringente – Geschichten, die Sinn ergeben und Wirkung entfalten und damit, auch wenn sie zurückgegeben werden, falsche Perspektiven produzieren. 

Auch das ist Brutalismus. 

Was sind Gegenpositionen? Mbembe erwähnt einen möglicherweise anderen afrikanischen Begriff von Technologie, der Technik weniger als Werkzeug und Mittel zum Zweck sieht. Im Vordergrund steht mehr die Auseinandersetzung mit dem, was ist, nicht mit dem, was durch Technik geschaffen wird. Dabei bleibt Mbembe allerdings vage und Andeutungen verhaftet.