Henry Kissinger, Eric Schmidt: The Age of AI

Viel mehr an Flughöhe geht nicht für einen Text. Das ist aber auch nicht zu erwarten, wenn Henry Kissinger und Eric Schmidt, ehemaliger Google CEO, gemeinsam an einem Text zu KI arbeiten. Da werden schnell mal die letzten 2500 Jahre Geistesgeschichte gestreift und dann noch die Kriege der Zukunft verhandelt, um einem Thema wie dem KI-Zeitalter gerecht zu werden.

Der Bogen in die Vergangenheit stellt AI in den Kontext von Theorien über Wahrnehmung und Erkenntnis. In Kurzfassung: Platons Ideen blieben unerkennbar, der Wahrnehmung sind nur Phänomene zugänglich. Hume macht auf den Unterschied zwischen Wiederholung und Kausalität aufmerksam: Nur weil Dinge öfter in der gleichen Reihenfolge geschehen, ist das noch lange kein Hinweis auf kausale Zusammenhänge zwischen diesen Ereignissen. Kant schob das Ding an sich in den Bereich des Unerkennbaren und legte die Kategorien des Verstandes als Möglichkeiten und zugleich Grenzen des von diesem Verstand Erkennbaren fest. Heisenberg schließlich postulierte, dass der Weg eines Teilchens überhaupt erst dadurch entsteht, dass wir ihn beobachten und als solchen beschreiben. 

Kurzfassung: Da sind eine ganze Menge am Komplikationen im Spiel, die auch die fortgeschrittensten Erkenntnistheorien nicht zu lösen vermochten. Komplexere und raffiniertere Instrumente und Versuchsanordnungen haben erst dazu angesetzt, ein wenig mehr Klarheit zu schaffen, letztlich aber noch mehr Unschärfen offenbar gemacht.

Ist KI jetzt ein neues Instrument, mit dem wir Dinge erkennen können, die uns zuvor nicht zugänglich waren? Das ist möglich. Schafft KI noch mehr von diesen Unschärfen, mit denen wir zwar etwas erkennen, aber nicht verstehen, warum wir es erkennen? Das ist wahrscheinlich. Komplexe und oft schlecht dokumentierte oder geheim gehaltene Machine Learning Modelle funktionieren, aber der Wert der durch sie gewonnenen Erkenntnis ist fragwürdig – sobald man über die unmittelbare Auflösung zuvor formulierter Problemstellungen hinausgehen möchte. Das Problem ist gelöst, man darf aber nicht hinterfragen, wie und warum. Maschinen als Kandidaten von Turing-Tests sind so gesehen Vorreiter des Behaviorismus: Denn zur Disposition steht nur ihr sicht- und messbares Verhalten, nicht ihr innerer Mechanismus. Gemessen wird bei Turing-Tests nicht, ob eine Maschine mit einem Menschen mithalten kann, sondern ob der Mensch sich von der Maschine täuschen lässt. Das sind grundverschiedene Fragen.

In Bezug auf sinnvolle Positionen zu KI ist es sehr wichtig, den Unterschied zwischen diesen Fragestellungen verstehen zu können. 

Künstliche Intelligenz ist vor allem effizient. Sie prüft Alternativen schneller als Menschen und kommt auch in der Evaluierung der Folgen einzelner Entscheidungen schneller voran. Dabei ist der vorgegebene Rahmen relevant: Welches Problem soll KI lösen? Noch relevanter ist aber die Einschätzung der Umgebung, in der KI arbeitet: Welcher Stellenwert wird den Ergebnissen einer KI zugestanden? Wie weit ist diese Frage noch relevant oder wie weit wurde sie durch Prozesse bereits übergangen, das heißt wie umfassend ist eine KI an weitere Anwendungen angebunden, die ihr nicht nur algorithmische Entscheidungen, sondern auch so etwas wie Handlungen erlauben? Das ist der Punkt, an dem aus gewöhnlicher KI allgemeine KI oder AGI wird – Artificial General Intelligence. AGI bleibt nicht auf auf einem Bildschirm angezeigte Ergebnisse beschränkt, sie kann darüber hinaus Prozesse in Gang setzen und über Systemgrenzen hinweg Handlungen anstoßen. KI beschreibt, wie etwas gemacht werden könnte, AGI setzt das gleich um. – Noch ist AGI eine Vision.  

Weil KI vor allem effizient ist, ist die Frage, wie KI lernen soll, weniger drängend als die Frage, was KI lernen soll. Das Wie ist seit langem in Gang gesetzt, das Was kann noch gesteuert werden. Aus philosophischer Perspektive sind Wie und Was aber durchaus Begriffe, die ineinander übergehen können. Am Beispiel des KI-Trainings: Menschen können entscheiden, in welche Themengebiete sich KI einarbeitet (das ist das Was), im Detail eröffnet sich damit aber noch sehr viel Spielraum beim Wie des Lernens: supervised machine learning arbeitet Vorgaben ab und versucht Dinge nachzuvollziehen. Beispiele sind etwa klassische Sortieraufgaben. Unsupervised machine learning schlägt selbständig gefundene Muster vor, es bleibt allerdings dem Anwender – oder den weiteren Rechenschritten – vorbehalten, ob diese Muster als nützlich empfunden werden. Reinforcement learning schließlich integriert dieses Anwenderfeedback direkter in den Lernprozess. Zwischenstufen im Prozess nehmen Information darüber auf, ob ein Lernergebnis erwünscht ist oder nicht. Praktische Anwendungen dafür sind etwa Ethikregeln im machine learning: Modelle können schnell Strategien entwickeln, Probleme auf unethische oder illegale Weise zu lösen, Reinforcement greift ein und lässt solche Lösungen nicht als Lösungen gelten. Das ist ein Beispiel dafür, wie Was und Wie ineinandergreifen. Die Methode des Lernens, das Wie, beeinflusst auch das Was, indem auch bei vorerst weniger ethisch relevanten Fragestellungen ethische Dimensionen eine Rolle spielen.

Abstraktes machine learning wird so zu einer pragmatischen Angelegenheit, in der Kompromisse eine Rolle spielen. KI entdeckt nichts, KI schafft nichts Neues, KI arbeitet Regeln ab und geht manchmal trotzdem undurchsichtige Wege. Das sind mitunter gefährliche Momente, das sind Punkte, an denen man hartnäckig bleiben und versuchen müsste, zu entschlüsseln, was genau passiert ist.

Das stellt allerdings vor zwei Probleme: Zum einen arbeitet KI so schnell so viele Möglichkeiten ab, dass das Nachvollziehen solcher Prozesse menschliche Möglichkeiten übersteigt. Ein Beispiel dafür sind die zur Genüge nacherzählten Lerneffekte von Deep Mind beim Go-Spielen, als plötzlich neue Spielzüge im Raum standen. Zum anderen sind auch menschliche Erkenntnis und rationale Systeme nicht immer so rational und transparent, wie wir es für uns beanspruchen. Viele Wissenschaftstheorien, viele Welterklärungssysteme sind rund um dunkle Flecken gebaut, die sich mit diesen Systemen selbst nicht ausreichend erklären lassen. Vielleicht ist diese Gemeinsamkeit der intelligenteste und menschlichste Aspekt von KI.

Es kann aber ebenso der unangenehmste Aspekt sein. Am Beispiel von KI-gesteuerten Waffensystemen erklären Kissinger und Schmidt, dass es ebendiese dunklen Flecken sind, die den Umgang mit KI besonders riskant machen können. KI in Waffensystemen weiß mehr, hat mehr Informationen verarbeitet und Entscheidungen abgewogen, als Menschen es je können. Und KI taktiert nicht, hat keine Gewissensbisse und kennt keine psychologischen Spiele. Ob das ein Vorteil oder Nachteil für ihr Gegenüber ist – egal ob von menschlicher oder künstlicher Intelligenz – muss offen bleiben, betonen Schmidt und Kissinger. Auch das bedeutet letztlich: Der Umgang mit KI ist eine pragmatische Angelegenheit, in der man sich schrittweise vorantasten muss. In manchen Fällen geht das leichter, in anderen, wie dem Kriegsbeispiel, ist das riskanter.

Der Umgang mit KI ist für Kissinger und Schmidt ein derart breites Feld, dass sie KI als ein großes Paradigma des Welterfassens betrachten. KI steht für sie auf einer Stufe mit Glauben – einige Jahrhunderte war Glaube der vorherrschende Weg der Welterklärung, Welterklärungen mussten im Einklang mit Religionen sein – und Vernunft. Vernunft als dominierender Zugang zur Welt weckt die Erwartung, alles müsste erklärbar und begründbar sein. Eine Hoffnung, die sich gerade in den letzten Jahrzehnten auch als Täuschung erwiesen hat. Nicht etwa, weil sich Esoterik und Übernatürliches durchgesetzt hätten, sondern weil Physik und Logik bei Unschärfen, Unentscheidbarkeiten und Wahrscheinlichkeiten gelandet sind.

Es bleibt also offen, was dieses neue Prinzip des Weltzugangs über KI bedeutet wird. 

Generell geben Kissinger und Schmidt weniger Antworten. Ihr Anliegen ist es eher, die Dimension aktueller Fragestellungen erkennbar zu machen. Dem kann man entgegenhalten, dass das mitunter wenig ist. Man kann auch infrage stellen, ob KI als Instrument zwischen uns und der Welt einen so viel größeren Unterschied machen wird als Mikroskope, Teleskope oder Film und Fotografie. Auch das sind Techniken, die die ehemaligen Grenzen des Wahrnehmbaren gesprengt haben. Eine andere Art skeptischer Fragen ist bei all den Anleihen an Druckerpresse und Dampfmaschine, ob wir tatsächlich von diesen Innovationen der Vergangenheit aus in die Zukunft rechnen wollen. Und wo, wenn das möglich wäre, die bahnbrechende Disruption von KI angesiedelt wäre? Was hat man sich bei der Erfindung des Rades gedacht, bei der Instrumentalisierung des Feuers? Oder waren auch diese Ereignisse möglicherweise keine Ereignisse, sondern schleichende Entwicklungen, aus denen nachträglich einschneidende Wendepunkte herausdestilliert wurden? (Zur Frage, wann ein Ereignis ein Ereignis ist, hat Žižek eines seiner wenigen präzisen Argumente entwickelt).

All das führt zu einigen wenigen jedenfalls festzuhaltenden Punkten: Mit KI muss man arbeiten. KI muss man anwenden, einsetzen, testen. Man kann sie natürlich auch verweigern oder ignorieren. Aber KI ist kein Ereignis, dass sich mit eigenem Antrieb über die Welt verbreiten wird. KI wird sich verbreiten, aber jemand wird diese Verbreitung mitgestalten. Dem können wir uns ausliefern – wenn wir uns gern mit halluzinogenem Determinismus, Visionen und Dystopien beschäftigen. Oder wir können selbst mitgestalten – wenn wir uns mit einem pragmatischen Zugang anfreunden können. Und damit, dass Ergebnisse offen bleiben. Wir werden nicht die großen Weichen stellen. Die findet vielleicht später jemand. 

Die Lust an der KI-Angst

Es wird ein Wahlkampfjahr. Man merkt das unter anderem daran, wie viele neue Glücksritter sich als Experten und künftige KandidatInnen zu platzieren versuchen. Es wird ein EU-Wahlkampfjahr – das verschärft die Situation insofern, als Glücksritter aller Arten herausgefordert sind, sich Themen zu widmen, denen sie nicht gewachsen sind. das wäre nicht schlimm – vielen auf europäischer oder internationaler Ebene zu verhandelnden Themen ist niemand allein gewachsen. Schlimm wird es aber dann, wenn Menschen in ihren Ambitionen so tun, als wären sie diesen Themen gewachsen und simple Handlungen, man kann es nicht Lösungen nennen, für komplexe Themen vorschlagen. Noch schlimmer ist das nur, wenn die handelnden Personen sich für differenziert, weitsichtig, populismuskritisch und zukunftsorientiert halten. 

Technologie und Politik sind eine Glatteiskombination, auf der man nur schwer ein gutes Bild abgeben kann. Alle reden über Technologie, wenige haben Expertise oder Erfahrung. Technologie ist relevant, prägt viele Lebensbereiche und wird damit für alle zum Themen. Social, Data, KI – die Trendthemen der letzten Jahre haben einander überholt, bevor noch irgendwas ansatzweise geregelt gewesen wäre.

Der EU AI Act ist zwar fixiert, aber noch immer recht ungreifbar. Und in seiner gezielt technikfernen Risikoklassifikation sehr abstrakt, abstrakter als ein technikorientierter Spezialistenzugang sein könnte.

Der Digital Services Act (DSA) ist ein greifbareres Thema. Der DSA soll auf internationaler Ebene diverse Schattenseiten von Internet und Onlinemedien regeln und unter anderem vor Mobbing und Desinformation schützen. 

Und damit sind wir beim Thema. Geht es um Wahlen, geht es um Demokratie, geht es um das Gute – dann geht es um den Ruf nach Verboten und Regulierung. 

Es steht außer Frage, dass digitale Plattformen und Social Networks Probleme verursachen. Aber es ist eine bestürzende Themenverfehlung nach inhaltlicher Regulierung zu rufen und die Anwendung von Mediengesetzen, wie sie für Zeitungen, Onlinemedien oder Fernsehsender gelten, zu fordern.

Plattformen und Netzwerke erstellen keine Inhalte. Inhalte sind ihnen egal. Es würde nichts an der zugrundeliegenden Problematik ändern, wenn bestimmte Inhalte – sofern es dafür jemals eine sinnstiftende Klassifikation geben würde – entfernt würden. Manche Menschen könnten vielleicht, mit dem Gefühl, etwas erreicht zu haben, besser und selbstzufriedener schlafen. Aber es ist eine Diskussion, wie wir sie in Wien schon Ende der 90er Jahre geführt haben – etwas als Helene Partik-Pablé, damals FPÖ-Politikerin und Staatsanwältin, Hausdurchsuchungen bei einem Provider durchführte, weil jemand im Internet verbotene Bilder aus dem Internet über die Server des Providers angesehen hatte. Technik hat seither Lichtjahre an Entwicklungssprüngen zurückgelegt. Die Qualität technologiepolitischer Debatten eher nicht. 

Manche Inhalte sind gefährlich und bedrohlich. Aber können sie moderiert werden, zumal wenn sie in Sprachen verhandelt werden, von denen die betroffenen Konzerne nicht einmal wussten, dass es sie gibt?

Überdies: Gesetze gelten. Probleme liegen in ihrer Anwendung, und darin, dass sie den Kern des Problems nicht treffen.

Es ist erschreckend, wie schnell Menschen nach Einschränkungen und Verboten rufen, ohne sich bewusst zu sein, dass sie damit Infrastrukturen fordern, die im Handumdrehen gegen selbst gerichtet werden können. Verbot von Verschlüsselungssoftware? Her mit dem gläsernen Menschen. Einschränkungen beim Einsatz von KI-Methoden? Dann rekonstruiert in Handarbeit, was andere automatisiert gefälscht haben. Kennzeichnungspflicht für technische Manipulationen? Muss dann auch angegeben werden, welcher Instagram-Filter verwendet wurde, welche Bildbearbeitungsapp, deren Namen man gar nicht mehr weiß? Oder welche Brennweite bei Fotos verwendet wurde? Weitwinkelobjektive machen schließlich große Nasen.

Sinnvollere und härtere Regulierungen als Inhaltskontrolle sollten an Transparenz ansetzen. Der Schatz und das Geheimnis von Plattformen und Social Networks sind nicht Inhalte und Redaktionen, es sind Daten, Machine Learning Modelle und andere Algorithmen. Jede Verpflichtung zur Transparenz auf dieser Ebene bietet viel mehr Möglichkeiten zum Risikomanagement als jeder Eingriff in Inhalte. Model Risk Management im Machine Learning ist ein sich etablierendes Feld – Modelle können daraufhin geprüft werden, welchen Schaden sie in welchem Umfeld anrichten können und wie sie zu bändigen sind. Intransparente Modelle funktionieren nach einiger Zeit nur noch als bloße Verstärker, die mehr vom gleichen hervorbringen, ohne verständlich zu sein – das macht es schwer, ihren Lauf zu verändern oder Regeln für sie zu etablieren.

Genau das sind aber sinnvolle Möglichkeiten. 

Ein Beispiel: Die meisten Plattform-Modelle zielen darauf ab, Menschen länger online zu halten, indem ihnen Dinge gezeigt werden, die sie binden – egal was es ist. Man klickt oder wischt weiter und hat nach wenigen Minuten keinen Überblick mehr, wo man ist, wie man dorthin kam, wer gerade spricht und wie diese Information einzuschätzen ist. Intransparente Modelle machen hier einfach weiter. Transparente Modelle können angehalten werden, nach x dem Modell folgenden Inhalten das Muster zu brechen und etwa passende Hinweise anzuzeigen – oder Inhalte aus Medien, die Public Value Content produzieren. 

Datentransparenz ist eine andere mögliche Regelung, die in Ansätzen auch bereits im EU Data Act angesprochen wird. Eine ausführlichere und tiefergreifende Idee dazu stellen Thomas Ramge und Viktor Mayer Schönberger in „Das Digital“ vor. Datenintensive Unternehmen könnten zu Datentransparenz verpflichtet werden – oder auch Teile ihrer Abgaben in Form von Daten leisten. In vielen Punkten sehen Ramge und Mayer-Schönberger in Daten zu aktive und mächtige Akteure, als Regulierungsansatz taugt diese Idee aber allemal.

Transparenz ist die wichtigste verletzliche Stelle von Tech-Konzernen. Einen weiteren Hinweis dafür liefert Open AI: Die vermeintlich Guten, die als transparente Alternative zu kommerziellen Problembären gestartet sind, verweigerten unlängst die Veröffentlichung versprochener Dokumente. Erstaunlicherweise sind es jetzt sogar chinesiche AI-Entwickler, die auf Transparenz setzen. Die chinesische 01.AI soll Metas Llama übertreffen – und setzt außerdem dazu an, vielleicht auch den Boden für Transparenz in China zu bereiten. Denn um besser zu werden, braucht das Modell mehr Information, so wie sie etwa in Open Data zu finden wären.

Alles Ansätze dazu, problematische Technologie zu verändern. Der Ruf nach inhaltlicher Regulierung wird demgegenüber genau wie das, was er ist: Eine Idee von vor 30 Jahren, die damals schon eine wenig erfolgreiche jahrhundertealte Geschichte hatte. 

Eva Menasse, Alles und nichts sagen

Oje, was ist denn da passiert? Eine Digitalasketin konnte dann doch der Versuchung nicht widerstehen, über etwas zu schreiben, mit dem sie sich bekennenderweise nicht beschäftigt: das Internet. Eva Menasse versteigt sich zu einer Digitalkulturkritik und schreibt dabei aus der Position der sehr weit entfernten Beobachterin. Was ein anthropologisch oder ethnologisch reizvoller Zugang hätte werden können, wird sehr schnell zu einer Orgie klischeehafter Platitüden, die mit schlechten Beispielen und zweifelhaften Argumenten gestützt werden. 

Ein paar Beispiele: Menasse beschwört einen Rausch der Information durch grenzenlos Verbindungen in Social Networks herauf, in denen jeder mit allen sofort verbunden und mit aus tausenden Kilometern Entfernung hereinströmenden Reizen ausgesetzt ist. Diese Erwartung hatten frühe UserInnen vor 15 Jahren bei ihren ersten Schritten auf Facebook. Heute sehen sie dort statt interessanter Nachrichten von Korrespondenzfreunden aus Neuseeland oder Botswana die aktuellen Angebote von Gertis Strickstube in Simmering, auf Instagram dagegen exerzieren Influencer die gleichen Trends vor oder Coaches und Lebensberater verkaufen Schulungsprogramme. 

Menasse beklagt den spontanen Zorn und die Konsequenzen unbedachter Zuspitzungen und persönlicher Untergriffe. Offenbar, ohne sich bewusst zu sein, wie viel strategisch konsequente Aufbauarbeit in der Etablierung einer funktionierenden Trollpersönlichkeit steckt. Das unterstützt sie mit der Suggestivbehauptung, wir alle hätten wohl, als wir noch Briefe schrieben, mehr fertig geschriebene Briefe zerrissen oder sonst wie vernichtet, als sie abzuschicken. – Hat wer? 

Sie führt sogar Gil Ofarims gerichtlich festgestellte Lügen über seine angebliche antisemitische Diskriminierung als Indiz für das Problem rasanter Verbreitung ungeprüfter Informationen ins Feld. Hier waren nicht die Medien und ihr Tempo das Problem. Hier verbreitete jemand mit seinem eigenen Gesicht und Namen hartnäckig und konsequent falsche Informationen mit sich selbst als Zeugen und führte Medien aller Arten (und lange Zeit auch Ermittler und Gerichte) an der Nase herum.

Atmosphärisch kann man vielen von Menasses Ausführungen zustimmen. Aber viele sind mit wenig Sorgfalt argumentiert. Und oft geht die Diagnose auch deutlich an ihrem Objekt vorbei. Menasse beklagt etwa rechte Radikalisierung als Digitalphänomen, das durch Tempo und Distanz angeheizt wurde. Gefährliche rechte Radikalisierung ist allerdings kein Internetding. Die findet real und im geheimen statt. Natürlich sorgen Telegram Channels für die passende Begleitmusik und für das notwendige Characterdesign der handelnden Personen. Aber es wäre schön, wenn Radikalisierung ein Netzphänomen wäre. Das trifft allerdings eher auf die Gegenbewegung zu: Kritik an Rechtsextremen und Solidarisierung mit Betroffenen sind eine fröhliche Netzbeschäftigung, deren Ausübende gerne Pose über Handlung stellen. Das war erst in den letzten Tagen wieder zu beobachten, als so manche solidarisch Empörte sich empörten, von dieser oder jener Politikerin kein solidarisches Statement zu den „Demos gegen Rechts“ gelesen zu haben – worauf die Betroffenen den digitalen Beleg nachreichen mussten, dass sie ganz banal analog ohnehin vor Ort waren. Wenn es nicht im Netz ist, ist es nicht passiert. – Dieser Grundsatz gilt, außer für jene, die stattdessen lieber unbeachtet real agieren. 

Menasses Kritik ist intellektuelle Kulturkritik an von traditioneller Kultur abweichenden Medien und Kulturtechniken, die man vor hundert Jahren über da Kino, vor siebzig Jahren über das Fernsehen und vor fünfzehn Jahren über das Internet hätte schreiben können. Heute ist sie nicht unbedingt falsch. Aber berührend altmodisch, wenig relevant, und als Diagnose beschreibt sie eher Internet-Wahrnehmung und Stimmungslage in Feuilleton und Gesellschaftsseiten als digitale Entwicklungen. Das letzte Drittel des Texts widmet sich einer Antisemitismus-Diskussion, in der Digitales keine Rolle mehr spielt und beim Lesen völlig in Vergessenheit gerät, welche Punkte die Autorin in den ersten beiden Dritteln des Texts machen wollte.

Paul Watzlawick, Die erfundene Wirklichkeit

Watzlawick und die Konstruktivisten – das hat auf den ersten Blick etwas hart an der Esoterik Vorbeischrammendes und erinnert an grüne Vor-Gründerzeiten, als Stricken das Gebot der Stunde war. Das ist aber eine grobe Fehleinschätzung. In diesem Sammelband aus den frühen 80ern versammelt Watzlawick, damals Forscher in Stanford, eine Reihe der führenden Köpfe der Zeit (von Förster über Riedl bis Varela) und führt in ein Thema ein, das schon damals 20 Jahre alt war, aber heute noch neu und ungewohnt ist. 

Die einzelnen Essays dieses Bandes erklären Konstruktivismus ohne den technifizierten Quantenmechanikspeak, mit dem das Thema, wenn überhaupt, heute verhandelt wird – und trotzdem kommt im übrigen Schrödinger selbst zu Wort (auch ohne Quantenjargon, aber dazu später).

Ziel des Sammelbands ist es, Grundideen des Konstruktivismus greifbar zu machen. Heinz von Foerster etwa erklärt Erkennen als rekursives Errechnen, also als eine produktive Tätigkeit. Und er postuliert ästhetische und ethische Imperative. Ästhetik für den Konstruktivisten bedeutet: „Willst du erkennen, lerne zu handeln.“ Ethik beharrt darauf, Optionen zu eröffnen: „Handle stets so, dass weitere Möglichkeiten entstehen.“ In beiden Fällen steht Handeln im Mittelpunkt, und es schafft, was dann Wirklichkeit wird. Wirklichkeit, das gilt für Foerster und Rupert Riedl, ist Gemeinschaft. Auch damit sind sie nicht allein. Wirklichkeit im Sinn gemeinsam anerkannter Realität als Verhandlungssache – die Idee findet sich in vielen Ansätzen, nicht zuletzt auch in relativistischen oder kommunitaristischen Positionen.

Dieser soziale und konstruktive Aspekt von Realität wird von verschiedenen Seiten bearbeitet. Watzlawick führt sogar Popper und dessen Ödipus-Effekt (nicht -Komplex) ins Feld. Der Ödipus-Effekt ist eine Art Selffulfilling Prophecy: Etwas tritt nur ein, weil wir Maßnahmen setzen, die verhindern sollen, dass es eintritt. David Rosenhan beschreibt sein berühmtes Rosenhan-Experiment, in dem gesunde Versuchsteilnehmer mit einer falschen Diagnose in die Psychiatrie eingeliefert wurden. Der Auftrag war, sich sofort nach akzeptierter Einweisung wieder völlig normal zu benehmen und auch darauf hinzuweisen, dass man sich für normal halte. – Keiner der Versuchsteilnehmer hätte es aus eigener Kraft während des Versuchs aus der Psychiatrie geschafft. Alle galten als krank, weil sie einmal so diagnostiziert wurden. Und noch einmal Watzlawick, der zwischen den einzelnen Beiträgen kurze Moderationstexte schreibt, argumentiert, dass sich kein System, auch nicht das vermeintlich einfachste und rationalste, aus sich selbst erklären könne. Wittgensteinianer würden hier an Hinges denken, an jene Angeln, die weder hinterfragt noch rational erklärt werden können, an angenommene und gesetzte Fixpunkte, die alles tragen, um die sich alles dreht.

Solche Annahmen sind auch dort relevant, wo Kritiker sie gar nicht vermuten würden. 

Einer der wichtigsten Essays ist der des Mathematikers Gabriel Stolzenberg, der mit erstaunlichem Aufwand – auch das ein Merkmal der Zeit – dafür argumentiert, dass auch Mathematik eine Sache von Spielregeln und Konventionen ist. Mathematik, lang als Inbegriff von Logik (auch ein Spiel mit klaren Regeln) und „Spiegelbild des Geistes“ betrachtet, ist für Stolzenberg ein „Akt des Annehmens von Dingen in ihrem So-Sein“. Mit anderen Worten: Wenn wir rechnen, akzeptieren wir Regeln.

Diese Regeln haben ihr eigenes System geschaffen, deshalb können weder die Regeln das System hinterfragen noch kann das System den Grund seiner Regeln erklären. Es ist einfach so. Es könnte aber auch anders sein. 

Für viele Schüler, die mit Mathematik hadern, wäre diese Perspektive wohl eine Erlösung. Mathematik ist kaum mit Verhältnissen außerhalb ihrer eigenen Regeln in Beziehung zu setzen. Mathematik ist so, daran muss man sich gewöhnen. Und, wie Stolzenberg schreibt: Kaum etwas fordert so starke Bindung an Glauben wie reine Mathematik. – Sobald man zu zweifeln beginnt, ergibt Mathematik keinen Sinn mehr.

Ist das alles abstrakte Schönwettertheorie? Hat der Konstruktivismus, wie Watzlawick fragt, mit dem Alltag so viel zu tun wie die Relativitätstheorie mit dem Bau eines Schuppens? 

Das ist Ansichtssache. Hier kommt dann letztlich Schrödinger ins Spiel. Denn, meint dieser: Genauso wenig können wir uns selbst oder unseren Beitrag in unserem Weltbild finden. Wir sind nämlich dieses Weltbild. 

Ein Satz, der auch aus einem Zen-Lehrbuch stammen könnte. 

Pragmatischer Konstruktivismus war mal auf der Höhe seiner Zeit, ist dann etwas in Softi-Esoterik-Verruf geraten und ist durch Digitalisierung und Techniklastigkeit etwas verdrängt worden. Pragmatischer Konstruktivismus ist aber umso mehr die angemessene Methode unserer Zeit. 

Sascha Lobo, Die große Vertrauenskrise

250 Seiten Zeitdiagnose, vorne 20 Seiten Theorie, hinten ein paar Seiten Konsequenzen und Empfehlungen. Sascha Lobo ist ein sehr effizienter Autor. Die 250 Seiten Mittelteil in „Die große Vertrauenskrise“ können vermutlich mit recht geringfügigen Anpassungen in noch recht vielen Zeitdiagnosen der nächsten zehn Jahre wiederverwendet werden. Lobo spannt den Bogen potenzieller Vertrauensverlust-Ursachen sehr weit: Politische Korruption, Börsenflops, gebrochene Aufstiegsversprechen, Rückkehr von Krieg und Terror – alles keine neuen oder einzigartigen Phänomene – begründen ein Zeitalter des Vertrauensverlusts. Dazu kommen noch Wokeness (kann auch toxisch sein), Cancel Culture, mangelnde Diversity und breite Polarisierung – alles keine guten Startvoraussetzungen für vertrauensvolles Miteinander.

Der Anfang ist vielversprechend: Lobo unterscheidet zwischen altem und neuem Vertrauen. Altes Vertrauen orientiert sich an Institutionen. Altes Vertrauen wird durch Autorität vermittelt und fußt auf Pragmatismus und Zuversicht: Es wird schon klappen.

Neues Vertrauen dagegen ist persönlicher, es orientiert sich nicht mehr an großen Überlieferungen und Traditionen. Neues Vertrauen sieht sich Uneindeutigkeiten ausgesetzt, über neues Vertrauen wird in Einzelfällen entschieden. Wo altes Vertrauen überliefert ist, braucht neues Vertrauen Kontrolle. Demokratie ist in gewisser Weise institutionalisiertes Misstrauen, das durch Kontrolle und Konsequenzen Vertrauen schafft.

Kontrollmöglichkeiten sind heute vielfältig. Dieses Potenzial weckt Erwartungen, die nicht immer erfüllt werden können – manchmal ist Kontrolle nicht möglich, manchmal wird sie verweigert, manchmal deckt sie Schwächen auf. Auch das sind Quellen von Misstrauen. Neues Vertrauen ist volatiler und wird leichter enttäuscht. Altes Vertrauen dagegen ist per se heute oft nicht mehr vertrauenswürdig im neuen Sinn. Es mangelt an Kontrollmöglichkeiten. 

So weit, so verlockend. 

Ein großer Teil von Lobos Vertrauensanalysen beruht dann aber auf Polarisierungsdiagnosen, die schon deutlich detaillierter diskutiert werden. Auch die Analysen zu toxischer Wokeness und Cancel Culture werden anderso differenzierter geführt.

Das wahrhaft erstaunliche aber sind die skizzierten Lösungsvorschläge. Lobo zeigt sich zum Schluss optimistisch und setzt auf demokratische, vernetzende und transparenz- und kontrollförderliche Eigenschaften des Internet. Sogar sein Kernbeispiel für die Mobilisierung guter Kräfte im Netz, ushahidi.com, wurde von Clay Shirky in „Cognitive Surplus“ schon vor zwölf Jahren als ebensolches Beispiel vorgestllt (und auch hier besprochen).

Lobo sagt, was man immer schon vom Internet gesagt hat. Das könnte eine schön konsistente Position sein, würde man darauf hinweisen, in welchen Tradition die Idee steht. Lobo präsentiert die Idee allerdings ohne Bezug zur Vergangenheit. Das verwirrt, man macht sich auf die Suche nach dem Neuen – und findet es nicht.

Das macht misstrauisch. 

Und das macht schließlich auch skeptisch gegenüber der von Lobo als Ausweg aus der Vertrauenskrise vorgeschlagenen Idee des Maschinenvertrauens. Lobo plädiert für pragmatisches zweckorientiertes Vertrauen – pragmatisch im Sinn des alten Vertrauens – gegenüber Maschinen.

Da bin ich misstrauisch. Ich bin kein Technik-Pessimist und kann auch technischem Determinismus nicht viel abgewinnen. Einem pragmatischen Technik-Zugang, der experimentiert, testet, verwendet und verwirft, kann ich viel abgewinnen. Es ist notwendig, sich mit Technik auseinanderzusetzen und sich darauf einzulassen – aber Vertrauen kann allenfalls das Ergebnis eines souveränen Umgangs mit Technologie sein, Vertrauen kann nicht am Anfang stehen. 

Angemessener – in Anlehnung an Lobos eigene Kennzeichnung von Demokratie als institutionalisiertem Misstrauen – fände ich eine Idee von Maschinendemokratie anstelle von Maschinenvertrauen. Wer sich Technologie beschäftigt und zu verstehen versucht, kann sinnvoll mitreden. Wer das nicht tut, muss wohl oder über vertrauen. Das ist aber die schlechtere Wahl.

So wie Open Source Intelligence als Kontrollmöglichkeit weitaus mehr als simple Google-Recherche bedeutet, reicht Höflichkeit gegenüber Robotern nicht aus, um ihnen Vertrauen zu können. Das wäre eine einseitige Angelegenheit; ich wäre mit Vertrauen nicht so leichtfertig bei der Hand. 

In der Idee eines Maschinenvertrauens kann ich keinen sinnvollen Ausblick aus einer soliden Vertrauenskrise sehen. 

Definitionen und die Rumpelkammer der Logik

„Fakten sind doch per Definition wahr!“ – das hielt mir unlängst jemand entgegen, der meine Notizen zu Knorr Cetinas „Die Fabrikation von Erkenntnis“ gelesen hatte. Das ist ein interessanter Einwand – allerdings weniger seiner eigentlichen Intention nach, sondern weil damit die Rolle und Funktion von Definitionen in den Mittelpunkt gerückt werden.

Kurz zum Ausgangspunkt: Knorr Cetina vertritt pragmatisch-konstruktivistische Positionen zu Wahrheit und Erkenntnis. Denen zufolge finden wir keine Fakten, wir nähern uns nicht einer Realität, die es zu entdecken gilt, sondern wir – je nach Perspektive – einigen uns auf Fakten, wir schaffen sie oder wir setzen sie innerhalb eines Regelsystems, um innerhalb dieses Systems weiterarbeiten zu können. Grundsätzlich ist das in der Wissenschaftsphilosophie seit der Kritik an Francis Bacon und dessen Idee, einen über der Welt liegenden Schleier lüften zu wollen, weitverbreiteter Konsens. Also etwa seit der Mitte des 17. Jahrhunderts. Gerade unter Menschen, die viel mit scheinbar einfachen und klaren Zusammenhängen zu tun haben – oft im Finanzbereich, manchmal auch unter Technikern – ist diese Sichtweise heute noch umstritten. Eigentlich ist das zu kurz gegriffen: Es stößt manche nach wie vor vor den Kopf. Und dann entstehen solche Gegenargumente wie jenes mit den Definitionen.

Definitionen kommt bei allen Auseinandersetzungen mit dem Themenkreis rund um Daten, Fakten oder Wahrheit eine tragende Rolle zu. Definitionen machen Begriffe greifbar, so dass überhaupt erst sinnvoll darüber gestritten werden kann, ob etwas wahr ist oder nicht. Zugleich ist die Notwendigkeit von Definitionen aber ein Hinweis darauf, dass ein Begriff problematisch ist und nähere Untersuchung braucht.

Definitionen von Daten, Fakten und Wahrheit sind so alt wie die moderne Wissenschaft selbst. Die frühen experimentierenden Wissenschaftler der Royal Society des 17. Jahrhunderts schufen durch ihre Experimente Fakten, die ganz gezielt als möglichst neutrale, nicht näher zu hinterfragende, aber durchaus interpretationsbedürftige Wissenselemente zu sehen waren. Fakten waren etwas Wahrnehmbares und Messbares. Wahrheit allerdings war etwas anderes. Beobachtbare Fakten führten Robert Boyle, Experimentator mit der Luftpumpe, zu der Annahme, es müsse so etwas wie einen luftleeren Raum geben. Rationalistische Dogmatiker wie Thomas Hobbes schlossen aus den gleichen Fakten, dass dort, wo keine Luft war, Äther sein müsse – denn Leere könne es nicht geben.

Fakten sind etwas gemachtes – das sagt schon der Wortstamm.

Umso größerer Hoffnungsträger waren Daten. Schließlich suggeriert deren Wortstamm, sei seien simpel gegeben. Nachdem Daten aber ebenso gewissen Kriterien, in mancherlei Hinsicht sogar bestimmten Formaten entsprechen müssen, stellt sich auch hier bei geringfügig näherer Betrachtung heraus: Daten sind nicht so einfach, sie sind auch nicht gegeben, sie sind ebenfalls gemacht. Wie Fakten. Oder sie sind zumindest gesammelt – Data sind eigentlich Capta, um bei lateinischen Wortstämmen zu bleiben.

Das führt jetzt endlich zu Frage der Definitionen. Definitionen sind etwas anderes als Theorien und als Kriterien. Eine Definition von etwas liefert noch nicht unbedingt Hinweise dafür, wie etwas als das Definierte zu erkennen sei. Beliebte Beispiele dafür kommen aus der Chemie: Die Definition von Flüssigkeiten als sauer oder basisch setzt an deren pH-Wert an. Das Kriterium, um über diese Eigenschaft einer Flüssigkeit zu entscheiden, liefert die Färbung eines Teststreifens. Eine Definition hat also recht wenig mit Wahrheit zu tun oder mit der Frage, ob die als notwendig definierten Eigenschaften tatsächlich vorliegen. Das muss auf anderer Ebene festgestellt werden.

Die Wissenschaftstheorie kennt mehrere Arten von Definitionen:

Stipulative Definitionen legen die Bedeutung eines Begriffs fest. Oft führen stipulative Definitionen neue Begriff ein, die als Kürzel für bislang mit mehreren Bedingungen beschriebene Sachverhalte eingesetzt werden.

Deskriptive, nominale Definitionen beschreiben, sie erklären etwas mit anderen Worten. Oft werden dabei auch Kriterien aufgezählt.

Reduktive Definitionen schließlich führen Begriffe auf Bekanntes zurück. Reduktiv definierte Begriffe sind Kombinationen anderer, als bekannt vorausgesetzter Begriffe.

Deskriptive und reduktive Definitionen funktionieren im Idealfall ähnlich wie Mathematik. Sie setzen auf einem funktionierenden akzeptierten System auf, so wie Mathematik etwas herleiten, berechnen oder beweisen kann, weil es zuvor so festgelegt wurde. Das Ergebnis einer mathematischen Fragestellung ist immer schon in den Regeln der Mathematik enthalten. Aber manchmal sind die Regeln kompliziert anzuwenden. Dennoch: Regeln sind meistens Konventionen. Ihre Wahrheit liegt darin, dass sie akzeptiert sind. Oft basieren Regeln auf Näherungen (wie bei der Arbeit mit Funktionen und Ableitungen), manchmal sind sie auch Erfindungen, deren Zweck es ist, etwas möglich zu machen – so wie imaginäre Zahlen eingeführt werden mussten, weil die bislang geltenden Regeln bei manchen Prozessen trotz korrekter Ausführung unmögliche Ergebnisse produzierten. Eine Wurzel aus -1 kann das Ergebnis einfacher Rechnungen sein, aber sie kann mit diesen einfachen Rechnungen nicht dargestellt werden.

Deskriptive und reduktive Definitionen sind analytische Techniken. Vorher hergestellte Zusammenhänge werden nachher untersucht. Daher eignen sie sich nicht für die Arbeit mit großen unscharfen Begriffen wie Wahrheit. Das zeigt sich nicht nur in der Mathematik. Auch das Rechtssystem ist ein komplexes geschaffenes System, das erst geschaffen wurde, dann analysiert und auf seine Grenzen hin untersucht wird – und dabei so behandelt wird, als wäre es Gesetz …

Synthetisches dagegen ist immer spekulativ. Stipulative Definitionen sind synthetisch, sie stellen neue Verbindungen her. Sie führen einen Begriff ein und geben ihm eine Bedeutung, oder sie finden ein Wort für eine bestehende Situation. Stipulative Definitionen haben soviel mit Wahrheit zu tun wie die Benennung eines neuen Asteroiden oder eines neuen Insekts mit ihren EntdeckerInnen – es heißt nun mal so, weil jemand das so vorgeschlagen hat. In bezug auf die Ausgangsfrage und Fakten bedeutet das: Wenn man möchte, kann man durchaus Fakten als per Definition wahr definieren. Das bedeutet aber noch lange nicht, dass diese Definition auch wahr ist.

Denn „per Definition“ bedeutet: Innerhalb dieser Regeln (und dann meist nur noch implizit: auf die wir uns geeinigt haben, die ich voraussetze, zu denen ich aktuell keine Alternative sehe ) gilt dieses oder jenes. „Per Definition“ schließt daher, wie jeder Appell, immer ein: Es könnte auch anders sein. Deshalb brauchen wir Regeln, deshalb wollen wir uns abgrenzen.

Tritt das einen endlosen Regress los, in dem immer weiter Abgrenzungen und Regeln notwendig werden, in dem wir immer weitere Bedingungen akzeptieren müssen? Am Beispiel von Fakten: Fakten sind wahr, weil sie durch bestimmte Prozesse wissenschaftlichen Arbeitens gewonnen wurden und geprüft werden können. Diese Prozesse sind relevante Qualitätskriterien, die sich unter der überwiegenden Mehrheit von Wissenschaftlerinnen etabliert haben. Sie haben sich etabliert, weil sie Kritik, Diskussion und Nachvollziehbarkeit ermöglichen. Das sind relevante Merkmale wertfrei und neutral geführter Diskurse. Wertfrei und neutral sind wichtige Eigenschaften, die nicht den Blick auf Tatsachen verstellen. – Solche Diskussionen, die Wissenschaftstheorie, -philosophie und -soziologie seit den 70er Jahren beschäftigen, sind zuletzt in Verruf geraten. Die Post-Corona-Ratlosigkeit angesichts der vielen katastrophal schlechten Kommunikationsaktivitäten vieler Behörden und Regierungen lassen aber erkennen, dass eben diese Diskussion nicht ganz müßig ist. Wissenschaft wurde verunglimpft, überstrapaziert, verachtet, mit Verantwortung überladen – alles weil unausgesprochen blieb, welche Spielregeln für das aktuell verfügbare Wissen galten und nach welchen Regeln die dadauf aufbauenden Empfehlungen zustandegekommen waren.

Allein die theoretische Möglichkeit des Regresses (Harry Collins hat diesen Regress in vielen Laborsituationen beschrieben) ist für viele Kritiker, die sich für vernunftorientiert halten, Frevel an den vermeintlichen Errungenschaften der Aufklärung, der Punkt, an dem rationale Diskussion unmöglich wird und reiner Unklarheit, Ungewissheit und langweiligen Wiederholungen weicht. Auch für jene, die hier ein Abenteuer sehen, beginnt hier dünnes Eis. Es ist aber nicht nur Knorr Cetina, die hierzu Orientierung und Argumentationshilfe liefert. David Bloor mit der Wissenschaftssoziologie, Ludwik Fleck mit den Überlegungen zur Entstehung einer wissenschaftlichen Tatsache, die Urahnen der Wissenschaftstheorie Kuhn und Lakatos, und, möglicherweise unfreiwillig, auch Karl Popper sind Zeugen, die man hier anrufen kann.

Wir befinden uns mitten in der Rumpelkammer der Logik. Die Rumpelkammer erfüllt ihren Zweck dadurch, dass sie vergessen werden kann. Sie enthält vieles, das uns aktuell vor ein Problem stellt, das wir nicht in unmittelbarer Nähe oder in unserem Sichtfeld haben möchten, von dem wir aber glauben, dass wir es später noch mal brauchen können. Vielleicht wissen wir auch gerade nicht, was es ist, aber es sieht wichtig aus. Oder es hat irgendeine sentimentale Bedeutung für uns. Solange die Rumpelkammer noch Dinge aufnehmen werden kann und die Tür nachher noch geschlossen werden kann, ist die Welt in Ordnung. Jede Theorie, jede Form von Logik braucht diese Rumpelkammer. Sogar Mathematik lässt hier vieles verschwinden und beweist, was sie vorher definiert hat, ohne sich Gedanken über die Grundlagen dieser Definitionen zu machen (die natürlich praktisch, pragmatisch und in diesem Sinn richtig sind – aber auch anders sein könnten). In der Rumpelkammer landen Anomalien, Unerklärliches, das in viele Einzelteile zerlegt und erklärt werden kann. Es gibt keine durchgängig rationalen Erklärungen dafür, warum manches in der Rumpelkammer landet und anderes im Salon ausgestellt wird. Die Erklärungen sind Wert- und Geschmacksurteile oder zweckorientierte Schlusssfolgerungen.

Deshalb entstehen Probleme vor allem dann, wenn die Rumpelkammer geöffnet wird. Vielleicht ist kein Platz mehr, vielleicht hat jemand eigenartige Geräusche gehört, vielleicht erliegen wir auch nur dem alle paar Jahre wiederkehrenden Rappel, ausmisten zu wollen (obwohl wir uns dann ohnehin kaum von etwas trennen können). Dann müssen wir uns der Frage stellen, warum wir etwas aufheben oder wegwerfen, welchen Wert wir diesem Gegenstand (also diesem Argument) beimessen, was wir noch brauchen, damit diese alten Sessel im Salon gut aussehen (also unter welchen Voraussetzungen ein Argument sinnvoll sein kann) – und das führt oft zu Ärger.

Definitionen zu hinterfragen, das führt ebenso in die Rumpelkammer. Da muss aufgeräumt, neu sortiert und abgestaubt werden – und auf dem Weg dorthin stellt man sich viele unliebsame Fragen, denen man lieber nie begegnet wäre. Wenn wir verständlich bleiben wollen, dann schließen wir die Tür zur Rumpelkammer möglichst bald wieder – neue Definitionen haben das Potenzial zu Missverständnissen, langwierigen Diskussionen und größeren Veränderungen, als man sie eigentlich anstoßen wollte.

Wenn allerdings zweckmäßige, angemessene und sachlich brauchbare Definitionen mit Wahrheit verwechselt werden, dann müssen wir tief hinein in die Rumpelkammer. Und es ist zu erwarten, dass auf diesem Weg einige Menschen verloren gehen werden, die keinen Sinn darin sehen, die Rumpelkammer aufzuräumen. Deshalb lassen wir sie ja so gerne verschlossen. Aber manches fordert eben dazu heraus …

Karin Knorr Cetina, Die Fabrikation von Erkenntnis

In den 70er Jahren, als dieses Buch erschien, war es revolutionär, heute ist es in Gefahr,  in gefährliche Nähe zu Querdenkern und Esoterikern zu geraten: Karin Knorr Cetina stellt in ihrem Klassiker die Frage nach einer Anthropologie der Wissenschaft. Welche Rahmenbedingungen abseits von instrumenteller Rationalität bestimmen wissenschaftliches Arbeiten? Wie weit kann eine eigene wissenschaftlicher Rationalität isoliert werden, wie weit ist auch Wissenschaft Grundsätzen und Gewohnheiten alltäglichen Handelns unterworfen?

Knorr Cetinas Methode der Laboratory Studies setzt auf teilnehmende Beobachtung – so wie Anthropologen am Leben Indigener teilnehmen und wie es Bruno Latour teilweise noch heute praktiziert. Dazu gehört ein Theoriegerüst, dass sich auf Peirce und Quine stützt und Theoriebeladenheit von Beobachtung als Tatsache akzeptiert.

Daraus entwickelt Knorr Cetina eine Perspektive auf Wissenschaft, die jede Wissenschaft, auch technische Naturwissenschaften, als konstruktiv statt deskriptiv oder reflexiv kennzeichnet. Wissenschaftler schaffen Wissen und Fakten, sie entdecken sie nicht, sie schaffen Gesetzmäßigkeiten und Konstanten, die es ohne Wissenschaft und ihre Methoden nicht gebe.

Der Experimentator im Labor ist für Knorr Cetina eine der kausalen Ursachen seiner Ergebnisse. Wissenschaft ist eher eine Sache der Rechtfertigung als von Entdeckung: Als Ergebnis beschriebene Findings und Prozesse werden erklärt und in passende Zusammenhänge gestellt. Diese Zusammenhänge werden nicht schlicht vorgefunden, sie sind Ergebnis einer Wahl und diese Wahl kann besser oder schlechter gerechtfertigt werden.

Dabei spielt es eine große Rolle, wem gegenüber die Rechtfertigung greifen soll – wenn es wissenschaftliche Peers und Financiers überzeugt, ist es Wissenschaft. Die Ökonomie der Aufmerksamkeit (im eigentlich von Frank intendierten Sinn) bestimmt, wer lukratives Publikum der Rechtfertigung ist. Unterschiedliche Kreise des wissenschaftlichen Publikums bestimmen, wie nachhaltig sich Erkenntnisse etablieren (das hat auch Ludwik Fleck beschrieben).

Das steht im Gegensatz zu klassischen Idealbildern wissenschaftlicher Prozesse. Im Idealbild von Wissenschaft legen ForscherInnen Fakten frei und nähern sich so der Wahrheit. Das ist ein geradliniger Prozess, der von allerhand Störfaktoren beeinflusst werden kann, sich aber geradezu zwangsläufig vollzieht, wenn diese aus dem Weg geräumt sind. Schwächen dieser Annahme hat David Bloor mit seinem Strong Programme der Wissenssoziologie dargelegt. Knorr Cetina legt nach. Sie zieht die Prinzipien wissenschaftlicher Arbeit von Richard Merton in Zweifel: Skepizismus, Desinteresse im Sinn von Unvoreingenommenheit und Kommunismus im Sinn uneingeschränkten Teilens und Veröffentlichen von Erkenntnissen sind nicht die Leitlinien wissenschaftlicher Arbeit. 

Die Rationalität von WissenschaftlerInnen ist vielmehr opportunistisch: Sie orientiert sich an Gegebenheiten und Gelegenheiten. Erfolg ist in der wissenschaftlichen Arbeit relevanter und effizienter als Wahrheit. Bestätigte Hypothesen, reproduzierbare Experimente – das sind Kennzeichen des Erfolgs. Über Wahrheit sagen diese Ereignisse noch nichts aus.

Relevanz der eigenen Arbeit wird mit literarischen Techniken inszenziert. Dazu analysiert Knorr Cetina wissenschaftliche Papers in ihren verschiedenen Versionen bis zur final publizierten und weist nach, wie Begründungen im Verlauf der Finalisierungen reduziert und eliminiert werden und dadurch die vertretenen Hypothesen und Methoden mehr und mehr als selbstverständliche oder einzig mögliche Wahl etabliert werden.

Transepistemische und transwissenschaftliche Komponenten der wissenschaftlichen Arbeit schließlich stellen das Ideal des Kommunismus infrage: WissenschaftlerInnen kämpfen um Ressourcen und Positionen und brauchen beides, um ihre Arbeit fortsetzen und ausbauen zu können. Das sind keine Störfaktoren des wissenschaftlichen Prozesses, sondern notwendige Bestandteile – so wie die Suche nach einem bessern Mikroskop oder einem effizienteren Algorithmus. 

Wissen ist fabriziert – und das ist keine Schwäche oder Schwächung von Wissenschaft. Diese Einsicht stärkt des wissenschaftlichen Prozess und die Perspektive auf Wissen selbst als Prozess, nicht als Produkt. Wissen ist in Bewegung und steht immer in Beziehungen. Das ist eine pragmatische und konstruktivistische Perspektive, die weitaus dynamischere Beziehungen als Korrespondenz oder Konsistenz als Relevanzkriterien ansetzt. Das bedeutet auch: Es gibt viele verschiedene Gründe, warum etwas als wahr oder wissenschaftlich relevant angesehen werden kann. Und nicht alle dieser Gründe sind immer offenbar und für jedermann nachvollziehbar; sie entsprechen oft nicht dem ideal neutraler wertfreier unbeeinflusster Neutralität.

Diese pragmatische Wahrheitssicht ist durch Technowissenschaften zuletzt etwas in den Hintergrund geraten. Wo mehr gerechnet wurde schien es, als wäre auch Wahrheit eine Frage korrekter Rechenvorgänge und damit eindeutig und für alle nachvollziehbar. 

Gerade für Technowissenschaften ist es aber jetzt um so wichtiger, zweck- und kontextorientierte Konzepte von Wissenschaft und Wahrheit zuzulassen und zu verstehen. Wie sonst sollen Daten interpretiert werden können, sie sollen Algorithmen beurteilt werden können, wie sollen Fortschritte von Machine Learning eingeschätzt werden können? Abbildungs- oder entdeckungsorientierte Wahrheits- und Wissenschaftskonzepte ergeben keinen Sinn mehr, wo gerechnet, entschieden, berechnet und programmiert wird.

Überall dort, wo Technik eine relevante Rolle spielt, ist pragmatischer Konstruktivismus die angemessene Sicht auf Wissenschaft und Wahrheit. 

Blättern in Paralleluniversen

Sie begegnen den Neugierigen öfters auf Twitter, man hört von dem einen oder andere Affront, im eigenen Alltag sind sie aber völlig irrelevant: Neokonservative Blätter wie Pragmaticus oder Weltwoche tragen die intellektuelle Nase hoch. Aber was ist dran? Neulich in der Bahnhofsbuchhandlung bin ich meiner Neugierde erlegen. Ich musste mal in die Horte der Cancel Culture-Kritik schnuppern. 

Es sind ja alles kluge Leute. Es verwundert allerdings, wenn in Leitartikeln wiederholt betont wird, wo die Wahrheit zu finden sei. Nämlich genau hier. Im Pragmaticus schreiben Expertinnen „unverfälscht“, erklärt Andreas Schnauder. Und die Weltwoche tritt gar an, um die „Wogen des Wahnsinns“ in der Welt zu glätten, lässt uns Roger Köppel wissen. Das ist interessant. Beide verschreiben sich also der Agitation. Insbesondere der Pragmaticus, der ExpertInnen den Vorrang gegenüber JournalistInnen einräumt, verabschiedet sich damit von der Idee der analysierenden Berichterstattung. Da schreiben Think Tank-Mitarbeiter über Gaza oder über Zinsen und bringen damit natürlich eine Agenda ins Blatt, ein Pro, das großzügig auf sein Kontra verzichtet. Man kann das machen, das ist nicht unseriös, reine Pro-Kontra-Gegenüberstellungen sind ebenso vorhersehbar langweilig und reden öfter aneinander vorbei als miteinander – aber man sollte es nicht Journalismus nennen. Wer sich mit solchen Texten, die etwa so vorhersehbar spannend sind wie ein Fernsehabend mit Schlagerrevue (gibts sowas noch?), unterhalten möchte, kann das gerne tun. Viele schätzen ja die Vorhersehbarkeit.

Manchmal verwundern aber kognitive Dissonanzen. Die aktuelle Pragmaticus-Ausgabe etwa stellt sich dem Thema Verbote. Da werden Freiheitsbilder heraufbeschworen, da sind Essverbote in öffentlichen Verkehrsmitteln Akte der Knechtschaft. Gestern im Zug neben mit hat eine Gruppe Schüler übelriechende panierte Klumpen von KFC aus großen Eimern gefuttert, Helden des Freiheitskampfes also, denen man dereinst Denkmäler setzen wird. Da wird das Hinwegsetzen über Verbote von jenen gefordert, die zugleich auf Integration pochen. Mit dem 911er mit 200 Sachen über die Autobahn brettern ist ok, bei der Hochzeitsparty mit der Schreckschusspistole in die Luft ballern ist Zeichen mittelalterlicher Rückständigkeit. Gehört verboten.

Da beanspruchen „Kulturphilosophen“, das „gesamte Panorama“ westlicher Geisteshaltungen über die Jahrhunderte im Blick zu haben und beklagen eine schleichende Moralisierung – klar, vor ein paar Jahrhunderten gaben das nicht, da haben wir alles kühl und rational durchdiskutiert mit Feuer und Schwert.

Coronaverbote waren schlimme Eingriffe in die Freiheitsrechte und nur mal ein Vorgeschmack auf die heraufdräuenden Klimaverbote. Klimawandel kann übrigens nicht ganz so schlimm sein: Schließlich haben Eisbären auch die Eem-Warmzeit von 130.000 Jahren überlebt, lernen wir auch in dieser Ausgabe.

Am deutlichsten abgelehnt werden einer Umfrage im Heft zufolge im übrigen Verbote beim Autofahren, egal ob Tempolimits oder Verbrenner-Aus, gefolgt von Drogen- und Alkoholverboten. Wenn der moderne Freiheitskämpfer also seinen KFC-Kübel im Zug aufgegessen hat, raucht er einen Ofen und fährt betrunken Auto.

Immer noch besser, als kognitiv invasivem Nudging zum Opfer zu fallen. Auch davon lernen wir im Pragmaticus. 69% befragter Menschen fühlen sich übrigens von Medien bevormundet; diese wollten Meinungen durchsetzen oder aufzwingen. Bevormundend, btw, finde ich die „Conclusio“-Boxen am Ende des Artikels, die noch einmal zusammenfassen, was man jetzt wirklich aus dieser Story mitnehmen soll – um Menschen vor dem anstrengenden Missverständnis zu bewahren, eigene Schlüsse zu ziehen. In den Headlines der Conclusio-Boxen steht auch was von „Fakten“. Dazu muss man sagen: Fakten vertragen sich nicht mit dem häufig dort verwendeten Konjunktiv. „Fakten“ im Konjunktiv sind Hypothesen. Das ist auch nichts schlechtes. Aber doch etwas deutlich anderes.

Und die Weltwoche? Wenn Roger Köppel nicht gerade Wogen des Wahnsinns in der Welt glättet (wenn das im übrigen kein bevormundendes investives Nudging ist …) ist er offenbar sehr fleißig. Eine ganze Reihe von Storys und Interviews in diesem Heft sind von ihm selbst. Dazu kommen noch einige Essays und Kolumnen von Russland-Verstehern, Analysten im wilden Infight mit Strohmännern, Vernunftapologeten, auf die, blättern man einmal um, Interviews mit Wirtschaftsastrologen folgen, die Markenhoroskope erstellen, und, Achtung, auch Tom Kummer führt hier wieder Interviews. (Für die Nachgeborenen: Kummer war der Interview-Star der späten 90er Jahre, dem Hollywood und der Rest der Welt intimste Geheimnisse für das Magazin der Süddeutschen verrieten. Nur hatten viele dieser Interviews nie stattgefunden. Kummer verschwand für einige Jahre. Chefredakteur des SZ-Magazins war damals, dann nicht mehr, Ulf Poschardt.)

Weltwoche-Kolumnisten befleißigen sich gern einer ausufernd adjektivüberladenen Sprache und liefern Takes, zu denen Menschen außerhalb ihres Gedankenuniversums erst mal nachrecherchierten müssen. Teilweise, weil ich noch nie von der Sache gehört habe, teilweise, weil die vertretene Perspektive so schräg ist, dass sie dazu herausfordert, sich neue Fakten zu verschaffen. So wird etwa Serbien als technologisches und soziales Fortschrittsland des Balkan beschrieben. Hatte ich so noch nicht gehört. Ein andere Kolumnist freut sich über eine ganze Schulklasse ohne Handys, „und alle verstanden Schweizerdeutsch“. Und es wird gefeiert, dass das kritische Buch der Autorin Michèle Binswanger über die von einem Kollegen missbrauchte Politikerin Jolanda Spiess-Hegglin erscheinen konnte. Binswanger wurde vor einigen Monaten erst wegen der Verleumdung von Spiess-Hegglin verurteilt; zwischen der Weltwoche und Spiess-Hegglin gab es ebenfalls einige Rechtsstreitigkeiten.

Und auf all dieses Durcheinander folgt ein schöner Kultur- und Rezensionsteil, den ich ohne die Zeitung davor vielleicht sogar öfter lesen würde.

Beide Magazine beklagen immer wieder Welten ohne Halt und sie versuchen, diese aufzuhalten. Beim Pragmaticus ist hypostasierte Vernunft wie aus dem Cancel Culture-Kritik-Lehrbuch das Gegenmittel der Wahl. Köppel beklagt überhaupt öfters ein beerdigtes Christentum.

Es ist schön und manchmal beneidenswert, wenn man sich mit solchen Retrospektiven beschäftigen kann. Es ist verständlich, dass Nostalgie ihr Publikum findet. Es ist auch erschreckend, dass sich diese Spielart von Medien weniger Zukunftssorgen machen muss als andere Formate.

Sowohl der Pragmaticus als auch die Weltwoche erfüllen die Funktion, LeserInnen einen sicheren Hafen zu bieten. Sie ordnen ein, urteilen, verurteilen – auch und gerade wenn sie beanspruchen, das Gegenteil zu tun. Sie bieten erwartbare Meinungen in überschaubarer Zahl. Es ist eine Art intellektueller Boulevard, der weit ausholt und dann doch immer wieder bei den gleichen Erwartbarkeiten landet.