John D. Kelleher, Brendan Tierney: Data Science

Data Science ist Handwerk. Und wie bei den meisten handwerklichen Tätigkeiten fließt der meiste – und am wenigsten beachtete – Aufwand in die Vorbereitung. Ohne saubere Schnittstellen im Material kann nicht ordentlich geschweißt werden, Anstriche auf der falschen Grundierung halten nicht und ohne ausreichend gesammelte, vorbereitete und aufbereitete Daten führen auch die fortgeschrittenste Mathematik oder erprobte Algorithmen nicht zu nennenswerten Ergebnissen. Das ist eine der Kernaussagen von John Kellehers und Brendan Tierneys Grundlagentext zu Data Science.

Ein entscheidender Faktor für gelingende oder scheiternde Data Science Projekte steht also ganz am Anfang, ein anderer steht am Ende: Die Integration in relevante Prozesse ist, wie in vielen Fällen technisch-organisatorisch-inhaltlicher Projekte, ausschlaggebend dafür, ob Ergebnisse als sinnvoll empfunden werden. Leisten sie das nicht, dann gelten die trotz aller technischen Finesse schnell als fehlgeschlagene Zeitverschwendung.

In Hinblick auf eine kritische Auseinandersetzung mit Data Science und mit anderen mit Daten verknüpften Verheißungen, wie sie etwa Open Data bietet, zeigen sich Kelleher und Tierney als Skeptiker. Data Science könne viele Antworten liefern, allerdings sei es sehr leicht und wahrscheinlich, die falschen Fragen zu stellen. Data Science, Analyse und Statistik müssen von fachspezifischem Knowhow begleitet werden, um sinnvolle Ergebnisse zu liefern.
Die laufend – in mehreren Iterationen – notwendige Kontextualisierung von Daten ist ein wesentliches Element diverser Hierarchie-Pyramiden, mit denen Kelleher und Tierney Data Science-Prozesse beschreiben. In der DIKW (Data-Information-Knowledge-Wisdom)-Pyramide stehen Daten als Abstraktionen auf der untersten Stufe, ihnen folgt Information. Beim Schritt von Daten zu Information wurden Daten verarbeitet, strukturiert und kontextualisiert, um für Menschen verständlich zu sein. Information wird zu Wissen, indem Information interpretiert und verstanden wird und Handlungsgrundlage werden kann. Wissen schließlich wird zu Weisheit, also zum angemessenen Handeln aufgrund von Wissen. Diese Hierarchie macht deutlich, wie weit eine pragmatische, kontextorientierte und auf Handlungen und Wirkung abzielende Perspektive relevant ist, um Sinn aus Daten zu stiften. Das ist schlüssig. Allerdings fehlt in der Darstellung von Kelleher und Tierney jeder Hinweis auf einen möglichen Bezug zu Objekten, Realität oder anderen Begriffen, mit denen sich Sphären außerhalb von Daten beschreiben lassen. Es wäre also egal, ob Information und Wissen wahr oder auch nur wahrheitstauglich sind; sie können trotzdem die Stufe der Weisheit erreichen. Philosophen wie Luciano Floridi melden dagegen Einspruch an; für Floridi müssen Daten als Information zumindest so wahr sein, wie eine Landkarte wahr ist. “Adäquates Handeln auf der Basis von Wissen”, so definieren Kelleher und Tierney Weisheit, ist kein Gegensatz dazu; allerdings bringt die Formulierung einige Probleme rund um Fragen der Adäquatheit mit sich.

Adäquatheit muss allerdings keine direkt eindeutige Relation sein; Adäquatheit wie Kelleher und Tierney sie im Data Science-Kontext beschreiben, kann auch als Viabilität funktionieren, wie Glasersfeld sie als Qualitätskriterium für Begriffe und Annahmen im radikalen Konstruktivismus beschreibt. Ein Indiz dafür ist die Betonung experimenteller Ansätze und der Iteration, die Kelleher und Tierney häufig wiederholen. Unterschiedliche Settings oder die Anwendung unterschiedlicher Algorithmen liefern unterschiedliche Ergebnisse – es liegt an der Anwendung, am Kontext und an der Einschätzung des Experten, welche davon angemessen sind. Mehrfache Iterationen machen die Entscheidungen dabei besser.

Daten sind also Material, aus dem Information gewonnen werden kann. Weder in der Sammlung von Daten noch in deren Weiterverarbeitung lässt sich allerdings ein den Prozess beeinflussender Bias vermeiden. Damit wenden sich Kelleher und Tierney  gegen die Vorstellung einer neutralen und ausschließlich sachlich vorgehenden Data Science. Sie gewinnen der Vorstellung einer modellfrei und hypothesenlos forschenden Wissenschaft nichts ab; jede Datensammlung folgt einem Modell und jede Interpretation einer Hypothese. Sie wenden sich allerdings auch gegen die Vorstellung einer diesen Bias gezielt eliminierenden Data Science oder gegen den Einwand Bias sei immer sozial und politisch geprägt und könne so auch aufgelöst werden. Ohne Bias – der Entscheidungen in eine bestimmte Richtung treibt – lernen Maschinen im Machine Learning nichts, sie können keine Entscheidungen treffen, sondern nur Daten memorieren. Es liegt an Data Scientists, den jeweils aktuellen Bias und dessen Konsequenzen erkennen und einschätzen zu können – im übrigen ein Task, der nur noch wenig mit Informatik und Mathematik zu tun hat.

Einen anderen problematischen Begriff verwenden Kelleher und Tierney ebenfalls nur mit Einschränkungen – lassen dabei aber meines Erachtens noch zu viel Spielraum: Sie beschreiben Daten als Rohmaterial und verwenden öfter den Begriff “roh” im Zusammenhang mit Daten, auch wenn sie dabei zugleich stets einschränken, dass Daten gewonnen werden, sei es durch Abstraktion, durch Kategorisierung oder durch Beobachtung nach einem gewissen Schema. Daten sind immer schon verarbeitetes Material, sie sind niemals roh. “Raw Data is an Oxymoron”, beschreibt es Lisa Gitelman;  Luciano Floridi experimentiert mit Begriffen wie Capta oder Relata, um mit dem Nimbus des Ursprünglichen, Unverfälschten von Daten aufzuräumen. Kelleher und Tierney vertreten keineswegs die Einstellung, Daten wären unverfälschtes Rohmaterial. Sie machen das meines Erachtens allerdings wenig deutlich. Menschen, die Entscheidungen gern  Daten und Fakten überlassen möchten, die in der Politik nach Evidenz rufen oder soziale Fragen “mit Wissenschaft” entscheiden möchten, werden in Kellehers und Tierneys Formulierungen keinen Widerstand finden.

Das zeigt, wie wichtig zusätzlich zum fachlich-technischen Knowhow weitere Perspektiven in der Einschätzung Data Science-relevanter Fragen sind. Ein neues und wohl noch zukunftsträchtiges Konzept dazu bietet Sabina Leonelli mit data journeys, einer Perspektive, die vor allem Augenmerk auf die Geschichte, Entstehung, Verwendung und Veränderung von Daten legt und sich von Rob Kitchins data assemblages dadurch unterscheidet, dass die mehrfache Nutzung und Veränderung von Daten besser abgebildet werden kann.

Rob Kitchin: The Data Revolution

Kaum eine Buchsorte alterte in den vergangenen Jahren schneller als Bücher über Daten. Eilige Propheten – in Österreich sogar alternde Radiomoderatoren – brachten in den vergangenen zehn Jahren Bücher auf den Markt, die Planbarkeit, Kontrollierbarkeit, Gerechtigkeit, Transparenz und Fortschritt versprachen.

In doch recht deutlichem Gegensatz dazu wundern wir uns heute noch über absurd schlechte Personalisierungsempfehlungen bei großen Onlinehändlern oder über merkwürdig schlechte Werbeplatzierungen in Onlinemedien und Social Networks.

Ein Grund für diese Differenz liegt in jenen Missverständnissen, die Rob Kitchin in “The Data Revolution”, einem großen Überblick über philosophisch relevante Themen rund um Big Data und Open Data, beschreibt.

Der zentrale Punkt ist die nach wie vor häufig anzutreffende Fehleinschätzung, das Daten für sich selbst sprächen. Diese Fehleinschätzung ist schon in einem missverständlichen Begriff begründet: Daten sind nicht etwas Gegebenes (wie es der Übersetzung aus dem Lateinischen entspräche); sie sind mit Beobachtungstechniken, Messskalen und Aufzeichnungswerkzeugen hergestellte Artefakte, die als Indizien für diverse Objekte gelten. Anstelle von Datum, zitiert Kitchin einige AutorInnen, sollte es also eigentlich Captum heißen. – Diese Einsicht hat sich noch nicht so schnell überholt; im Gegenteil, sie scheint sich eher auch noch hartnäckig zu halten. Insofern gehört Kitchins Buch zu den weniger schnell alternden Datentexten.

Die veränderte Perspektive auf den Kern von Daten wirft ein deutlich anderes Bild auf viele der mit Open Data und Big Data verknüpften Erwartungen. Daten ersetzen keine Theorien, weil sie entlang von Theorien gesammelt werden, sie machen Modelle nicht überflüssig, weil sie selbst in Datenmodellen strukturiert sind. Öffnet man sich auch der technischen Dimension von Daten (und bleibt nicht nur an der oberflächlichen sozial-politischen Ebene hängen), dann ist auch offensichtlich, wie streng Regelwerke und Richtlinien des Datenhandling sind und wie intensiv Schritte wie Normalisierung oder Standardisierung von Daten diskutiert, durchgesetzt und auch immer wieder geprobt oder aufgeführt werden, um sich ihrer eigenen Relevanz zu versichern. Die englische Formulierung “rehearsal” beschreibt diesen Prozess besser und erinnert an das Konzept der sociotechnical imaginaries, das in den Science & Technology Studies gern zelebriert wird.

Daten bringen uns also nicht näher an Objekte, sie ersetzen weder Objekte noch Theorien und Modelle, und sie haben für sich weder Information noch Wert. Die Hoffnungen auf nicht-reduktivistische Wissenschaft, die nicht mehr abstrahieren muss, auf umfassend informierte Entscheidungen und auf Entscheidungskriterien, die frei von menschlichen Vorurteilen sind, werden sich also eher nicht erfüllen.

Kitchin verweist vor allem auf Kontext und Transformationsgeschichte von Daten. Data Assemblages und Data Infrastructures sind die Ergebnisse, in deren Form Daten uns begegnen (also nie nur als reine, rohe Daten (ein Begriff, der DenkerInnen in der Linie von Kitchin, wie etwa Gitelman, als Oxymoron gilt), Data Lineages beschreiben die Prozesse und Entwicklungsschritte, die zu diesen Ergebnissen geführt haben. Data Lineages beginnen mit der Idee, bestimmte Daten zu sammeln gehen über deren Modellierung, Strukturierung, Aufbereitung, Analyse und Visualisierung bis hin zu Ableitungen, die sich aus den vorgeblich neutralen, unbehandelten, für sich selbst sprechenden Daten ergeben. Sabina Leonelli beschreibt ähnliches, aber mit noch stärkerem Fokus auf Wandlungen, Orts- und Systemwechsel und Interaktionen zwischen Daten, Datenarchivierung und Material (oder Objekt) als Data Journeys.

In Hinblick auf Big Data hat sich diese kritische Perspektive schon etwas umfassender etabliert. Kitchin bezieht allerdings auch Open Data gegenüber eine sehr kritische Position. Open Data, das große Transparenzversprechen, entpuppt sich in seiner Perspektive als Reproduktion von Interessen, Sichtweisen und Weltbildern – ja sogar als disziplinierendes Machtinstrument, das den anderen (also den UserInnen von Open Data) vorgibt, womit sie sich wie zu beschäftigen hätten. Dazu kommt noch die häufig mangelnde technisch-sachliche Qualität von Open Data: Viele Open Data Repositories sind bloße Ablagen, in denen Dateien ohne durchgängiges Konzept und Modell gelagert werden, in denen Verknüpfungs- und Weiterverarbeitungsmöglichkeiten stark eingeschränkt oder mit hohem Aufwand verbunden sind. Dazu fehlen wichtige Kontextinformationen – es scheint, als würden viele Open Data-Veröffentlichungen bereits mit der Bereitstellung von Dateien als abgeschlossen betrachtet. Die eigentliche Verwendung der Daten scheint bei deren Veröffentlichung allerdings nicht mitbedacht worden zu sein (Gerade bei Open Data ist es sicherlich auch Kern der Sache, dass die Verwendung und Weiterverarbeitung bei den UserInnen liegt – die Bereitstellung und schon die Erhebung von Daten entscheiden aber schon viel darüber, wie weit und wie sinnvoll Daten verwendet und weiterverarbeitet werden können).

Ähnliche Aspekte rund um Open Data habe ich auch beispielhaft in einer ersten Analyse der Daten des Lobbyingtransparenzregisters der Europäischen Union beschrieben (mehr Visualisierungen und Auswertungen dazu gibt es auf dataanalyst.at).


Kitchins Rundumschau ist eine Bestandsaufnahme von Problem- und potentiellen Analysefeldern. Einiges davon hat sich heute bereits als Problem etabliert, anderes bleibt neu. Die Bestandsaufnahme ist eine Art Katalog für künftige datenphilosophische Forschungen; als ein erstes mögliches Projekt schlägt Kitchin unter anderem eine Genealogie von Open Data vor; auch ethnographische Forschungen, die die praktische Arbeit in Data Science beobachten, hält er für sinnvoll. Diese Projekte zählt Kitchin allerdings nur schnell im Schlusswort seines Buches auf – auffällig ist, dass auch viel spätere Literatur noch nicht wesentlich weiter ist als bei der Aufzählung möglicher Forschungsfelder (die über ethische und politisch-soziale Implikationen hinausgehen).Insofern is Data Science für Wissenschaftsphilosophen wohl noch ein dankbares und ergiebiges Forschungsgebiet …

Ernst von Glasersfeld: Radikaler Konstruktivismus

Wissen hilft, uns zielorientiert in der Welt zu verhalten. Wie weit Wissen dabei mit einer Realität übereinstimmt, sie abbildet und wie diese Übereinstimmung ihrerseits wieder abgebildet oder gemessen werden kann, das ist irrelevant. – Eigentlich müsste der Radikale Konstruktivismus von Glasersfeld die heiße Philosophie unserer Zeit sein. Die zweckorientierte pragmatische Perspektive verträgt sich auf den ersten Blick  gut mit einer Sichtweise, in der Bildung und Zusammenhänge als überschätzter Ballast gelten, Effizienz im Vordergund steht und das Wissen, wo man nachsehen kann, Wissen ersetzt.

Konstruktivismus ist aber eher eines der Feindbilder von Rationalisten und Realisten, die sich platte Abziehbilder konstruktivistischer Positionen schaffen, um dann gut dagegen argumentieren zu können. Dabei wird Konstruktivisimus oft auf soziale Konstruktion oder auf platten Solipsismus reduziert. (Und jene, die sich diese platten Konstruktivismus-Karikaturen zum Vorbild für ihre eigenen schwachen Argumente nehmen könnten, kriegen auch das gar nicht mit.)

Konstruktivisten wie Glasersfeld stellen nicht die Frage, ob es so was wie Realität gibt oder nur Konstruktion. Sie beschäftigen sich auch gar nicht mit Fragen der Erkenntnis oder den Möglichkeiten des Erkennens – für Glasersfeld stehen Wissen und Begriffsbildung im Mittelpunkt.

Seine wesentlichen Überlegungen drehen sich um die Frage, wie Begriffe entstehen und welche Funktion sie erfüllen.

Begriffe sind gewissermaßen die Währung des Wissens – über sie kann Wissen ausgetauscht und vermittelt werden, sie schaffen Berührungspunkte zwischen jenen, die Wissen haben. Ob sie auch Berührungspunkte zu ihren Objekten schaffen, ob und wie sie also Realität abbilden, ist für Glasersfeld keine wesentliche Frage. Relevanter ist, ob sie helfen, in der Welt zurechtzukommen, ob sie also funktionieren. Viabilität ist ein wichtiges Kriterium – das bezeichnet die Frage, ob Begriffe und Wissen angemessen sind, funktionieren, ihren Zweck erfüllen.

Kognition ist demnach für Glasersfeld ein adaptiver Prozess: Wissen und Begriffe werden aufgrund der Erfahrungen, die sie ermöglichen, angepasst. Viele Konzepte hat Glasersfeld dabei von Jean Piagets Entwicklungspsychologie übernommen, die sich damit beschäftigt, wie Begriffsbildung bei Kindern funktioniert.

Als weiteren wichtigen Einfluss beschreibt Glasersfeld immer wieder seine eigene mehrsprachige Kindheit, die ihm schon früh vermittelt habe, dass ein direkter Zusammenhang zwischen Begriffen und Gegenständen sehr unwahrscheinlich sei – schließlich hießen sie nicht nur in allen Sprachen anders, in manchen Sprachen gibt es für einen Sachverhalt einfache Wort, in anderen zusammengesetzte, in wieder anderen nur Umschreibungen.

Was macht den Radikalen Konstruktivismus auch heute noch interessant?

Als Wissenstheorie ermöglicht Konstruktivismus eine pragmatische Perspektive auf Fragen von Wissen, Modellbildung, Repräsentation und aus Modellen (oder Metaphern, Analogien und Gleichungen) abgeleitetes Wissen. Aus konstruktivistischer Perspektive entfällt die komplizierte Frage nach dem Wesen der Beziehung zwischen Repräsentation und Repräsentiertem, denn aus konstruktivistischer Perspektive gibt es keine Repräsentation, sondern nur Präsentation (allenfalls Re-Präsentation, also die neuerliche Präsentation). Das lenkt die Aufmerksamkeit auf aktive gestalterische Komponenten des Versuchs, Wissen abzubilden – und damit nimmt Glasersfeld viel von dem vorweg, was Objektivitätskritikerinnen wie Loraine Daston oder Michael Lynch später genauer ausführen sollten. Der Fokus auf die Präsentation rückt auch die materielle Dimension von Begrifflichkeiten und ihren Präsentationen ins Blickfeld: Wenn Modelle oder Aufzeichnungen und Visualisierungen nicht nur Hilfskonstrukte sind, die das Eigentliche repräsentieren, dann macht es auch Sinn, sich mit den konkreten Eigenschaften dieser Modelle und Aufzeichnungen zu beschäftigen, so wie man gewohnt war, sich mit den materiellen Eigenschaften des vermeintlich eigentlichen Objekts zu beschäftigen.

Als pragmatische und formalistisch-wirkungsorientierte Perspektive erspart Konstruktivismus viele aufwendige Debatten über transzendente und metaphyische Eigenschaften oder über richtig und falsch und eine diese Entscheidungen überhaupt erst ermöglichende Teleologie (also Vorstellungen von übergeordneten letzten Zielen). Stattdessen zählt, was funktioniert. Aus einer ethisch oder normativ orientierten Perspektive kann Konstruktivismus daher auch sehr kritisch betrachtet werden, allerdings setzt die pragmatische Perspektive auch ein starkes konsensuales Element: Etwas funktioniert ja nur dann, wenn es für mehrere funktioniert, wenn man sich also darauf einigen kann, dass es richtig oder praktisch ist oder zum gewünschten Ergebnis führt.

Zugleich ermöglicht Konstruktivismus aber auch die gezielte Formulierung solcher wesensorientierte Fragen. Die Analyse der pragmatischen Aspekte macht klar, was besonders pragmatisch ist, also gar nicht mehr hinterfragt wird und als selbstverständlich angenommen wird – seien es Ideen, Haltungen oder Maschinen. Wenn wir feststellen, dass etwas so selbstverständlich ist, dass wir gar keine Fragen mehr dazu stellen können und es wie eine Black Box betrachten, dann haben wir damit die Ausgangslage für sehr viele Fragen geschaffen, etwa die, warum das so ist, welche Alternativen es geben könnte und wie groß die Black Box eigentlich ist (also wo wir aufgehört haben, Fragen zustellen). Glasersfeld hat damit eines der zentralen Konzepte der Actor Network Theory vorweggenommen – Bruno Latour selbst spricht oft von blackboxing und dem closing der Black Boxes, wenn er sich mit dem Entstehen (wissenschaftlichen) Wissens beschäftigt.

Schließlich halte ich diese Grundzüge des Radikalen Konstruktivismus auch für eine gute Ausgangsposition für die wissenstheoretische Auseinandersetzung mit Data Science. Auch hier haben wir es mit einem hoch formalisierten, auf pragmatische Zusammenhänge abzielenden Umfeld zu tun. Das Ergebnis muss formal betrachtet schlüssig sein und sollte keine Rechenfehler sichtbar machen, der Bezug der Daten und Algorithmen zu ihren Objekten kann ausgeblendet werden. Dass das oft zu sozial, ethisch und auch epistemisch unvorteilhaften Ergebnissen führt, hat Cathy O’Neill in “Weapons of Math Destruction” ausgeführt.

Konstruktivismus kann durchaus ein Framework sein, um Data Science-Fragestellungen wissenstheoretisch und wissenschaftsphilosophisch zu behandeln – beide, Data Science und Radikaler Konstruktivismus müssen sich aber letztlich auch einer großen Frage stellen, die über den eigentlichen Anspruch dieser Konzepte (oder Disziplinen) hinausgeht: Reicht das? Sind wir wirklich zufrieden damit, pragmatische formalistische Zusammenhänge und deren Abläufe zu analysieren – oder wollen wir doch mehr? Zumindest der Zweck von Begriffen und ihrer Verwendung sollte stets präsentes Thema sein – das meint auch Glasersfeld.

Das Tragische dabei ist, dass gerade diese Zweckorientierung oft als Argument gegen Konstruktivismus ins Feld geführt wird. Gegner sehen darin Anmaßung, Opportunismus und intellektuelle Unredlichkeit. Der Konstruktivist dagegen sieht hier Demut und Bescheidenheit – wir können ja nur beobachten, ob es funktioniert. Ob es richtig ist, wissen wir dann noch immer nicht – weder im epistemischen noch im ethischen oder sozialen Sinn.

Alexander Bogner: Die Epistemisierung des Politischen

Wenn nur alle vernünftig sind – dann wird sich alles zum besten wenden. Mit Vernunft, Bildung und Respekt für die Wissenschaft lassen sich Coronaleugner, Klimawandelleugner, Kreationisten und Rassisten eines besseren belehren – oder doch nicht? Und wäre das überhaupt möglich oder sinnvoll? Solche und ähnliche Fragen bestimmen die Ausgangslage, in der sich Alexander Bogner mit der Macht der Wissenschaft beschäftigt. Sowohl in Klima- als auch in Coronafragen werden die Rufe nach Wissenschaft immer lauter.

Man möge auf die Wissenschaft hören; wissenschaftliche Erkenntnisse liegen doch auf dem Tisch – also sollen sich doch Politik und Gesellschaft danach richten. Diese Rufe hört man allerdings von beiden Seiten, von jenen, die für stärkere Beschränkungen und mehr Risikobewusstsein sind und ebenso von jenen, die sowohl das Virus als auch den Klimawandel als aufgebauschte Angstmacherei abtun. Es ist eben nicht so einfach, auf die Wissenschaft zu hören, denn trotz aller Klarheit gibt sie in komplexen Fragen selten klare Handlungsanweisungen (das ist unter anderen auch Thema der ersten Ausgabe in Journal Ahnungslos).

Sollen politische Entscheidungen wissenschaftlich fundiert sein? Können sie das denn sein?

In seinem Buch beschäftigt sich Bogner insbesondere mit dem Verhältnis von Wissenschaft und Politik: Soll (oder kann) die Politik auf der Grundlage wissenschaftlicher Erkenntnisse entscheiden?

Natürlich, wäre eine erste verständliche Reaktion.

Was, drängt sich als erste Gegenfrage auf, hätte das allerdings noch mit Demokratie zu tun? Demokratien entscheiden nach dem Willen der Mehrheit; richtig, falsch oder gar wissenschaftlich sind keine für demokratische Entscheidungen konstitutiven Kriterien.

Das wird umso deutlicher, wenn man die Geschichte der Wissenschafts- und Expertenkritik nachzeichnet. In den 60er Jahren war Expertenkritik ein antiautoritäres aufklärerisches Projekt. Experten waren jene, die aufgrund ihres Wissens und ihrer Positionen Autorität hatten und über jenen standen, die anderes Wissen oder andere Standpunkte einbringen wollten – also etwa Frauen, Jugendliche, Menschen anderer Hautfarbe oder aus anderen Kontinenten. Die Expertise jener Autoritäten galt damals auch als Ignoranz. Heute hat sich das Bild deutlich gewandelt. Expertise ist bunter und vielschichtiger geworden – und es ist deutlich schwieriger geworden, die relevanten oder wünschenswerten Formen von Expertise herauszufiltern (dem hat etwa Harry Collins ein ganzes Buch gewidmet – und auch er kommt zu keiner auf allen Ebenen schlüssigen Lösung). Ganz im Gegensatz zur Expertenkritik der 60er Jahre ist es heute also umgekehrt ein aufklärerisches Projekt, nach Autoritäten zu suchen. Der Kampf gegen (wissenschaftliche) Autoritäten ist nach wie vor ein Kampf um Autonomie – trotz der formalen Ähnlichkeiten zur Kritik der 60er Jahre sind die inhaltlichen Unterschiede aber groß. Das hat unter anderem etwa auch die Rolle des Begriffs der Ignoranz verändert: Was früher ein Makel der alten Autoritäten war, ist heute ein Skill, der als Unbeirrbarkeit – überspitzt betrachtet – eine positive Eigenschaft jener ist, die neue Wege gehen (dazu habe ich unlängst etwas Ausführlicheres geschrieben).

Auf der Suche nach neuen Autoritäten

Wie lassen sich nun neue Rationalitätsautoritäten finden?

Bogner beschreibt dazu Strategien aus der Klimawandelforschung als “empirische Konsensforschung”. Dabei ist das wesentliche Kriterium nicht die Wissenschaftlichkeit des Arguments, entscheidend sind die Zahlen der insgesamt verfügbaren Stimmen (oder Studien). Das bedeutet: Studien, die sich (auf den ersten Blick) wissenschaftlicher Methoden bedienen, haben trotzdem nicht das Zeug, zu Autoritäten zu werden, wenn ihre Ergebnisse dem widersprechen, was die überwiegende Mehrheit von ExpertInnen meint. – Das ist allerdings eine natürlich äußerst wacklige Konstruktion, die vorerst jede Innovation ausscheiden würde, mit unterschiedlichen Kriterien und sehr unterschiedlichen Ergebnissen kommt und zumindest auch eine Zeitdimension zur Einschätzung der Stabilität des Konsenses einführen soll.

Muss dann die Wissenschaft also doch auch auf Werte zurückgreifen, um ihren Autoritätsanspruch zu stützen?

In manchen Perspektiven sollten Werte und Wissenschaft nichts miteinander gemein haben – Wissenschaft ist eben neutral, sachlich und wertfrei. Wertfreiheit funktioniert allerdings nur in Laborsituationen. Und selbst dort sind schnell Grenzen erreicht – so scheinbar technische Vorgänge und Entscheidungen wie die Festlegung von Messgrößen oder die Kalibrierung von Skalen bilden Wertentscheidungen ab. Denn dabei wird festgelegt, was relevant genug ist, um präzise gemessen zu werden, und was unter Schwellwerte fallen kann (zu diesem Thema hat insbesondere die Wissenschaftsphilosphin Heather Douglas gearbeitet).

Politik aber hat auf jeden Fall mit Werten zu tun. Kann sich im Zusammenspiel von Wissenschaft und Politik die Politik also diejenige Wissenschaft aussuchen, die den von ihr unterstützen Werten entspricht? – Diese Fragestellung wirkt vielleicht im Licht rein naturwissenschaftlicher Fragestellungen merkwürdig. Soziale oder ökonomische Fragestellungen aber lassen schnell erkennen, wie Werte schon die Formulierung einer wissenschaftlichen Frage beeinflussen.


Gibt es also keinen Ausweg in diesem vielschichtigen und problematischen Verhältnis zwischen Politik, Wissenschaft, Expertise und Autorität? Bogner bleibt vage. Irgendwie werde man sich darauf einigen müssen, dass es so etwas wie objektive Wahrheit gibt, meint er, zumindest als notwendige Fiktion. – Das Anliegen kann ich verstehen, die Formulierung finde ich kritisch. Erstens ist Objektivität ein problematischer Begriff, den ich tunlichst vermeide. Zweitens ist mit dem Vorhandensein von Wahrheit noch nichts über deren Erkenntnis ausgesagt. Drittens kann auch ein und derselbe unbestreitbare Fakt immer noch unterschiedlich bewertet und in unterschiedliche Kausalzusammenhänge gebracht werden. Als Rute im Fenster bekommt die Vorstellung einer objektiven Wahrheit, die Klimawandel- und Coronaleugnern die Rechnung präsentieren wird, überdies einen merkwürdigen theologischen Touch vom Jüngsten Gericht.


An einer gemeinsamen notwendigen Fiktion wird man trotzdem nicht vorbeikommen, wenn gemeinsame Entscheidungen getroffen werden sollen. Fiktionen wie “das Volk” oder “wir” (gegen “die da oben” oder “die da draußen”) machen zur Zeit ja vor, wie das funktionieren kann … – allerdings nicht mit dem aufklärerischen Antrieb, den man sich in einer Rationalitäts- und Wissenschaftlichkeitsdebatte wünschen würde.

Cathy O’Neill: Weapons of Math Destruction

Es ist ein sehr amerikanisches Buch: In vielen Beispielfällen wiederholt Cathy O‘Neill ihren Punkt ein uns andere Mal und fasst ihn zum Schluss noch einmal in einem knapp 20seitigen Konzept zusammen: Algorithmen und Datenanalysen sind alles andere als wertfreie Technik oder Mathematik. Sie multiplizieren den Bias desjenigen, der sie erstelllt hat, indem sie es möglich machen, dass nun auch Menschen, die diesen Bias gar nicht haben, ihre Entscheidungen unabsichtlich auf diese Vorurteile bauen. Sie füttern Fehlentscheidungen, indem sie als selffulfilling prophecies dafür sorgen, dass der ursprünglich falsche Bias nach und nach immer realer wird. Und sie bieten willkommene Ausreden, keine eigenen Entscheidungen zu treffen, keine eigenen Daten zusammen oder Annahmen zu hinterfragen, denn sie lagern die Verantwortung an vermeintliche Evidenz aus.

Diesen Begriff der Auslagerung von Verantwortung und des Aufschiebens von Entscheidungen hat der dänische Medizinsoziologe Klaus Hoeyer als „promissory data“ näher beschrieben: Daten sind ein Versprechen aus der Zukunft. EntscheiderInnen ziehen sich auf die Position zurück, jetzt keine Entscheidung treffen zu wollen, weil sie evidenzorientiert entscheiden wollen, die Datengrundlage dafür gibt es also noch nicht. Also muss man sich Daten beschaffen, abwarten, und dann werde die Evidenz gleichsam von selbst für die richtige Entscheidung sorgen. – So handelt man verantwortungsvoll, ohne zu handeln.

O‘Neill zitiert unter anderem Analysesysteme aus Polizei- und Präventionsarbeit, LehrerInnenbewertung oder Justiz, um ihre Thesen zu untermauern. All diese Anwendungen wurden geschaffen, um vermeintlich objektivere Entscheidungen treffen zu können, um die Auswirkungen persönlicher Vorlieben oder rassistischer oder sexistischer Vorurteile zu reduzieren. In vielen Fällen wurden dabei allerdings nur die Vorurteile jener, die urteilen sollten, durch die Vorurteile jener, die die Analysesysteme erstellten, ersetzt. In anderen Fällen verleitete der Drang zu Präzision die AlgorithmusautorInnen, AnalystInnen oder DatendesignerInnen zu absurden Rechenmodellen, die zwar überaus eindeutige und klar berechenbare Ergebnisse lieferten, die aber in keinem nachvollziehbaren Ergebnis zum eigentlichen Dateninput standen. O‘Neill bringt dazu Beispiele von Lehrerbewertungssystemen, deren Ergebnisse für die gleichen Lehrer von einem Jahr auf das andere Schwankungsbreiten innerhalb der gesamten verfügbaren Messskala auswiesen – ohne dass sich an Unterricht oder Rahmenbedingungen irgendetwas verändert hätte. In anderen Fällen wurden alle LehrerInnen an Schulen in sozial schwächeren Umgebungen schlechter beurteilt, weil außerschulische Einflüsse auf die Leistungen der SchülerInnen nicht berücksichtigt wurden.

Das Phantasiebild von wertfreien Daten und vorurteilsfreier Mathematik nimmt großen Stellenwert ein. Daten lösen Ideologie ab und schaffen neutrale Orientierungssysteme. Damit kommt wissenschaftliche Präzision auch in alltägliche Entscheidungen, in ökonomische Überlegungen oder in sozial und politisch bestimmte Fragen. Das Problem dabei: Auch wissenschaftliche Präzision ist zwar innerhalb des eigenen Modells präzise, aber alles andere als wertfrei. Zahlreiche Werthaltungen bestimmen Fragen der Wissenschaft.

Eine ganz augenscheinliche Wertentscheidung ist etwa die Frage, welche Probleme relevant genug sind, um im Zentrum der Forschung zu stehen und wie Forschungsbudgets zugeordnet werden. Manche sehen in diesen Prozessen vielleicht außerwissenschaftliche Entscheidungen. Philosophinnen wie Heather Douglas haben gezeigt, dass auch genuin wissenschaftliche Tätigkeiten wie etwa die Modellbildung, die Kalibrierung von Skalen und natürlich jede Form von Interpretation in sehr vielen Fällen wertebasierte Entscheidungen sind. Modelle sind nicht nur Erklärinstrumente, sie bilden auch Prioritäten ab – anhand eines Modells lässt sich ablesen, was den ModellierInnen wichtig war und was eher vernachlässigbar. Gleiches gilt für Messsysteme – die scheinbar neutralsten und wertfreisten Werkzeuge überhaupt: Messsysteme bilden ab, wie wichtig oder kritisch das zu Messende ist.

Douglas illustriert das anhand von Messsystemen zur Feststellung gesundheitsschädlicher Emissionen: Wird jede Emission gemessen, weil sie potenziell schädlich ist? Wie präzise ist die Skalierung? Oder gelten Schwellwerte, unterhalb derer nicht gemessen wird? Solche Entscheidungen bilden Prioritäten ab – und sie stehen auch für Werte. Niedrige Schwellwerte oder das Bestehen auf präzisen Skalen ab der kleinsten messbaren Einheit etwa stehen in Heather Douglas‘ Beispielen für Werthaltungen, die Gesundheit und Umwelt höher priorisieren. Höhere Schwellwerte dagegen entstehen aus Werthaltungen, die Wirtschaft und unternehmerische Freiheiten höher priorisieren – indem sie etwa helfen, Einschränkungen und strengere Regeln zu vermeiden.

Douglas‘ Konzept basiert auf Carl Hempels Idee des induktiven Risiko das wissenschaftstheoretisch untersucht, wie sich das Risiko, falsch zu liegen (und für die Folgen falscher Entscheidungen verantwortlich zu sein) auf Wissenschaft auswirkt.

O‘Neill spielt mit dem Gedanken eines hippokratischen Eids für Data Scientists, der sie ebenfalls an Folgen und eigentliche Zwecke ihres Handelns erinnert und hilft, die Priorität von mathematischer Präzision und technisch ausgefeilten Modellen hin zu mehr Verantwortung und sozialer Orientierung zu lenken. Das verleitet natürlich unter Umständen auch dazu, Data Scientists eine überzogene messianische Rolle einzuräumen. Pragmatischer finde ich den Ansatz, in der Evaluierung von Modellen Mathematik und Technik mal ganz beiseite zu lassen und Algorithmen wie naive User als Black Box zu betrachten, also nur auf den Output zu achten – und dann zu überprüfen, welche Annahmen diesen Ergebnissen zugrundeliegen, was er eigentlich tut, wem er nützt, wem er schadet, wer davon eigentlich betroffen ist. Anhand dieser Überlegungen kann dann schließlich geprüft werden, ob die Entscheidungen des Algorithmus tatsächlich Sinn machen.

Die Substanz von Weapons of Math Destruction lässt sich also auch knapper zusammenfassen – aber es bleibt dennoch ein wichtiges Buch vor allem für jene, die in Daten, Mathematik und Technologie neue Objektivität und klarere Entscheidungen erhoffen. Gerade auch weil es von einer Mathematikerin geschrieben wurde, und nicht von einer möglicherweise vorbelasteten Sozialwissenschaftlerin.

Hannah Arendt, Wahrheit und Lüge in der Politik

Hannah Arendt ist ja eine der verführendsten Persönlichkeiten der Philosophiegeschichte. Sie hat zu allem etwas gesagt – und dabei noch dazu verschiedenes. Und immer sehr treffend Scharfsinniges. Das macht sie zum Reibebaum für Linke und Rechte, zur Ikone für Liberale – und in Wahrheit zu einer sehr sorgfältigen, überaus belesenen Denkerin, die man nicht auf Häppchenzitate reduzieren darf.

Das gilt umso mehr für Texte, deren Aktualität heute, fünfzig Jahre nach ihrem Erscheinen, LeserInnen aggressiver als eine Speikobra ins Auge springt. “Wahrheit und Lüge in der Politik” ist ein solcher Text. Arendt schrieb diesen Text über die Pentagon Papers und die Lügen des Vietnam-Kriegs, aber angesichts solcher Textpassagen – wer hat da heute in Österreich nicht einen zwanghaft wutentbrannten ÖVP-Abgeordneten Andreas Hanger vor Augen, der sich über die schalsten Kleinigkeiten empört, um vorhandene Empörung von ihrem eigentlichen Gegenstand abzulenken?

“Endzweck [der Lügen] waren weder Macht noch Profit” sondern das Image selbst. “In Hinblick auf das Endziel verwandeln sich alle politischen Zielsetzungen in kurzfristig austauschbare Hilfsmittel; zuletzt, als alles auf eine Niederlage hindeutete, bestand das Ziel nicht mehr darin, die demütigende Niederlage zu vermeiden, sondern Mittel und Wege zu finden, um ein Eingeständnis zu vermeiden und ‘das Gesicht zu wahren’.” – Deine Chefs sind schon lange als machversessene Lügner bloßgestellt, aber du musst nicht nur weiter das tote Pferd ihrer Lügen weiter reiten, du kannst es sogar aus voller Überzeugung und mit guten Erfolgschancen tun, denn: “Wo Tatsachen konsequent durch Lügen und Totalfiktionen ersetzt werden, stellt sich heraus, dass es einen Ersatz für die Wahrheit nicht gibt. Denn das Resultat ist keineswegs, dass die Lüge nun als wahr akzeptiert und die Wahrheit als Lüge diffamiert wird, sondern dass der menschliche Orientierungssinn im Bereich des Wirklichen, der ohne die Unterscheidung von Wahrheit und Unwahrheit nicht funktionieren kann, vernichtet wird.”

Im Klartext: Niemand glaubt dir. Alle wissen, dass du lügst. Aber dank deiner Lügen (und der deiner Chefs) haben Menschen denn Sinn dafür verloren, was der Nutzen von Wahrheit sein könnte. Sie haben vielmehr gelernt: Wer die Wahrheit sagt, ist ein schwacher Charakter, der sich selbst beschädigt. Und schließlich: All das bestätigt die “Vermutung, dass es vielleicht in der Natur des Politischen liegt, auf Kriegsfuß mit Wahrheit in allen ihren Formen zu stehen. Die Frage ist, warum unter gewissen und keineswegs seltenen Umständen das unbekümmerte Aussprechen von Faktizitäten bereits als eine antipolitische Haltung empfunden wird.”

Natürlich verfolgt Politik immer einen Zweck. Natürlich vertragen sich Zwecke immer nur in sehr bedingtem Ausmaß mit Wahrheiten und noch weniger mit Ehrlichkeit.

Und, und hier macht sich wieder bemerkbar, dass man Arendt nicht häppchenweise zitieren darf und dass Kritik an herrschenden Verhältnissen ihr Ziel keineswegs damit erreicht hat, dass sie ausgesprochen wurde, genau genommen hat sie damit noch gar nichts erreicht: “Ist schließlich nicht Wahrheit ohne Macht ebenso verächtlich wie Macht, die nur durch Lügen sich behaupten kann?”

25 Jahre danach: Zurück an der Universität

Ich hab jetzt mein erstes Uni-Semester nach 25 Jahren hinter mir; das erste von (mindestens) vier Semestern im Master History and Philosophy of Science ist erledigt. Kaum etwas macht deutlicher, dass man doch ein wenig älter geworden ist …

Warum studiere ich überhaupt? Es sind zwei wesentliche Gründe. Der eine ist recht einfach: Ich habe Lust darauf – In den vergangenen 25 Jahren habe ich mich zwar immer mit Philosophie und Ideengeschichte beschäftigt, aber ich bin neugierig auf die neueste Forschung und darauf, auch mal wieder systematisch wissenschaftlich zu arbeiten. Der andere ist eher sportlicher Natur: Ich habe zwei jeweils zu zwei Dritteln fertige Philosophie-Dissertationen liegen lassen, die erste, weil ich mit dem Betreuer nicht einer Meinung war (rückblickend: Ich hatte recht. Aber ich hätte präziser formulieren können.), die zweite (zehn Jahre später), weil ich damals das unsäglich laissez-faire, nicht eingehaltene Termine und die generelle Wurschtigkeit an der Universität nicht so toll fand.

Daran hat sich jetzt ziemlich viel geändert.

Am Auffälligsten: Es gibt Klopapier. In dern 90er Jahren musste man es sehr gut timen, wenn man mal musste, um wenigstens bei einem der Würstl-Buffets noch rechtzeitig vorher eine Serviette zu ergattern. Auch abgesehen von den Toiletten waren die Universitätsgebäude ziemlich rustikal: Man rauchte auf den Gängen, saß in der Regel auf dem Fußboden oder verbrachte die Zeit zwischen Vorlesungen irgendwo auf Stiegen sitzend und lesend. Die Wände waren mit Plakaten zugepflastert und man konnte sich eigentlich nicht vorstellen, dass Universitätsgebäude jemals renoviert würden.
Heute strahlen Universitätsgebäude,  die Gänge sind aufgeräumt, Plakate und Aushänge sind in Schaukästen zurückgedrängt.

Auch inhaltlich ist einiges anders: In den 90ern waren Studierende eher Störfaktoren. Kontakt zu Lehrenden gab es allenfalls nach Vereinbarung während der Sprechstunden, aber auch dann nur, wenn diese Lust hatten. Forschungsseminare bestanden meist darin, einen Text kapitelweise durcharbeiten zu lassen – das war ziemlich effizient für die Lehrenden, die sich keine Gedanken über neue Literatur machen mussten. Zu Anfang des Semesters waren die Räume überfüllt, gegen Ende saß man oft, wenn überhaupt, zu dritt da. Die potenzielle Nähe sorgte aber auch eher für Unwohlsein – sollte man jetzt wirklich miteinander reden?

Ein generelles Aufnahmestopp für wissenschaftliches Personal sorgte zusätzlich dafür, dass Studierende für Lehrende egal und uninteressant waren und Studierende sich auch keine Gedanken über eine wissenschaftliche Zukunft machen mussten. Bezahlte Doktorandenstellen und ähnliches kannte man allenfalls als Gerüchte von fremden Eliteuniversitäten.

Heute gibt es Obergrenzen für Studierendenzahlen in einzelnen Lehrveranstaltungen, Aufnahme- und Anmeldeverfahren, Anwesenheitspflichten – und Lehrende müssen Interesse daran zeigen, Studierende in ihre Veranstaltungen zu kriegen und dort zu behalten. Sie drängen auf Mitarbeit, stellen aufwendige Literatur zusammen und beharren darauf, ebenfalls bewertet zu werden.

Verschulung, Leistungsdruck und “neoliberale” EInflüsse werden oft beklagt – aber die Qualität der Lehre ist in astronomischen Ausmaßen gestiegen. Natürlich sind  auch die Anforderungen deutlich höher: vor 25 Jahren hielt man in einem Seminar eine Präsentation und fasste die vielleicht noch in einem kurzen Paper zusammen. Heute ist es üblich jede Woche einen Text lesen und ein kurzes Paper schreiben zu müssen, dazu kommen dann noch Präsentation und eigentliche Arbeit.

Wenn man vor 25 Jahren eher minimalistisch unterwegs war, hätte man vermutlich mit dem, was man heute in einem Semester lesen und bearbeiten muss, damals den ganzen ersten Abschnitt eines Diplomstudiums erledigen können.

Und sogar die Technik funktioniert: Literatur steht zum Download bereit, Videovorlesungen und -konferenzen klappen, sogart Diskussionen sind möglich. Ein wenig eindimensional sind sie – unter Studierenden kommt man online kaum zum Reden, man redet eher mit den Vortragenden.

Nur die Open Book-Tests, also schriftliche Onlineprüfungen, bei denen man Mitschriften oder Literatur verwenden darf, sind wohl für alle Seiten noch recht neu. Der Versuch, Fragen zu stellen, die auf Verständnis abzielen, nicht mit einfachem Abschreiben beantwortbar sind, aber doch konkretes Wissen abprüfen, führt mitunter zu eigenartigen Blüten (zum Beispiel: “Welche Prozesse im Lauf der Geschichte der letzten 1000 bis 2000 Jahre haben die Persönlichkeitsstruktur und den Umgang mit dem Körper geprägt? Skizzieren Sie zumindest zwei Ansätze zur Erforschung dieser Prozesse.” – Als eine von drei innerhalb einer Stunde sinnvoll zu beantwortenden Fragen ist das doch recht lose formuliert … ).

Einige Seniorstudenten gibt es trotzdem noch; ich bin nicht überall der Älteste. Manche Seniorstudenten reduzieren ihre Diskussionsbeiträge darauf, irgendwelche eher zusammenhanglosen Zitate oder Jahreszahlen zu droppen oder zu kommentieren, wenn sie eigentlich Fragen stellen sollten. Ich hoffe, ich bin nicht so, und ich möchte den Jüngeren gern sagen: Lasst euch von so was nicht beeindrucken. Die Leute haben mehr gelesen und wissen vielleicht mehr als ihr mit Anfang zwanzig, aber sie wissen offenbar wenig damit anzufangen.

Das gilt auch für die Einstellung gegenüber den Lehrenden: Nicht jeder 70jährige Emeritus, der beim Vortrag den Faden verliert, ist ein Genie. Oft sind es Leute, die seit 30 Jahren das gleiche erzählen und so tief im immer gleichen Gedankengang drin sind,  dass sie beim Reden gar nicht mehr wissen, was sie eigentlich gerade sagen. Das ist auf der einen Seite toll, auf der anderen Seite darf durchaus die Frage gestellt werden, wie relevant diese Art von Wissen noch ist und ob man sich diesen Fragestellungen nicht auch einmal anders nähern kann.

Gerade wenn es darum geht, neue Texte zu diskutieren, macht sich das Alter durchaus bemerkbar: Irgendeinen Ansatzpunkt findet man immer, man hat auch weniger Scheu, Dinge nicht zu verstehen (und darüber zu reden) oder auf der anderen Seite zu kritisieren. Bei den Jüngeren glaube ich aber auch – ich weiß, dünnes Eis – eine neue Strategie festgestellt zu haben: Wenn einem zu einem Text gar nichts einfällt, man aber gerade etwas sagen muss, dann ist es eine sehr sichere Bank, einfach zu sagen: “Es ist schon eine recht eurozentristische Perspektive und die Genderthematik ist auch nicht berücksichtigt.” – Das passt fast immer, manchmal (etwa wenn es um europäische Geschichte geht) ist es zwar ein wenig unangemessen, aber es kann selten einfach so als Unfug vom Tisch gewischt werden.

Das Alter macht sich auch noch anderswo bemerkbar:  Ich bin  häufig der einzige mit nur einem Vornamen. Und im Gegensatz zur Schule heißt hier sonst niemand Michael …

Wo soll das Studium hinführen? – Es schadet ja nicht, sich auch mit fast 50 noch mal echten Bildungshürden (nicht nur Wochenendkursen) zu stellen. Prüfungen sind jetzt übrigens ungleich schwerer als mit Anfang zwanzig – das liegt zum Teil am Gedächtnis, zum Teil auch daran, dass es eine ganz andere Art von Lernen ist: Etwas neues kennenzulernen, brauchbare Teile herauszunehmen, damit weiterzuarbeiten – das macht man auch im Berufsalltag oft. Es zur Gänze wiedergeben zu müssen, das ist eine ganz andere Liga. Dafür ist es heute, mit ein paar Jahren mehr, weitaus leichter, neue Zugänge zu Themen zu finden und Poster und Aufsätze zu schreiben.

Inhaltlich lege ich im Studium einen Schwerpunkt auf Ideengeschichtegerade in einer verwirrenden und unordentlichen Zeit halte ich es für wichtig, nachzuvollziehen, wie Ideen in die Welt kommen und wie es ihnen dort geht. Dabei kann man im übrigen auch mitlesen – hier auf Journal Ahnungslos.

Veranwortung und die starken Männer

Man weiß schließlich, was zu tun ist. Zweifel, Anerkennung für eine andere Position, das ist etwas für Schwächlinge, die sich nicht entschließen können und die nicht für ihre Taten geradestehen können. – Gerade in den vergangenen Wochen wettern wieder Konservative und Rechte gegen unschlüssige Schlafwandler, die Entschluss- und Tatkraft vermissen lassen, die noch immer über Ideen, Werte und Ziele reden, wo doch gehandelt werden müsse.

Christian Ortner doziert in der Presse im Vorbeigehen über die Legitimität des Tötens. Die Ermordung eines iranischen Atomphysikers sei legitim und ein Zeichen von Entschlossenheit und Verantwortung. Eigenschaften, die er in einem Europa, das sich immer auf seine Gesinnung herausrede, vermisse.

Welt-Journalist Ulf Poschardt fabuliert auf Twitter von einem deutschen Gesinnungsidealismus, der mit “der Freiheit, der Würde und der Poesie des Individuums” nichts anzufangen wisse. Das ist nicht ganz verständlich, aber es geht um mögliche Tempolimits auf deutschen Autobahnen.

Und die österreichische Regierung weigert sich, auch nur irgendwelche sinnvollen Maßnahmen zur dramatischen Lage der Geflüchteten in Moria zu beschließen, weil man ja nicht alle retten könne. Das wäre verantwortungslos den anderen gegenüber und außerdem gibt es genug andere Probleme auf der Welt. Die Chefin der Parteiakademie der ÖVP unterstreicht das noch mit einem Zeitungskommentar, in dem sie – erraten – einmal mehr Verantwortungsethik strapaziert. Wer ein Problem nicht ganz lösen könne, der löse es gar nicht, weshalb es also moralisch verwerflich sei, einem Kontingent von Menschen zu helfen.

Verantwortung ist etwas für entschlossen Handelnde – oder etwa nicht?

Alle wollen etwas verantworten. Verantwortung stellen sie einer Gesinnung gegenüber und greifen damit auf ein Konzept zurück, das auch schon über hundert Jahre alt ist. Max Weber stellte 1919 in einem Vortrag eine Gesinnungsethik, die auf die Gründe des Handelns abzielt, einer Verantwortungsethik, die auf die Folgen von Handeln abzielt, gegenüber. Man kann also ein- und dieselbe Handlung sehr unterschiedlich bewerten. Ein häufiges Missverständnis ist, dass man mit der rechten Gesinnung gar nicht mehr zu handeln bräuchte, um gut zu sein.

Das wirft nun schon einige Schwierigkeiten auf, denn wie nur könnte man nicht handeln? Jede Unterlassung ist auch eine Handlung, auch das Nichtstun hat Folgen, für die Verantwortung stehen kann. Relevanter ist aber die Frage, warum manche so viel mehr Wert auf die scheinbar aktivere und stärkere Position des verantwortlich Handelnden legen wollen. 

Verlockend sind natürlich klare Kausalketten: Ein Kanzler, der Wert auf einfache Bilder legt, mit denen sich Zusammenhänge unterstellen lassen (“Ich habe die Balkanroute geschlossen”), hat kein Interesse an Handlungen, die sich nicht als auf seine Entschlossenheit zurückgehende Problemlösung darstellen lassen.

Der autobegeisterte Journalist übernimmt gern die Verantwortung für sich und fährt nur bei guten Straßenverhältnissen schneller als 200 Stundenkilometer. Wenn er dabei draufgeht, war es ein männliches Ende. Wenn das andere Autofahrende mit weniger PS im Motor beim Überholen von dahintuckernden Lastwagen gefährdet, dann ist das Zeichen für deren schlechte Gesinnung – denn Autofahren wollen sie ja trotzdem, aber sie wollen nicht mit den Konsequenzen leben.

Und natürlich ist es verlockend, mit einer gezielten Attacke das Heranwachsen einer weiteren gefährlichen Atommacht zu verhindern und ein Menschenleben zu opfern, um damit viele zu retten. Aber in welcher Weltsicht gelingt das?

Klare Verantwortung, am besten in eindimensionalen Weltbildern

All diese Szenarien sind Ausdruck eines linearen Weltbilds, in dem klare Ursachen klare Folgen nach sich ziehen. Das grenzt Verantwortung gut ab. Ein Held kämpft mit einem anderen Helden, the winner takes it all. Atomphysiker tot, Problem gelöst. 

Jetzt mag, um bei diesem Beispiel zu bleiben, der getötete Wissenschaftler eine Koryphäe auf seinem Gebiet gewesen sein – aber nicht der Erfinder der Nukleartechnologie. Wissenschaft wird auch nicht mehr in Form von oralen Überlieferungen in Geheimbünden am Lagerfeuer vermittelt. Soll also wirklich das Rüstungsprogramm  eines ganzen Staats an einem einzigen Wissenschaftler hängen? Der Iran kündigt etwas anderes an. Welche Konsequenzen sind  es denn, für die ein Mordkommando die Verantwortung übernehmen kann? Wurden Spannungen beseitigt, Konfliktrisiken gesenkt? Werden sich internationale Beziehungen verbessern? Auch hier kündigt sich anderes an.

Für welche Konsequenzen kann also der entschlossen handelnde Held Verantwortung übernehmen? Mit welchen nachhaltigen Effekten, die er folgenden Generationen überlässt, unterscheidet er sich vom zaudernden Gesinnungsmoralisten?

Diese Behauptung, entschlossen Verantwortung für seine Handlungen zu übernehmen, macht nur für denjenigen Sinn, der sich sicher ist, die Geschichte in seinem Sinn erzählen zu können. Daraus könnte man nun eine Geschichte von Macht und Kontrolle entwickeln: Die entschlossen Handelnden sind eben jene, die die Welt gestalten, die Fakten schaffen, Vorbildwirkung zeigen, für andere die Kartoffeln aus dem Feuer holen usw.

Viel wahrscheinlicher ist aber eine Geschichte eines erstaunlich einfachen Weltbilds, das Geschichte als klare Reihenfolge von Ursache und Wirkung sieht, alle anderen außer einem selbst als einfache Reiz-Reaktions-Maschinen, und das alle anderen Ergebnisse als vorübergehende Abweichungen, als beiläufige Anomalien auf dem Weg zum großen Ganzen betrachtet.

Nicht umsonst sehen sich diese Akteure ja gern im Geist der Aufklärung, als Vernünftige, die nicht von irrationalen Wunschvorstellungen geblendet wurden, sondern dem Weltgeist nüchtern ins Auge sehen.

In der übervollen Rumpelkammer des Vorausgesetzten

Man kann das alles machen. Man kann Politmorde und Autobahnraserei befürworten, man kann – muss vielleicht sogar – funktional einfache und zielorientierte Weltbilder schaffen, um Pläne machen zu können.

Nur sind die hier ins Feld geführten Argumente grundfalsch. Dabei wirken sie so überzeugend und bewegend. Als würde jemand an die Gesinnung seiner Leserschaft appellieren. Als möchte jemand gern an Bildern von tatkräftigen Helden, von der Kraft des Einzelnen festhalten. Als hänge jemand einfachen Weltbildern nach, in denen jede Ambiguität ausgeräumt ist.

Man kann auch das Leid von Menschen gegeneinander aufwiegen, sich lieber um „die eigenen“ kümmern, keine Zeichen setzen, die Ungerechtigkeit punktueller Hilfe betonen. Schlüssig ist das aber nur, wenn wir klare Grenzen zwischen uns und denen ziehen können und wenn wir uns selbst davon überzeugen können, dass wir für Probleme, die wir nicht zur Gänze lösen können, auch nicht zum Teil verantwortlich sind. Das pervertiert den Verantwortungsgedanken allerdings deutlich.

Klingt das nach Ideologie? Das würden die vermeintlich scharfsinnigen Analytiker wohl entrüstet von sich weisen.

Dabei wird die Rumpelkammer des Ungesagten, aber Vorausgesetzten immer voller. Jede glatte, einfach und schlüssig klingende Behauptung verschiebt ihre Grundlagen in diese Rumpelkammer, um funktionieren zu können. Das ist ok. Aber es ist eine Verschwendung von Zeit, Aufmerksamkeit und Problemlösungskompetenz, wenn damit Scheingegner (diese Gesinnungsmenschen) bekämpft werden, wenn Schattenboxkämpfe und Affentänze vollführt werden, um den Plan der eigenen Großartigkeit weiterzuverfolgen.

Wahrscheinlich würde die Betroffenen einwenden, sie wollten das gar nicht. Sie sagten ja nichts, sie analysierten ja nur. Aber die, die auf ihre Gesinnung pochen – ja das sind ganz üble Schreibtischtäter.

Wir stecken in einer Krise des Erklärens und Analysierens. Solche scheinbare Gegenpositionen einnehmenden Scheindebatten, die von scheinbarer Entrüstung auf beiden Seiten leben,  sind dabei besonders tragische Charaktere in diesem Trauerspiel.