Mehr Bürokratie!

Weg mit den Bremsern, der Trägheit, den Paragraphen und Formularen – diesen Ruf hören wir tausendfach von Innovatoren, Unternehmern, Freigeistern, Politikern, Gründern, Versicherungsnehmern oder Bankkunden, ja sogar von Beamten. Jeder auch noch so kleine Berührungspunkt mit Bürokratie scheint diesen Reflex auszulösen, es ist ein Minimum, ein kleinster Rückzugsort gemeinsamen Verständnisses, etwas, das überall und von allen selbstverständlich abgenickt wird – damit man weitermachen kann wie bisher.

Ich habe Einwände. 

Ein erste Einwand ist: Wenn viele Leute seit langem einig sind, wie ein Problem zu lösen sei, wenn sie einander dessen wieder und wieder  versichern, dann sind Zweifel angebracht, ob diese Lösung denn eine Lösung ist. Das Problem zeigt sich offenbar unbeeindruckt davon. schlimmer noch: Möglicherweise trägt diese Lösung dazu bei, das Problem zu reproduzieren. Redundanz ist ein starker Überlebensfaktor.

Ein zweiter Einwand könnte sich mit den Vorzügen von Bürokratie befassen: Auch Freigeister wie Hanna Arendt sahen in Bürokratie einen Meilenstein der Demokratie, Bürokratie als Herrschaft des Niemand, der über Vorschriften und hinter Formularbergen regiert, schützt vor Willkür. Bürokratie liefet Antworten auf Fragen, die nicht gestellt wurden und schafft Klarheit.

Das befreit.

Ich möchte aber aus eine ganz anderen Perspektive und mit anderen Argumenten die beliebte Verdammung der Bürokratie infrage stellen. Denn was täten all jene Freigeister, die bürokratische Hürden beklagen, die Stolpersteine in ihrem Weg sehen,  wenn es diese Bremsklötze und Hindernisse nicht gäbe? Sie hätten keine Zeit mehr für ihre Klagen, keinen Leerlauf in den Leerräumen zwischen Regeln und Paragraphen – denn sie müssten in einem fort all das umsetzen, woran allein die Bürokratie sie hindert. Sie fassen einen Plan – sie schreiten zur Tat. Eine schnelle Geschäftsidee – schon umgesetzt. Optimierungspotenzial erkannt und gleich genutzt.

Über zu viel Bürokratie klagen, eine Ende der Bürokratie fordern und das goldene Zeitalter der Postbürokratie verheißen – das macht nur für jene Sinn, die unter dem Schutzmantel der Bürokratie Freiräume finden. Bürokratie ist das notwendige Sicherheitsnetz, das eigentliche Sprungbrett für InnovatorInnen, die neue Pläne am laufenden Band ankündigen – und sich darauf verlassen können, dass irgendein Controller-Bürokrat Zweifel anmelden und nach bedächtigerer Vorgangsweise rufen wird. Alle Entscheidungen fällen sich leichter, wenn gewiss ist, dass sie ohnehin von Bedenkenträgergremien ab- und rundgeschliffen werden. Und weitreichende Pläne sind schnell gefasst, wenn die Weitergabe an eine Organisation statt der Sorge um die Umsetzung Spielraum für das Reifen der nächsten Pläne schafft.

Die Klagen über Bremsen und Hürden, die Verheißungen der besseren Welt nach dem Ende dieser Hindernisse sind Hohn für jene, die nicht in den Genuss der bremsenden Sicherheit kommen. Wie schwer ist es, Entscheidungen zu treffen, wenn man weiß, dass niemand ihnen widersprechen wird! Sie gelten dann, sofort, und sie zeigen Wirkung. Wie vorsichtig und gut überlegt muss ein Plan sein, wenn man weiß, dass man ihn auch selbst umsetzen muss! Wenn man außerdem weiß, dass für die nächste Zeit die Entscheidung für diesen einen Plan die Entscheidung gegen alle anderen Pläne ist – denn es bleiben dann keine Zeit und keine Spielräume mehr für andere Pläne.

Niemand entscheidet also zögerlicher als die, die frei von jeder Bürokratie sind. Sie verfügen über kein bremsendes Sicherheitsnetz, das sie vor ihrem eigenen Elan schützt. Sie sind sich selbst verantwortlich und müssen mit sich selbst verhandeln, welche Pläne mit welcher Priorität abgehandelt werden. Sie müssen sich selbst eingestehen, Pläne und Ziele nicht ausreichend verfolgt zu haben. Und sie müssen mit sich selbst verhandeln, wann es an der Zeit ist, von Plänen abzulassen und sich neu zu orientieren – sie sind Richter über ihr eigenes Scheitern. Die Freiheit, sich für alles entscheiden zu können, gepaart mit dem Anspruch, Entscheidungen auch umzusetzen, schränkt enger ein als die sprödeste Bürokratie.

Es sei denn, man begnügt sich mit dem schalen Hauch heißer Luft. Auch das kann unterhaltsam sein, manchmal sogar zufriedenstellend – aber diese Haltung trägt Züge eines performativen Widerspruchs, mit dem es sich aber gut leben lässt: In der Umgebung der Bürokratie-Gegner ist es für eine gelungene Macher-Attitüde ausreichend, oft und deutlich genug zu sagen, dass man diese Attitüde für sich beansprucht.

Bürokratie ist ein unverzichtbarer Katalysator für Ideen und Innovation. Wer in Bürokratie ein ernstzunehmendes Hindernis sieht, hatte entweder noch nie eine Idee – oder kam noch nie auf Idee, dass man Ideen auch selbst umsetzen könnte.

Redundanz statt Happy End

Die Situation ist ernst, aber wir können uns nicht mit dem Gedanken anfreunden, die Welt nicht unter Kontrolle zu haben – deshalb müssen wir so tun, all ob wir daran glauben würden, dass Technologie auch die aktuellen großen Probleme lösen wird, deshalb müssen wir noch immer Geschichten mit Happy End erzählen. So oder ähnlich lautete der Befund von Philip Blom diese Woche bei einer Diskussion im Angewandte Interdisciplinary Lab.

Ich habe Zweifel. 

Dabei zweifle ich gar nicht so sehr an der Wahrscheinlichkeit eines unkontrollierten Ausgangs unserer aktuellen Multiproblemlagen, ich habe Zweifel an der Tendenz zum Happy End. Die Wort- und Meinungsführer unserer Zeit machen sich in aller Regel kaum noch die Mühe, Happy End-Stories zu entwickeln. Probleme, Meinungen und Situationen sind vielfach auch zu divers um sich darauf einigen zu können, was erstens ein Ende und zweitens happy sein könnte. Statt Stories zu erfinden beschäftigen wir uns mit als Stories erzählten Problemen. Die Diagnose ist die Königsdisziplin in der Diskussionslage unserer Zeit; dass es auch eine Therapie geben könnte, haben wir vielfach vergessen.

Nachdem sich die Diagnose nicht durch eine Therapie oder andere Lösungen als Form des Realitätschecks beweisen kann, braucht sie andere Formen der Selbstvergewisserung. Diese findet sie in der Redundanz.

Immer mehr Menschen wiederholen immer öfter die gleichen Worte. Ich formuliere das gezielt so umständlich, denn ich bin mir nicht sicher, ob sie das gleiche sagen oder dasselbe meinen. Sie verwenden ähnliche, oft idente Worte und Formulierungen, können einander zustimmen, ohne sich über die Bedeutung ihrer Worte austauschen zu müssen und tragen so zur immer weitere Kreise ziehenden Redundanz unklarer Aussagen zu. 

Die Aussagen sind vielleicht unzutreffend oder möglicherweise sogar sinnlos – aber wenn alle („alle“ muss hier im Licht des schönen Wortes salient verstanden werden: alle sind die , von denen ich will, dass es alle sind, von denen ich meinen Horizont abstecken lassen möchte) das sagen, dann muss es richtig sein. Wer wäre ich denn, mich dagegen zu stellen?

Redundanz ist tröstlich. Die Wiederholung schafft Vertrautheit und Nestwärme. Und zugleich verstellt sie die mögliche Sicht auf anderen Perspektiven, die zusätzliche Facetten eines Problems erkennen lassen würden, die vielleicht weiteres zu einer Lösung beitragen könnten. 

Damit leistet Redundanz, vielleicht ist es ja auch Entropie, auf allen Ebenen das gleiche wie die Sehnsucht nach einem Happy End: Sie tröstet, verstellt den Blick auf das Problem und behütet davor, handeln zu müssen.

Diese Theorieebene mutet ein wenig abstrakt an.

Woran lässt sich das konkret festmachen? 

Alle Guten fühlen sich wohl mit Stehsätzen wie „Bildung ist so wichtig“, „Menschenrechte!“ oder: „Wir erleben einen dramatischen Fachkräftemangel.“ 

Als Menschenrechte erfunden wurden, galten sie nicht für alle Menschen. Bildung hat, je nach Perspektive, eine dynamisch-durchlässige Grenze zu nutzlosem Wissen. Aber bleiben wir beim banalsten praktischen Problem: „Der Fachkräftemangel!“ 

Diese Bedrohung unseres Wohlstands wird seit gut fünf Jahren thematisiert. Pandemie, Lockdowns, Kurzarbeit, Ausfallszahlungen haben für viele Menschen die rein wirtschaftlichen Grenzen zwischen Arbeit und Arbeitslosigkeit weiter verschwimmen lassen. Fachkräftemangel ist seit dem Abklingen der Pandemie ein dominierendes Thema – und eines, das sich auch praktisch bemerkbar macht. Florierende Bäckereien müssen trotz großer Nachfrage Schließtage einführen, weil es an Personal fehlt. Gastronomen können keine zusätzlichen Locations bespielen, weil es an Personal fehlt. Findige UnternehmerInnen können ihre neue App-Idee nicht umsetzen lassen, weil es an Personal fehlt. 

Was bedeutet Fachkräftemangel? 

Gibt es weniger Menschen? Sind aussterbende spezialisierte Fachkenntnisse gefragt? Sind arbeitende Menschen unverantwortlich gierig? 

Oder ist vielleicht das Anstellungsmodell, in dem Fachkräfte üblicherweise gesehen werden, einfach keine heute attraktive Vision mehr? Warum sollen UnternehmerInnen flexible Vertrauensarbeitszeit und Pflegeurlaub und Verkehrszuschüsse und Umzugsfreitage und vierzehn Gehälter und Urlaub und Freistellungen für Amtswege finanzieren? Warum sollten Angestellte Präsenz statt Effizienz bieten, sich von Konkurrenzklauseln beschneiden lassen, mit Mehrfachversicherungen Geld verlieren, Rechte an Innovationen und Ideen an das Unternehmen verlieren oder ihr Leben einer intransparenten Dienstplaneinteilung unterordnen? 

Es gibt viel konkrete Möglichkeiten, was die abstrakte Formulierung eigentlich bedeuten könnte. 

Die Möglichkeiten liefern viele Angriffspunkte. Ob die Beschäftigung mit diesen Erfolg bringt, ist ungewiss. Viel gewisser ist, dass die redundante Wiederholung der Abstraktion vielmehr Trost bringt. Denn sie schafft Einigkeit und das Gefühl, verstanden zu werden und zu verstehen.

Das ist um einiges tröstlicher, als tatsächlich zu verstehen. Denn dann wird auch klar, dass damit noch nichts gewonnen ist. Es wartet das nächste Problem, oder noch schlimmer: es muss etwas getan werden. Und das sind eher die Gegenteile von Happy Ends, es sind ja nicht mal ordentliche Enden. 

Narrativ und Storytelling gelten als Essenz aller Vorhaben. Wiedererkennbare eingängige Geschichten könnten auch ihre Vorteile haben. Sie sind praktische Abkürzungen und Generalisierungen, es sind Vereinfachungen, denen es gelingt, mit wenigen Andeutungen ein gemeinsames Bild zu schaffen, das in den Köpfen aller ähnlich aussieht. 

Die Stärke starker Storys sollte es sein, sie spätestens beim dritten Mal mich mehr erzählen zu müssen. Die Reaktion auf eine zum dritten Mal erzählte Story sollte sein: “Jaja, wissen wir, weiter, was jetzt?” Weil aber Narrative so beliebt und gemütlich sind, wiederholt man sie aber wieder und wieder. Es ist angenehmer, am Lagerfeuer sitzen zu bleiben und Geschichten zu wiederholen.

Insofern könnte man auch infrage stellen, ob es wirklich ein Symptom einzigartig schnellen Technologiewandels ist, dass wir so ratlos sind. Das lähmende Lagerfeuer war für Vilem Flusser schon das Fernsehgerät; Dystopien sind nicht neu. Vielleicht macht es uns ja auch aus, uns in Narrativen zu verlieren. 


Die Zukunft, findet Blom übrigens, gehört den Mikroben. Von diesen sind noch keine Narrative bekannt.

IEEE 7000 – Von wem soll Technik Ethik lernen?

Technik soll Ethik lernen – mit dem IEEE 7000 gibt es auch seit einem halben Jahr den passenden Standard dafür. Das klingt vielversprechend. Ethische Überlegungen sollen schon in frühen Phasen, möglichst in der Modellierung von Systemen einfliessen und sicherstellen, dass IT und andere Technik nicht nur einfach den schnellsten und direktesten Weg gehen, sondern auch das Gute für die Gesellschaft im Blick behalten.

 Wessen Gutes, muss man da gleich fragen, und was ist eigentlich gut? – Das wären ja Fragen, die ohne weiteres in jedem Konzeptionsprozess gestellt werden könnten. Sie müssten auch gestellt werden, auch wenn das aufwendig und redundant klingt. Es ist schließlich ein zunehmend wichtiges Merkmal, das Technik und vor allem Informationstechnologie auszeichnet: Sie kann praktisch unverändert in unterschiedlichsten Szenarien überall auf der Welt zum Einsatz kommen – und bedeutet dort unter Umständen jedes Mal und immer wieder etwas anderes. Dazu müssen wir keine großen kulturellen Unterschiede zwischen Kontinenten strapazieren. Die unterschiedliche Einstellung verschiedener Menschen, gerade auch von ITlern älterer Semester, zu Smartphones ist schon ausreichend.

Standards sind sinnvolle Prozessrichtlinien. Ethische Standards können Eckdaten vorgeben. Wenn gerade Techniker in Diskussionen soziale Beliebigkeit, Relativismus und „Postmoderne“ beklagen, muss man skeptisch werden. Und gerade das habe ich in den letzten Monaten, seit sich der IEEE 7000-Standard um Bekanntheit bemüht, öfters gehört. Philosophie und Sozialwissenschaften hätten ja die Wahrheit aufgegeben – und deshalb seien Standards wichtig, deshalb müssen eben andere Bereiche einspringen. Das halte ich für ein Missverständnis. Die Möglichkeit, Aussagen zu relativieren, also sie in einen Kontext zu stellen, ihre Gültigkeit im Licht unterschiedlicher Voraussetzungen einzuschätzen, ihre Voraussetzungen und ihre Konsequenzen infrage zu stellen, ist keine Sache von Postmoderne, Beliebigkeit oder Verzicht auf Wahrheit. Das ist im Gegenteil die konsequente Fortsetzung der grundlegendsten demokratischen Prinzipien, das ist nichts anderes als die Weigerung, Autoritäten nur um ihrer Autorität willen zu akzeptieren – und nicht aus sachlichen Gründen, die man feststellen kann, oder aus sozialen oder politischen Gründen, die man verhandeln muss.

Die Aufforderung, diesen „postmodernen“ relativierenden Kram zur Seite zu schieben, unterscheidet sich nur graduell vom Ruf nach neuen Autoritäten – und sie verkennt die sachliche Stoßrichtung von Absolutismus-Kritik. Der angeblich jeden Unsinn als gleichwertige Wahrheit behandelnde Radikal-Relativismus existiert praktisch nur in den Karikaturen seiner Gegner. Selbst radikale Standard-Kritiker wie der besonders gern missverstandene Paul Feyerabend richten ihre Kritik (und die noch lieber missverstandene „Anything goes“ Maxime) auf Methoden, nicht auf Ergebnisse.

Relativismus und „Postmoderne“ (das Konzept funktioniert leider nur noch unter Anführungszeichen) eignen sich also dafür, Autoritäten und andere Wahrheitsquellen auf den Prüfstand zu stellen, um ihnen dann einen nachvollziehbaren Platz zuzuweisen. Das ist grundsätzlich nichts, was beklagt werden müsste. Das vermeintliche Schreckgespenst des Relativismus zu relativieren ist auch eine redundante und teilweise lästige, aber nicht überfordernde Angelegenheit.

Allerdings ist es tragisch, wenn der unbedachte Ruf der Relativismus-Skeptiker nach Autoritäten die Debatte abzukürzen versucht und – gerade bei der Suche nach ethischen Standards und gesellschaftlich nützlicher Technologie – das Ergebnis vorwegnehmen möchte. In einer Diskussion über digitale Kriegsführung stellte unlängst tatsächlich ein Technologiemanager die Vermutung in den Raum, dass die Welt wohl anders wäre, wenn ein tatsächlich (technisch) neutraler, überall erreichbarer Informationskanal Menschen auf der ganzen Welt, vor allem in Russland, die Wahrheit vermitteln würde. – Es müsste doch das Ziel von Technologie im Dienst der Gesellschaft sein, solche Werkzeuge zu schaffen. 

Das ist eine süße Vision eines alternden „Realisten“, also eigentlich Absolutisten. Zugleich ist es ein groteskes Beispiel für die Verabsolutierung der eigenen Perspektive, der eigenen Sozialromantik und für die Ignoranz gegenüber Realitäten, die sonst so gern Relativisten und Postmodernen unterstellt wird.

Um die Groteske zu erfassen müssen wir noch gar nicht darüber nachdenken, was in diesem Fall als Wahrheit gelten soll und nach welchen Kriterien sie im Einzelfall festgestellt und verbreitet (oder eben nicht) werden soll. Es würde reichen, uns vor Augen zu führen, dass diese Vorstellung keine Vision der Zukunft ist. Es ist ein Bild aus der Vergangenheit.

Ein neutrales, überall erreichbares, nur minimalen politischen Einflüssen unterliegendes Internet hatten wir schon. Dann haben wir aus verschiedensten Überlegungen – kommerzielle, politische aber auch gut gemeinte soziale über den Nutzen für die Gesellschaft – die Desinformationsmaschine wachsen lassen, die das Internet heute ist. Eine Maschine, die sich aus einer Vielzahl von Perspektiven als das beste für die Gesellschaft erklären lässt – je nachdem, welchen Standards man folgen möchte.

Gegenüber solchen Ansätzen habe ich als Relativist einen weit radikaleren Realismusbegriff als solche Relativismuskritiker, die ihre eigene Vorstellung gern als Wahrheit ansetzen möchten und dabei die Augen davor verschließen, dass die Antwort auf ihre Vision schon lange auf sie wartet. Insofern bin ich skeptisch ob Standards, die Technikern allein überlassen bleiben, nicht-technische Probleme von Technologie lösen können.

Adrian Daub: What Tech Calls Thinking

Informatik ist eine Kulturtechnik – computational know how hilft, sich besser in der Welt zurechtzufinden. Dieser Gedanke setzt sich zunehmend durch und findet seinen Niederschlag in bildungspolitischen Forderungen nach mehr, früherem und besserem Informatikunterricht in den Schulen, im Verlangen nach Interdisziplinarität, die Informatik nicht nur als hilfreichen Problemlöser wie einen Taschenrechner betrachtet und im Anspruch, Informatik als die Grundlagenwissenschaft unserer Zeit zu betrachten (so wie es früher Astronomie, Theologie oder Physik waren).

In diesem Fahrwasser schwimmt eine neue Technikgläubigkeit mit, die nicht nur digitale Technologie als Problemlöser schlechthin verehrt, sondern im Tech-Marketing auch eine neue intellektuelle Messlatte sieht, die das geistige Leben bestimmt. Die weit ausholenden Pitches von Tech-Giganten oder Startups und deren Versprechen und ideologische Visionen gelten als neue Philosophie, die erklärt, warum und wie plötzlich so vieles möglich wird. Dass diese Pitches und Predigten gemeinhin nichts erklären, sondern bestenfalls Behauptungen in den Raum stellen, bleibt dabei gern unbeachtet auf der Strecke.

Adrian Daub untersucht diese Entwicklung in „What Tech Calls Thinking“ und macht sich auf die Suche nach den Vorläufern dieser Erfolgsgeschichte.

Zentrale Figuren in dieser Linie sind Ayn Rand und der eigentlich schon wieder vergessene René Girard. Ayn Rand ist für Daub die Urmutter der rebellischen Pose, die sich weniger mit Verhältnissen oder Grundlagen beschäftigt, gegen die es zu rebellieren gelte, sondern mit der Inszenierung als Rebell. Dabei reichen persönliche Veränderungen, Beschriftungen – und Konsum. Wer ungern Steuern zahlt ist mit Ayn Rand kein korrupter Steuerbetrüger, sondern ein Rebell, der Zeichen gegen die totalitaristische Gleichmacherei des Staats setzt. Wer die richtigen wiederbefüllbaren Trinkflaschen verwendet, ist ein Öko-Aktivist. Wer die richtigen Tech-Gadgets verwendet, die alle verwenden, ist ein reflektierter Individualist, dem man nichts vormachen kann.

Die Pose des Rebellen kann vor allem dann umso leichter eingenommen werden, wenn die passende Ideologie alle anderen als gleichförmige graue Masse betrachten kann, von der man sich selbst dank bestimmter Einsichten abheben kann.

Das Rüstzeug dafür lieferte René Girard, der laut Daub vor allem Peter Thiel beeinflusst haben soll. Auf Wikipedia wird Girard als „Historiker und Polymath“ bezeichnet – Polymathie ist eine freundliche Umschreibung für Universaldilettantismus; die Herausgeber früher wissenschaftlicher Zeitschriften des 17. Jahrhunderts, die sich buchstäblich mit Gott und der Welt beschäftigen, galten als Polymathen (einen Überblick zur wissenschaftlich literarischen Medienbubble des 17 und 18. Jahrhunderts gibt es übrigens hier, eine punktuelle Auseinandersetzung mit einigen Polymathen der Aufklärung hier).

Als Polymath entwickelte Girard die Theorie des mimetischen Begehrens. Kurz erklärt: Alle wollen das gleiche. Das ist nun kein unplausibles Phänomen, auch der mimetische Aspekt (wir sehen (oder glauben), dass jemand dank der Erfüllung seines Begehrens glücklich wird und begehren ähnliches) ist nicht weltfremd. 

Fragwürdig ist allerdings, darauf weist Daub hin, wie sich die Verabsolutierung dieser Diagnose argumentieren lässt, noch fragwürdiger ist, wie sich, wenn das Prinzip absolut gilt, dann doch einzelne Wissende diesem entziehen können.

Daub sieht in dieser kunstvollen Inszenierung den Archetyp des Pitches, wie es ihn seit den Zeitalter der Homeshopping-Fernsehkanäle gibt: Ein belangloses Problem wird zur unüberwindlichen Hürde erhoben, eine beliebige Idee wird zum allgemein gültigen Prinzip stilisiert, aus einer punktuellen Problemlösung wird die Zukunftsvision der Menschheit destilliert (wobei dahingestellt bleiben muss, ob das gelöste Problem eines war).

Das verlockende und gleichzeitig besonders perfide an diesem Spiel ist: Alle können mitmachen. Wenn Form, Stil und Pose passen, steht es allen offen, in diesem Chor der Begeisterung mitzusingen. Es wäre in Gegenteil überaus unsportlich und ein Zeichen von schlechtem Benehmen, auf Schwächen in der Erzählung hinzuweisen, Fragen zur Relevanz zu stellen oder die allgemeine Begeisterung nicht zu teilen.

Einer der zentralen Begriffe des Tech-Diskurses, an dem diese Phänomene mühelos durchdekliniert werden können, ist etwa „Disruption“: Vom großen Versprechen, alles von Grund auf zu ändern, bleibt in der Regel eine Ayn-Rand-hafte Pose, die Bestehendes ein wenig anders arrangiert und eventuell neu einfärbt. 

Wo es um Technik zu zeitgemäße Medien geht, ist natürlich auch McLuhan nicht weit. Daub schlägt dabei vor, McLuhans Diagnose des Primats von Medium über Message (was zählt, ist die mediale Form, der Content ist Nebensache) auf Plattformen und Social Media anzuwenden: Reich und berühmt wird nicht, wer Inhalte schafft und Medien am Leben erhält – die Erfinder und Betreiber der Plattformen gelten als die Medienvisionäre der Zukunft. Ihre Relevanz beruht dabei auf formalen Kriterien wie Reichweite, Reichtum und Wachstum. Inhalte und Innovation sind nebensächlich.

Daub analysiert mit großer Schärfe, detaillierter Recherche und viel Wissen Kommunikationsmodelle, die wohl vielen BeobachterInnen schon übel aufgestoßen sind, die aber kaum noch so klar beschrieben und vor allem so stringent hergeleitet wurden. Seine Untersuchung lässt erahnen, wie weit diese Kommunikations- und Denkmuster auch andere Bereiche beeinflussen: Journalismus, Politik, politische Analyse verfallen zunehmend Alles-oder-nichts-Mustern, in denen die eigenen (im Sinn von Ayn Rand selbst geschaffenen) Weltbilder die letzte Instanz sind, die über Realität oder Illusion entscheiden – und in denen gegen Feindbilder angeschrieben wird, die zuvor selbst erstellt wurden. Man denke nur an den Alltag auf Plattformen des sozialen Allwissens wie Twitter oder an „Journalisten“, die den Kommentar für die wichtigste Mediengattung halten. 

Ich habe ähnliche Strategien als Kulturtechnik des Behauptens beschrieben – allerdings nicht so klar und kulturwissenschaftlich fundiert wie Daub. Ich freu mich jetzt auch darauf, mit diesen neuen Anstößen an diesem Konzept weiterzuarbeiten.

John D. Kelleher, Brendan Tierney: Data Science

Data Science ist Handwerk. Und wie bei den meisten handwerklichen Tätigkeiten fließt der meiste – und am wenigsten beachtete – Aufwand in die Vorbereitung. Ohne saubere Schnittstellen im Material kann nicht ordentlich geschweißt werden, Anstriche auf der falschen Grundierung halten nicht und ohne ausreichend gesammelte, vorbereitete und aufbereitete Daten führen auch die fortgeschrittenste Mathematik oder erprobte Algorithmen nicht zu nennenswerten Ergebnissen. Das ist eine der Kernaussagen von John Kellehers und Brendan Tierneys Grundlagentext zu Data Science.

Ein entscheidender Faktor für gelingende oder scheiternde Data Science Projekte steht also ganz am Anfang, ein anderer steht am Ende: Die Integration in relevante Prozesse ist, wie in vielen Fällen technisch-organisatorisch-inhaltlicher Projekte, ausschlaggebend dafür, ob Ergebnisse als sinnvoll empfunden werden. Leisten sie das nicht, dann gelten die trotz aller technischen Finesse schnell als fehlgeschlagene Zeitverschwendung.

In Hinblick auf eine kritische Auseinandersetzung mit Data Science und mit anderen mit Daten verknüpften Verheißungen, wie sie etwa Open Data bietet, zeigen sich Kelleher und Tierney als Skeptiker. Data Science könne viele Antworten liefern, allerdings sei es sehr leicht und wahrscheinlich, die falschen Fragen zu stellen. Data Science, Analyse und Statistik müssen von fachspezifischem Knowhow begleitet werden, um sinnvolle Ergebnisse zu liefern.
Die laufend – in mehreren Iterationen – notwendige Kontextualisierung von Daten ist ein wesentliches Element diverser Hierarchie-Pyramiden, mit denen Kelleher und Tierney Data Science-Prozesse beschreiben. In der DIKW (Data-Information-Knowledge-Wisdom)-Pyramide stehen Daten als Abstraktionen auf der untersten Stufe, ihnen folgt Information. Beim Schritt von Daten zu Information wurden Daten verarbeitet, strukturiert und kontextualisiert, um für Menschen verständlich zu sein. Information wird zu Wissen, indem Information interpretiert und verstanden wird und Handlungsgrundlage werden kann. Wissen schließlich wird zu Weisheit, also zum angemessenen Handeln aufgrund von Wissen. Diese Hierarchie macht deutlich, wie weit eine pragmatische, kontextorientierte und auf Handlungen und Wirkung abzielende Perspektive relevant ist, um Sinn aus Daten zu stiften. Das ist schlüssig. Allerdings fehlt in der Darstellung von Kelleher und Tierney jeder Hinweis auf einen möglichen Bezug zu Objekten, Realität oder anderen Begriffen, mit denen sich Sphären außerhalb von Daten beschreiben lassen. Es wäre also egal, ob Information und Wissen wahr oder auch nur wahrheitstauglich sind; sie können trotzdem die Stufe der Weisheit erreichen. Philosophen wie Luciano Floridi melden dagegen Einspruch an; für Floridi müssen Daten als Information zumindest so wahr sein, wie eine Landkarte wahr ist. “Adäquates Handeln auf der Basis von Wissen”, so definieren Kelleher und Tierney Weisheit, ist kein Gegensatz dazu; allerdings bringt die Formulierung einige Probleme rund um Fragen der Adäquatheit mit sich.

Adäquatheit muss allerdings keine direkt eindeutige Relation sein; Adäquatheit wie Kelleher und Tierney sie im Data Science-Kontext beschreiben, kann auch als Viabilität funktionieren, wie Glasersfeld sie als Qualitätskriterium für Begriffe und Annahmen im radikalen Konstruktivismus beschreibt. Ein Indiz dafür ist die Betonung experimenteller Ansätze und der Iteration, die Kelleher und Tierney häufig wiederholen. Unterschiedliche Settings oder die Anwendung unterschiedlicher Algorithmen liefern unterschiedliche Ergebnisse – es liegt an der Anwendung, am Kontext und an der Einschätzung des Experten, welche davon angemessen sind. Mehrfache Iterationen machen die Entscheidungen dabei besser.

Daten sind also Material, aus dem Information gewonnen werden kann. Weder in der Sammlung von Daten noch in deren Weiterverarbeitung lässt sich allerdings ein den Prozess beeinflussender Bias vermeiden. Damit wenden sich Kelleher und Tierney  gegen die Vorstellung einer neutralen und ausschließlich sachlich vorgehenden Data Science. Sie gewinnen der Vorstellung einer modellfrei und hypothesenlos forschenden Wissenschaft nichts ab; jede Datensammlung folgt einem Modell und jede Interpretation einer Hypothese. Sie wenden sich allerdings auch gegen die Vorstellung einer diesen Bias gezielt eliminierenden Data Science oder gegen den Einwand Bias sei immer sozial und politisch geprägt und könne so auch aufgelöst werden. Ohne Bias – der Entscheidungen in eine bestimmte Richtung treibt – lernen Maschinen im Machine Learning nichts, sie können keine Entscheidungen treffen, sondern nur Daten memorieren. Es liegt an Data Scientists, den jeweils aktuellen Bias und dessen Konsequenzen erkennen und einschätzen zu können – im übrigen ein Task, der nur noch wenig mit Informatik und Mathematik zu tun hat.

Einen anderen problematischen Begriff verwenden Kelleher und Tierney ebenfalls nur mit Einschränkungen – lassen dabei aber meines Erachtens noch zu viel Spielraum: Sie beschreiben Daten als Rohmaterial und verwenden öfter den Begriff “roh” im Zusammenhang mit Daten, auch wenn sie dabei zugleich stets einschränken, dass Daten gewonnen werden, sei es durch Abstraktion, durch Kategorisierung oder durch Beobachtung nach einem gewissen Schema. Daten sind immer schon verarbeitetes Material, sie sind niemals roh. “Raw Data is an Oxymoron”, beschreibt es Lisa Gitelman;  Luciano Floridi experimentiert mit Begriffen wie Capta oder Relata, um mit dem Nimbus des Ursprünglichen, Unverfälschten von Daten aufzuräumen. Kelleher und Tierney vertreten keineswegs die Einstellung, Daten wären unverfälschtes Rohmaterial. Sie machen das meines Erachtens allerdings wenig deutlich. Menschen, die Entscheidungen gern  Daten und Fakten überlassen möchten, die in der Politik nach Evidenz rufen oder soziale Fragen “mit Wissenschaft” entscheiden möchten, werden in Kellehers und Tierneys Formulierungen keinen Widerstand finden.

Das zeigt, wie wichtig zusätzlich zum fachlich-technischen Knowhow weitere Perspektiven in der Einschätzung Data Science-relevanter Fragen sind. Ein neues und wohl noch zukunftsträchtiges Konzept dazu bietet Sabina Leonelli mit data journeys, einer Perspektive, die vor allem Augenmerk auf die Geschichte, Entstehung, Verwendung und Veränderung von Daten legt und sich von Rob Kitchins data assemblages dadurch unterscheidet, dass die mehrfache Nutzung und Veränderung von Daten besser abgebildet werden kann.

Rob Kitchin: The Data Revolution

Kaum eine Buchsorte alterte in den vergangenen Jahren schneller als Bücher über Daten. Eilige Propheten – in Österreich sogar alternde Radiomoderatoren – brachten in den vergangenen zehn Jahren Bücher auf den Markt, die Planbarkeit, Kontrollierbarkeit, Gerechtigkeit, Transparenz und Fortschritt versprachen.

In doch recht deutlichem Gegensatz dazu wundern wir uns heute noch über absurd schlechte Personalisierungsempfehlungen bei großen Onlinehändlern oder über merkwürdig schlechte Werbeplatzierungen in Onlinemedien und Social Networks.

Ein Grund für diese Differenz liegt in jenen Missverständnissen, die Rob Kitchin in “The Data Revolution”, einem großen Überblick über philosophisch relevante Themen rund um Big Data und Open Data, beschreibt.

Der zentrale Punkt ist die nach wie vor häufig anzutreffende Fehleinschätzung, das Daten für sich selbst sprächen. Diese Fehleinschätzung ist schon in einem missverständlichen Begriff begründet: Daten sind nicht etwas Gegebenes (wie es der Übersetzung aus dem Lateinischen entspräche); sie sind mit Beobachtungstechniken, Messskalen und Aufzeichnungswerkzeugen hergestellte Artefakte, die als Indizien für diverse Objekte gelten. Anstelle von Datum, zitiert Kitchin einige AutorInnen, sollte es also eigentlich Captum heißen. – Diese Einsicht hat sich noch nicht so schnell überholt; im Gegenteil, sie scheint sich eher auch noch hartnäckig zu halten. Insofern gehört Kitchins Buch zu den weniger schnell alternden Datentexten.

Die veränderte Perspektive auf den Kern von Daten wirft ein deutlich anderes Bild auf viele der mit Open Data und Big Data verknüpften Erwartungen. Daten ersetzen keine Theorien, weil sie entlang von Theorien gesammelt werden, sie machen Modelle nicht überflüssig, weil sie selbst in Datenmodellen strukturiert sind. Öffnet man sich auch der technischen Dimension von Daten (und bleibt nicht nur an der oberflächlichen sozial-politischen Ebene hängen), dann ist auch offensichtlich, wie streng Regelwerke und Richtlinien des Datenhandling sind und wie intensiv Schritte wie Normalisierung oder Standardisierung von Daten diskutiert, durchgesetzt und auch immer wieder geprobt oder aufgeführt werden, um sich ihrer eigenen Relevanz zu versichern. Die englische Formulierung “rehearsal” beschreibt diesen Prozess besser und erinnert an das Konzept der sociotechnical imaginaries, das in den Science & Technology Studies gern zelebriert wird.

Daten bringen uns also nicht näher an Objekte, sie ersetzen weder Objekte noch Theorien und Modelle, und sie haben für sich weder Information noch Wert. Die Hoffnungen auf nicht-reduktivistische Wissenschaft, die nicht mehr abstrahieren muss, auf umfassend informierte Entscheidungen und auf Entscheidungskriterien, die frei von menschlichen Vorurteilen sind, werden sich also eher nicht erfüllen.

Kitchin verweist vor allem auf Kontext und Transformationsgeschichte von Daten. Data Assemblages und Data Infrastructures sind die Ergebnisse, in deren Form Daten uns begegnen (also nie nur als reine, rohe Daten (ein Begriff, der DenkerInnen in der Linie von Kitchin, wie etwa Gitelman, als Oxymoron gilt), Data Lineages beschreiben die Prozesse und Entwicklungsschritte, die zu diesen Ergebnissen geführt haben. Data Lineages beginnen mit der Idee, bestimmte Daten zu sammeln gehen über deren Modellierung, Strukturierung, Aufbereitung, Analyse und Visualisierung bis hin zu Ableitungen, die sich aus den vorgeblich neutralen, unbehandelten, für sich selbst sprechenden Daten ergeben. Sabina Leonelli beschreibt ähnliches, aber mit noch stärkerem Fokus auf Wandlungen, Orts- und Systemwechsel und Interaktionen zwischen Daten, Datenarchivierung und Material (oder Objekt) als Data Journeys.

In Hinblick auf Big Data hat sich diese kritische Perspektive schon etwas umfassender etabliert. Kitchin bezieht allerdings auch Open Data gegenüber eine sehr kritische Position. Open Data, das große Transparenzversprechen, entpuppt sich in seiner Perspektive als Reproduktion von Interessen, Sichtweisen und Weltbildern – ja sogar als disziplinierendes Machtinstrument, das den anderen (also den UserInnen von Open Data) vorgibt, womit sie sich wie zu beschäftigen hätten. Dazu kommt noch die häufig mangelnde technisch-sachliche Qualität von Open Data: Viele Open Data Repositories sind bloße Ablagen, in denen Dateien ohne durchgängiges Konzept und Modell gelagert werden, in denen Verknüpfungs- und Weiterverarbeitungsmöglichkeiten stark eingeschränkt oder mit hohem Aufwand verbunden sind. Dazu fehlen wichtige Kontextinformationen – es scheint, als würden viele Open Data-Veröffentlichungen bereits mit der Bereitstellung von Dateien als abgeschlossen betrachtet. Die eigentliche Verwendung der Daten scheint bei deren Veröffentlichung allerdings nicht mitbedacht worden zu sein (Gerade bei Open Data ist es sicherlich auch Kern der Sache, dass die Verwendung und Weiterverarbeitung bei den UserInnen liegt – die Bereitstellung und schon die Erhebung von Daten entscheiden aber schon viel darüber, wie weit und wie sinnvoll Daten verwendet und weiterverarbeitet werden können).

Ähnliche Aspekte rund um Open Data habe ich auch beispielhaft in einer ersten Analyse der Daten des Lobbyingtransparenzregisters der Europäischen Union beschrieben (mehr Visualisierungen und Auswertungen dazu gibt es auf dataanalyst.at).


Kitchins Rundumschau ist eine Bestandsaufnahme von Problem- und potentiellen Analysefeldern. Einiges davon hat sich heute bereits als Problem etabliert, anderes bleibt neu. Die Bestandsaufnahme ist eine Art Katalog für künftige datenphilosophische Forschungen; als ein erstes mögliches Projekt schlägt Kitchin unter anderem eine Genealogie von Open Data vor; auch ethnographische Forschungen, die die praktische Arbeit in Data Science beobachten, hält er für sinnvoll. Diese Projekte zählt Kitchin allerdings nur schnell im Schlusswort seines Buches auf – auffällig ist, dass auch viel spätere Literatur noch nicht wesentlich weiter ist als bei der Aufzählung möglicher Forschungsfelder (die über ethische und politisch-soziale Implikationen hinausgehen).Insofern is Data Science für Wissenschaftsphilosophen wohl noch ein dankbares und ergiebiges Forschungsgebiet …

Ernst von Glasersfeld: Radikaler Konstruktivismus

Wissen hilft, uns zielorientiert in der Welt zu verhalten. Wie weit Wissen dabei mit einer Realität übereinstimmt, sie abbildet und wie diese Übereinstimmung ihrerseits wieder abgebildet oder gemessen werden kann, das ist irrelevant. – Eigentlich müsste der Radikale Konstruktivismus von Glasersfeld die heiße Philosophie unserer Zeit sein. Die zweckorientierte pragmatische Perspektive verträgt sich auf den ersten Blick  gut mit einer Sichtweise, in der Bildung und Zusammenhänge als überschätzter Ballast gelten, Effizienz im Vordergund steht und das Wissen, wo man nachsehen kann, Wissen ersetzt.

Konstruktivismus ist aber eher eines der Feindbilder von Rationalisten und Realisten, die sich platte Abziehbilder konstruktivistischer Positionen schaffen, um dann gut dagegen argumentieren zu können. Dabei wird Konstruktivisimus oft auf soziale Konstruktion oder auf platten Solipsismus reduziert. (Und jene, die sich diese platten Konstruktivismus-Karikaturen zum Vorbild für ihre eigenen schwachen Argumente nehmen könnten, kriegen auch das gar nicht mit.)

Konstruktivisten wie Glasersfeld stellen nicht die Frage, ob es so was wie Realität gibt oder nur Konstruktion. Sie beschäftigen sich auch gar nicht mit Fragen der Erkenntnis oder den Möglichkeiten des Erkennens – für Glasersfeld stehen Wissen und Begriffsbildung im Mittelpunkt.

Seine wesentlichen Überlegungen drehen sich um die Frage, wie Begriffe entstehen und welche Funktion sie erfüllen.

Begriffe sind gewissermaßen die Währung des Wissens – über sie kann Wissen ausgetauscht und vermittelt werden, sie schaffen Berührungspunkte zwischen jenen, die Wissen haben. Ob sie auch Berührungspunkte zu ihren Objekten schaffen, ob und wie sie also Realität abbilden, ist für Glasersfeld keine wesentliche Frage. Relevanter ist, ob sie helfen, in der Welt zurechtzukommen, ob sie also funktionieren. Viabilität ist ein wichtiges Kriterium – das bezeichnet die Frage, ob Begriffe und Wissen angemessen sind, funktionieren, ihren Zweck erfüllen.

Kognition ist demnach für Glasersfeld ein adaptiver Prozess: Wissen und Begriffe werden aufgrund der Erfahrungen, die sie ermöglichen, angepasst. Viele Konzepte hat Glasersfeld dabei von Jean Piagets Entwicklungspsychologie übernommen, die sich damit beschäftigt, wie Begriffsbildung bei Kindern funktioniert.

Als weiteren wichtigen Einfluss beschreibt Glasersfeld immer wieder seine eigene mehrsprachige Kindheit, die ihm schon früh vermittelt habe, dass ein direkter Zusammenhang zwischen Begriffen und Gegenständen sehr unwahrscheinlich sei – schließlich hießen sie nicht nur in allen Sprachen anders, in manchen Sprachen gibt es für einen Sachverhalt einfache Wort, in anderen zusammengesetzte, in wieder anderen nur Umschreibungen.

Was macht den Radikalen Konstruktivismus auch heute noch interessant?

Als Wissenstheorie ermöglicht Konstruktivismus eine pragmatische Perspektive auf Fragen von Wissen, Modellbildung, Repräsentation und aus Modellen (oder Metaphern, Analogien und Gleichungen) abgeleitetes Wissen. Aus konstruktivistischer Perspektive entfällt die komplizierte Frage nach dem Wesen der Beziehung zwischen Repräsentation und Repräsentiertem, denn aus konstruktivistischer Perspektive gibt es keine Repräsentation, sondern nur Präsentation (allenfalls Re-Präsentation, also die neuerliche Präsentation). Das lenkt die Aufmerksamkeit auf aktive gestalterische Komponenten des Versuchs, Wissen abzubilden – und damit nimmt Glasersfeld viel von dem vorweg, was Objektivitätskritikerinnen wie Loraine Daston oder Michael Lynch später genauer ausführen sollten. Der Fokus auf die Präsentation rückt auch die materielle Dimension von Begrifflichkeiten und ihren Präsentationen ins Blickfeld: Wenn Modelle oder Aufzeichnungen und Visualisierungen nicht nur Hilfskonstrukte sind, die das Eigentliche repräsentieren, dann macht es auch Sinn, sich mit den konkreten Eigenschaften dieser Modelle und Aufzeichnungen zu beschäftigen, so wie man gewohnt war, sich mit den materiellen Eigenschaften des vermeintlich eigentlichen Objekts zu beschäftigen.

Als pragmatische und formalistisch-wirkungsorientierte Perspektive erspart Konstruktivismus viele aufwendige Debatten über transzendente und metaphyische Eigenschaften oder über richtig und falsch und eine diese Entscheidungen überhaupt erst ermöglichende Teleologie (also Vorstellungen von übergeordneten letzten Zielen). Stattdessen zählt, was funktioniert. Aus einer ethisch oder normativ orientierten Perspektive kann Konstruktivismus daher auch sehr kritisch betrachtet werden, allerdings setzt die pragmatische Perspektive auch ein starkes konsensuales Element: Etwas funktioniert ja nur dann, wenn es für mehrere funktioniert, wenn man sich also darauf einigen kann, dass es richtig oder praktisch ist oder zum gewünschten Ergebnis führt.

Zugleich ermöglicht Konstruktivismus aber auch die gezielte Formulierung solcher wesensorientierte Fragen. Die Analyse der pragmatischen Aspekte macht klar, was besonders pragmatisch ist, also gar nicht mehr hinterfragt wird und als selbstverständlich angenommen wird – seien es Ideen, Haltungen oder Maschinen. Wenn wir feststellen, dass etwas so selbstverständlich ist, dass wir gar keine Fragen mehr dazu stellen können und es wie eine Black Box betrachten, dann haben wir damit die Ausgangslage für sehr viele Fragen geschaffen, etwa die, warum das so ist, welche Alternativen es geben könnte und wie groß die Black Box eigentlich ist (also wo wir aufgehört haben, Fragen zustellen). Glasersfeld hat damit eines der zentralen Konzepte der Actor Network Theory vorweggenommen – Bruno Latour selbst spricht oft von blackboxing und dem closing der Black Boxes, wenn er sich mit dem Entstehen (wissenschaftlichen) Wissens beschäftigt.

Schließlich halte ich diese Grundzüge des Radikalen Konstruktivismus auch für eine gute Ausgangsposition für die wissenstheoretische Auseinandersetzung mit Data Science. Auch hier haben wir es mit einem hoch formalisierten, auf pragmatische Zusammenhänge abzielenden Umfeld zu tun. Das Ergebnis muss formal betrachtet schlüssig sein und sollte keine Rechenfehler sichtbar machen, der Bezug der Daten und Algorithmen zu ihren Objekten kann ausgeblendet werden. Dass das oft zu sozial, ethisch und auch epistemisch unvorteilhaften Ergebnissen führt, hat Cathy O’Neill in “Weapons of Math Destruction” ausgeführt.

Konstruktivismus kann durchaus ein Framework sein, um Data Science-Fragestellungen wissenstheoretisch und wissenschaftsphilosophisch zu behandeln – beide, Data Science und Radikaler Konstruktivismus müssen sich aber letztlich auch einer großen Frage stellen, die über den eigentlichen Anspruch dieser Konzepte (oder Disziplinen) hinausgeht: Reicht das? Sind wir wirklich zufrieden damit, pragmatische formalistische Zusammenhänge und deren Abläufe zu analysieren – oder wollen wir doch mehr? Zumindest der Zweck von Begriffen und ihrer Verwendung sollte stets präsentes Thema sein – das meint auch Glasersfeld.

Das Tragische dabei ist, dass gerade diese Zweckorientierung oft als Argument gegen Konstruktivismus ins Feld geführt wird. Gegner sehen darin Anmaßung, Opportunismus und intellektuelle Unredlichkeit. Der Konstruktivist dagegen sieht hier Demut und Bescheidenheit – wir können ja nur beobachten, ob es funktioniert. Ob es richtig ist, wissen wir dann noch immer nicht – weder im epistemischen noch im ethischen oder sozialen Sinn.

Alexander Bogner: Die Epistemisierung des Politischen

Wenn nur alle vernünftig sind – dann wird sich alles zum besten wenden. Mit Vernunft, Bildung und Respekt für die Wissenschaft lassen sich Coronaleugner, Klimawandelleugner, Kreationisten und Rassisten eines besseren belehren – oder doch nicht? Und wäre das überhaupt möglich oder sinnvoll? Solche und ähnliche Fragen bestimmen die Ausgangslage, in der sich Alexander Bogner mit der Macht der Wissenschaft beschäftigt. Sowohl in Klima- als auch in Coronafragen werden die Rufe nach Wissenschaft immer lauter.

Man möge auf die Wissenschaft hören; wissenschaftliche Erkenntnisse liegen doch auf dem Tisch – also sollen sich doch Politik und Gesellschaft danach richten. Diese Rufe hört man allerdings von beiden Seiten, von jenen, die für stärkere Beschränkungen und mehr Risikobewusstsein sind und ebenso von jenen, die sowohl das Virus als auch den Klimawandel als aufgebauschte Angstmacherei abtun. Es ist eben nicht so einfach, auf die Wissenschaft zu hören, denn trotz aller Klarheit gibt sie in komplexen Fragen selten klare Handlungsanweisungen (das ist unter anderen auch Thema der ersten Ausgabe in Journal Ahnungslos).

Sollen politische Entscheidungen wissenschaftlich fundiert sein? Können sie das denn sein?

In seinem Buch beschäftigt sich Bogner insbesondere mit dem Verhältnis von Wissenschaft und Politik: Soll (oder kann) die Politik auf der Grundlage wissenschaftlicher Erkenntnisse entscheiden?

Natürlich, wäre eine erste verständliche Reaktion.

Was, drängt sich als erste Gegenfrage auf, hätte das allerdings noch mit Demokratie zu tun? Demokratien entscheiden nach dem Willen der Mehrheit; richtig, falsch oder gar wissenschaftlich sind keine für demokratische Entscheidungen konstitutiven Kriterien.

Das wird umso deutlicher, wenn man die Geschichte der Wissenschafts- und Expertenkritik nachzeichnet. In den 60er Jahren war Expertenkritik ein antiautoritäres aufklärerisches Projekt. Experten waren jene, die aufgrund ihres Wissens und ihrer Positionen Autorität hatten und über jenen standen, die anderes Wissen oder andere Standpunkte einbringen wollten – also etwa Frauen, Jugendliche, Menschen anderer Hautfarbe oder aus anderen Kontinenten. Die Expertise jener Autoritäten galt damals auch als Ignoranz. Heute hat sich das Bild deutlich gewandelt. Expertise ist bunter und vielschichtiger geworden – und es ist deutlich schwieriger geworden, die relevanten oder wünschenswerten Formen von Expertise herauszufiltern (dem hat etwa Harry Collins ein ganzes Buch gewidmet – und auch er kommt zu keiner auf allen Ebenen schlüssigen Lösung). Ganz im Gegensatz zur Expertenkritik der 60er Jahre ist es heute also umgekehrt ein aufklärerisches Projekt, nach Autoritäten zu suchen. Der Kampf gegen (wissenschaftliche) Autoritäten ist nach wie vor ein Kampf um Autonomie – trotz der formalen Ähnlichkeiten zur Kritik der 60er Jahre sind die inhaltlichen Unterschiede aber groß. Das hat unter anderem etwa auch die Rolle des Begriffs der Ignoranz verändert: Was früher ein Makel der alten Autoritäten war, ist heute ein Skill, der als Unbeirrbarkeit – überspitzt betrachtet – eine positive Eigenschaft jener ist, die neue Wege gehen (dazu habe ich unlängst etwas Ausführlicheres geschrieben).

Auf der Suche nach neuen Autoritäten

Wie lassen sich nun neue Rationalitätsautoritäten finden?

Bogner beschreibt dazu Strategien aus der Klimawandelforschung als “empirische Konsensforschung”. Dabei ist das wesentliche Kriterium nicht die Wissenschaftlichkeit des Arguments, entscheidend sind die Zahlen der insgesamt verfügbaren Stimmen (oder Studien). Das bedeutet: Studien, die sich (auf den ersten Blick) wissenschaftlicher Methoden bedienen, haben trotzdem nicht das Zeug, zu Autoritäten zu werden, wenn ihre Ergebnisse dem widersprechen, was die überwiegende Mehrheit von ExpertInnen meint. – Das ist allerdings eine natürlich äußerst wacklige Konstruktion, die vorerst jede Innovation ausscheiden würde, mit unterschiedlichen Kriterien und sehr unterschiedlichen Ergebnissen kommt und zumindest auch eine Zeitdimension zur Einschätzung der Stabilität des Konsenses einführen soll.

Muss dann die Wissenschaft also doch auch auf Werte zurückgreifen, um ihren Autoritätsanspruch zu stützen?

In manchen Perspektiven sollten Werte und Wissenschaft nichts miteinander gemein haben – Wissenschaft ist eben neutral, sachlich und wertfrei. Wertfreiheit funktioniert allerdings nur in Laborsituationen. Und selbst dort sind schnell Grenzen erreicht – so scheinbar technische Vorgänge und Entscheidungen wie die Festlegung von Messgrößen oder die Kalibrierung von Skalen bilden Wertentscheidungen ab. Denn dabei wird festgelegt, was relevant genug ist, um präzise gemessen zu werden, und was unter Schwellwerte fallen kann (zu diesem Thema hat insbesondere die Wissenschaftsphilosphin Heather Douglas gearbeitet).

Politik aber hat auf jeden Fall mit Werten zu tun. Kann sich im Zusammenspiel von Wissenschaft und Politik die Politik also diejenige Wissenschaft aussuchen, die den von ihr unterstützen Werten entspricht? – Diese Fragestellung wirkt vielleicht im Licht rein naturwissenschaftlicher Fragestellungen merkwürdig. Soziale oder ökonomische Fragestellungen aber lassen schnell erkennen, wie Werte schon die Formulierung einer wissenschaftlichen Frage beeinflussen.


Gibt es also keinen Ausweg in diesem vielschichtigen und problematischen Verhältnis zwischen Politik, Wissenschaft, Expertise und Autorität? Bogner bleibt vage. Irgendwie werde man sich darauf einigen müssen, dass es so etwas wie objektive Wahrheit gibt, meint er, zumindest als notwendige Fiktion. – Das Anliegen kann ich verstehen, die Formulierung finde ich kritisch. Erstens ist Objektivität ein problematischer Begriff, den ich tunlichst vermeide. Zweitens ist mit dem Vorhandensein von Wahrheit noch nichts über deren Erkenntnis ausgesagt. Drittens kann auch ein und derselbe unbestreitbare Fakt immer noch unterschiedlich bewertet und in unterschiedliche Kausalzusammenhänge gebracht werden. Als Rute im Fenster bekommt die Vorstellung einer objektiven Wahrheit, die Klimawandel- und Coronaleugnern die Rechnung präsentieren wird, überdies einen merkwürdigen theologischen Touch vom Jüngsten Gericht.


An einer gemeinsamen notwendigen Fiktion wird man trotzdem nicht vorbeikommen, wenn gemeinsame Entscheidungen getroffen werden sollen. Fiktionen wie “das Volk” oder “wir” (gegen “die da oben” oder “die da draußen”) machen zur Zeit ja vor, wie das funktionieren kann … – allerdings nicht mit dem aufklärerischen Antrieb, den man sich in einer Rationalitäts- und Wissenschaftlichkeitsdebatte wünschen würde.