Datenbasis

Daten bringen bessere Entscheidungen. Daten sind präzise, Zahlen lügen nicht, Algorithmen sind unbeirrt, Modelle bringen Unsichtbares zum Vorschein. Data Scientists, Analysts, Engineers und Big Data-Trittbrettfahrer sind sich dabei einig. 

Daten versprechen faktenbasierte, von Meinungen und Stimmungsschwankungen unberührte und von persönlichen Vorlieben und eingeschränkten Standpunkten befreite Entscheidungen.

Das setzt einiges voraus. 

Erstens impliziert diese Überzeugung eine normative Macht von Daten. Was die Daten sagen, das soll geschehen – denn sonst würde eine andere Instanz als die Daten selbst entscheiden, welcher Entscheidungsempfehlung nun wirklich gefolgt werden soll. 

Zweitens schließt diese Perspektive ein, dass Entscheidungen nirgendwo anders getroffen werden. Daten und deren Analyse führen entscheidungs- und alternativlos zu einem Ergebnis. Im Zuge dieses Prozesses ist bei jedem Schritt klar, was geschehen soll; Alternativen und Unklarheiten sind ausgeschlossen. Zur Entscheidung stehen nur die letzten und großen Fragen an, der Rest ist eindeutig. 

Drittens impliziert diese Perspektive, dass Entscheidungen getroffen werden – es gibt also Optionen und offene Punkte. Dabei wiederum können Konflikte mit der ersten Voraussetzung entstehen, wenn diese im Sinne eines strengen Determinismus interpretiert wird.

Die erste Voraussetzung mag Verhandlungssache sein, man kann das vereinbaren – auch wenn so gegensätzliche Welten wie Science Fiction-Ängste und europäische Grundrechte dagegen sprechen. Die Angst vor Robotern und künstlichen Intelligenzen trägt seit Jahrzehnten ganze Science Fiction Genres. Und die europäische Datenschutzgrundverordnung etwa sieht vor, das Menschen nicht zum Gegenstand rein automatisierter Entscheidungen werden dürfen. 

Die zweite Voraussetzung erinnert streckenweise an Lehrbuchdefinitionen von Algorithmen. Auch dort ist Eindeutigkeit zentrales Kriterium. Dennoch ist die umso zweifelhafter. In jeden einzelnen Schritt von Data Science und Data Analysis-Prozessen sind Entscheidungen notwendig, schließlich geschehen 80 Prozent jedes Datenprozesses noch lange bevor erste Algorithmen überhaupt konzipiert sind. Auch dabei sind sich Data Scientists und Analysts einig. 

Die dritte Voraussetzung lässt vermuten, dass nicht jeder Entscheidungsprozess so eindeutig und geradlinig verläuft, wie es für die ersten beiden Voraussetzungen notwendig wäre. Damit spielen Fragen der System- und Prozessabgrenzung eine Rolle: Welche Zusammenhänge werden betrachtet, welche können vernachlässigt werden? Welche Faktoren gelten als Einflüsse, welche als Folgen oder Handlungsoptionen? Auch dieses Bild nämlich kann wechseln.

Eine erste Entscheidung ist die Fragestellung an sich: Welches Problem soll analysiert werden, welche Fragestellungen sollen deutlich werden? Die Wahl des Datenerhebungs- oder beobachtungszeitraums sowie der eigentlich beobachteten oder gemessenen Gegenstände oder Prozesse sind weitere Entscheidungen. 

Methoden, Techniken, Werkzeuge, Speichermittel und -methoden sind ebenfalls Felder, die zu entscheidende Optionen aufwerfen. Messgrößen, Skalen, Kalibrierungen, Einheiten, Grenz- und Schwellwerte müssen auch festgelegt werden, bevor Analysen näher konzipiert werden. Und all diese Detailentscheidungen sind erst Zutaten, bevor darüber entschieden werden kann welche Berechnungs- und Auswertungsmethoden eingesetzt werden sollen. Bei keiner dieser Entscheidungen sind Alternativen zwingend entweder richtig oder falsch – es sind jeweils mehrere Optionen möglich. 

Es sei denn, Analysten kämen zu der Entscheidung, dass keine Optionen zulässig sind. Auch das ist möglich – etwa wenn Konsistenz zu Analysen aus der Vergangenheit gewährleistet sein muss; in der Praxis spielen regulatorische Vorgaben auch oft eine Rolle. Die Bandbreite dabei reicht von Handlungsvorgaben, die sich auf Berichte auswirken (wie es etwa in der Finanzbranche bei Risikobewertungen und Analysen üblich ist), bis zu pragmatisch banalen Vorschriften wie der Einigung auf gemeinsame Terminologien und Kennzahlen (etwa im Fall von Mediadatenreportings in der Verlagsbranche).

Wenn also eine Vielzahl an Entscheidungen notwendig sind, bevor Daten Entscheidungen treffen, denen zu folgen wir uns entschieden haben – wo finden dann diese Entscheidungen statt, die zu verbessern Data Science verspricht? Diese Frage wird in vielen Analysen zu Data Science in vielen Wissensdisziplinen ausgeblendet. 

Data Scientists betonen regelmäßigen hartnäckig die Notwendigkeit und Relevanz solider Datenvorbereitung. Sie bestehen auf der Wichtigkeit von konkretem Fachwissen. Sie beschwören Kontext als entscheidenden Indikator für berechnete Ergebnisse. Während der mathematisch-statistische Teil von Analysen klar geregelt ist, gelehrt und dokumentiert wird, und entgegen dieser Beteuerungen in Ausbildung, Job und Gehaltsverteilung den Löwenanteil von Data Science ausmacht, sind die so sehr betonten Soft Skills in der Analyse und Lehre von Data Science unverhältnismäßig unscharf gefasst. 

Fachwissen, Kontext, Zielsetzungen mischen sich auf eher unklare Art und Weise in Data Science Projekte. Sie sind relevante Aspekte – aber sie sind weder gut abgegrenzt noch als Probleme oder Fragestellungen scharf umrissen.  Liegt in der Klärung dieser Fragestellungen auch die Antworten auf die Fragen, wo über die besseren Entscheidungen in Data Science entschieden wird? 

Ich denke, die Frage lässt sich nicht konkret diskutieren ohne über grundlegende Technologiekonzepte zu sprechen. 

Die theoretisch-philosophische Auseinandersetzung mit Technologie kennt sehr unterschiedliche Ausprägungen. 

Deterministisch-fatalistische Konzepte sehen in Technologie den stärksten Treiber: Technologie prägt und dominiert Gesellschaft, technische Entwicklung sind unvermeidbare Konsequenzen und können durch soziale oder menschliche Entscheidungen nur geringfügig beeinflusst werden. Solche Perspektiven können dystopische und utopische Zukunftsszenarien sein, in denen Roboter, KI oder Überwachungstechnologie über die Menschen herrschen. Historisch-deterministische Auffassungen, die materielle Umstände für prägend halten, fallen ebenfalls in diese Kategorie – damit sind auch marxistische Gesellschaftsauffassungen, die die Verteilung materiell-techologischer Infrastrukturen wie Produktionsmittel für prägend halten, deterministisch-fatalistisch. 

Demgegenüber stehen antideterministische Konzepte, die Technologie als Ergebnis sozialer Handlungen verstehen. Technologie ist dabei kein treibender Akteur, sondern Ergebnis gesellschaftlicher Entwicklungen und Entscheidungen, Technologie ist in dieser Perspektive Mittel zum Zweck. Reine und eindeutige Ausprägungen sind selbstverständlich selten. Und so mischen andere Perspektiven Elemente aus beiden Konzepten und sehen Technologie weder als dominierende Instanz noch als bloßes Ergebnis sozialer Entscheidungen, aber als prägenden Akteur, der seinerseits durchaus Entwicklungen und Entscheidungen in Gang setzen kann, das aber nicht selbstständig tut. Berühmtes und pragmatisches Beispiel dafür ist Langdon Winners Perspektive auf Technologie, die Folgen zeitigt – allerdings über Artefakte, die Menschen in sozialen Prozessen geschaffen haben. Technische Verhältnisse können soziale Entwicklungen prägen – Winner illustrierte das mit dem Beispiel der Brücken zwischen New York und Long Island, die lange Zeit zu niedrig waren, um Busverkehr zu erlauben. Nach Long Island kam also nur, wer ein eigenes Auto hatte – und so wurde Long Island, nach Winner, zur begehrten Nobelgegend. 

Das ist eine, so kurz gefasst, hemdsärmelige Perspektive, die soziale Folgen von Technologie transparent macht, aber auch erkennen lässt, dass Technologie kein unabhängiger Akteur ist. Technologie wirkt über Artefakte, die ihrerseits wieder Ergebnis sozialer Entscheidungen sind. 

Eine andere Perspektive auf Technologie, sogar generell auf Artefakte als Akteure, möchte die Trennung von Sozialem und Natürlichem, von Natur und Kultur gleich überspringen. Bruno Latour stellt diese Trennung, auf die seiner Einschätzung die Moderne schlechthin beruht, infrage. Natur und Kultur, Technik und Gesellschaft sind in Handlungen, Prozessen und Artefakten so stark verwoben, dass sie nicht sinnvoll als getrennte Konzepte betrachtet werden können. 

Dinge können ebenso Akteure sein wie Menschen, umgekehrt wirken Menschen in und durch Dinge und beziehen Dinge umgekehrt ihre Wirkungskraft aus Menschen und deren Regeln – da lässt sich keine sinnvolle Trennlinie mehr ziehen. Berühmt sind Latours Analysen zur Soziologie des Türschließers, der nicht nur ein technisches Ding ist, sondern Regeln, Wünsche und Erwartungen verkörpert und damit auch soziale Realitäten schafft, oder zur Soziologie von Bodenschwellen, die aus Beton, Gesetzen und Polizisten gemacht sind.

Abhängig von der Perspektive auf Technologie ist auch die Frage, wo und von wem in technischen Prozessen Entscheidungen getroffen werden, sehr unterschiedlich einzuschätzen. 

In der deterministischen Perspektive sind Entscheidungen weder notwendig noch möglich. Prozesse sind in Gang gesetzt und führen gemäß ihrer Regeln zu Ergebnissen. Diskussionsbedarf gibt es lediglich rund um die Frage, wo und wie technische Prozesse in Gang gesetzt werden. Kann das streng genommen jemals möglich sein? Dürfte es nicht, in einer stringent deterministischen Perspektive, nur einen einzigen technischen Prozess geben, der sich eben immer weiter verzweigt?

In antideterministischen Konzeptionen dagegen sind laufend Entscheidungen notwendig. Nichts geschieht von selbst, Wahlfreiheit ist immer gegeben. Eine Mischform könnte sozialer Determinismus sein, der soziale Abläufe als zwingend, ihre Umgebung aber als kontingent betrachtet – auch dann aber sind Entscheidungen notwendig.

Mischformen wie Winner sie skizziert, lenken die Aufmerksamkeit auf wechselnde Abhängigkeiten zwischen Technik und Sozialem, Kultur und Natur. Netzwerktheorien wie bei Latour lassen Grenzen überhaupt verschwinden. Damit ist auch die Richtung und Gewichtung von Einflüssen schwer feststellbar: Wenn es in dichten Aktor-Netzwerken Entscheidungen gibt – wer trifft diese? Wer wirkt auf wen? Geschehen Entwicklungen als eigendynamische Prozesse oder werden sie von jemand oder etwas vorangetrieben? Welchen Einfluss haben Gestaltung und Konzeption des Netzwerkes, also die Frage, was in welchem Zusammenhang Teil des Netzwerks ist und was nicht?

Verlangt diese Auffassung letztlich einen universellen Einheitsprozess wie die streng deterministische Konzeption, in der Technologie alles eigengesetzlich regelt? Allerdings kann es mehrere Netzwerke geben, deren Relevanz kann situationsabhängig wechseln. Das eröffnet wiederum Spielraum für Entscheidungen.

Was lassen diese Technologiekonzepte über das Entscheidungsproblem in Data Science erkennen?

Funktioniert die Auffassung von besseren und automatisierten Entscheidungen nur in deterministischen Technologiekonzepten? Wenn das so wäre, wozu bräuchten wir dann überhaupt Data Science? Der Technologieprozess nimmt ohnehin seinen Lauf.

Können in antideterministischen Konzepten Entscheidungen unabhängig getroffen werden? Gibt es hier nicht letztlich immer einen weiteren Grund, dessen Relevanz geltend gemacht werden kann?

Inwiefern lassen Netzwerkkonzepte noch ausreichend Eindeutigkeit zu, um Entscheidungen, Endgültigkeit und Urteile über Qualität (also über bessere und schlechtere Entscheidungen) zuzulassen?

Und wie weit sind solche Fragestellungen für praktische Data Science-Prozesse relevant?

Die Vielfalt möglicher Perspektiven kann zur Kenntnis genommen werden  – das wäre bereits ein Verzicht auf den Anspruch, bessere und unabhängige Entscheidungen zu ermöglichen. Denn bei einer gleichberechtigten Vielfalt von Optionen wäre zuallererst eine Entscheidung zwischen Optionen notwendig. Erst nach dieser Entscheidung, die außerhalb des Data Science-Prozesses stattfindet, könnten die Entscheidungen des Data Science-Prozesses angestoßen werden.

Eine andere Option zum Umgang mit dieser Puralität ist die Entwicklung oder Adaption eines Technologiebegriffs, der dieser Situation gerecht wird.Das funktioniert nicht ohne einige Data Science-Szenarien näher zu betrachten, um einen solchen Technologiebegriff dann auch in konkreten Anwendungen beobachten zu können.

Das ist eine andere Geschichte.

Für jetzt muss eine Vermutung ausreichen: Behauptungen über Eindeutigkeit und Entscheidungsqualität von Data Science werden umso leichter und entschlossener aufgestellt, je weiter Fachwissen einerseits und die konkrete Überprüfbarkeit der getroffenen Entscheidungen andererseits entfernt sind. Unsaubere Praxis dagegen wirft Fragen auf, die wieder Entscheidungen notwendig machen.

Norbert Elias, Über den Prozess der Zivilisation

Das Ungewöhnlichste an einem zweibändigen über 1000 Seiten langen Buch über die Geschichte der Zivilisation ist aus der heutigen Perspektive, in einer Zeit von Klima-, Corona-, Energiekrise und Krieg, die Hartnäckigkeit, sich mit derart langen Zeiträumen zu beschäftigen.  Macht dieseer große Horizont heute noch Sinn?, drängt sich als Frage auf. Haben wir noch so viel Zeit für so große Entwürfe?

Das ist für viele vermutlich nachvollziehbar. Es ist ebenso nachvollziehbar, wie es letztlich absurd ist: Die Geschichte, mit der sich Norbert Elias beschäftigt, war immer eine krisenreiche, kriegerische, gewalterfüllte, eine in der, im Gegenteil, in Elias‘ Perspektive, die Dinge sich  zum besseren wenden. Zivilisationen entstehen, Menschen lernen, sich zu kontrollieren, die Welt wird zu einem ruhigeren und weniger gefährlichen Ort. Dieser grundlegende Optimismus steht in deutlichem Gegensatz zu etwa Hobsbawms Pessimismus, für den noch nicht einmal mit dem Zweiten Weltkrieg der Gipfel der Grausamkeit erreicht war.

Affektkontrolle als Prozess

Elias‘ Werk ist auch noch aus anderen Perspektiven anachronistisch. Elias hat eine Idee, eine Ausgangsthese von der zunehmenden Affektkontrolle trägt die ganzen 1000 Seiten. Anders als ähnliche sozialwissenschaftlich-historische Bücher aus der gleichen Zeit (also aus der späten Zwischenkriegszeit) schöpft die Geschichte der Zivilisation dabei nicht aus dem vollen Register von Rechts-, Politik-, Wirtschafts-, Kultur-, Literatur- oder Kunstgeschichte über die Jahrhunderte und in vielen Teilgebieten (wie etwa Beauvoirs „deuxième sexe“) über die Jahrunderte hinweg und in Hinblick auf verschiedenste Themenbereiche. Elias bleibt sehr konzentriert auf zwei Kernthesen. Die eine ist inhaltlicher Natur – die Geschichte beobachtet zunehmende Affektkontrolle –, die andere ist methodischer Natur: Elias betont die Prozesshaftigkeit von Geschichte, immer wieder weist er darauf hin, dass sich Thesen nicht an Momenten oder in statischen Diagnosen argumentieren lassen. Sie sind auf Entwicklungen und Bewegungen angewiesen, den in der Theorie beschriebenen Reinzustand gibt es im Feld nicht.

Die Affektkontrolle scheint Elias selbstverständlich gewesen zu sein – er postuliert sie und liefert viele Quellen. Die Prozessorientierung muss in seinen Augen eine neuartige Methode und Diagnose gewesen sein, er weist immer wieder darauf hin und spricht dabei auch imaginäre KritikerInnen oder KollegInnen an.

Die Prozessorientierung bezieht sich schließlich nicht nur auf historische Ereignisse, auch Identitäten, letztlich der Mensch selbst sind dynamische Prozesse. Elias weicht die Grenze zwischen Innerem und Äußerem in der Analyse von Menschen, Gesellschaften und Einflüssen auf und wird damit zu einem frühen Protagonisten von external und extended mind-Theorien und von Theorien, wie Materialität und Artefaktualität von Wissen und Gedanken einbeziehen. Der Mensch ist also kein homo clausus.

Der unabgegrenzte Mensch

Diese Unabgeschlossenheit mündet für Elias in einer Suche nach Abgeschlossenem, Fixiertem, Absolutem – darin, dass ist eine Nebenlinie des Texts, sieht er das Aufkommen von Nationalismus oder Sozialismus begründet. Beide schaffen Entitäten, die über den einzelnen hinausgehen und dessen Unsicherheit und Unabgeschlossenheit etwas Fixes und Eindeutiges gegenüberstellen.

Elias‘ Diagnose der Unabgegrenztheit des Menschen stammt aus den 30er Jahren. Sowohl soziale als auch nationale Absolutheiten waren in dieser Zeit bereits problematisch geworden.

Spätere Unabgegrenztheits-Diagnosen konzentrierten sich auf andere Schwerpunkte. Latour etwa postulierte Unabgrenztheit als notwendige Position, um Irrtümer der Moderne zu korrigieren: Die Abgrenzung von Natur und Kultur, Umwelt und Gesellschaft, Unberührtem und Technik sei nicht nur nicht haltbar, sondern ein folgenschwerer Irrtum der Moderne, der zur Überschätzung von Technik und Kontrollierbarkeit führt. Die Frage ist nun, ob Latour damit die Diagnose von Elias fünfzig Jahre später (in den 80er Jahren) variiert – oder ob Latours Postulat auf falschen Voraussetzungen beruht, weil die vorausgesetzte strenge Trennung von Natur und Kultur, von Mensch und Umwelt so streng nicht wahr, wenn Elias schon recht hatte. (Latours Postulat funktioniert meines Erachtens generell nur vor einer Technologie- und Kontrollgläubigkeit, wie es sie zuletzt wohl in den 60er Jahren gab. Spätestens seit dem Aufkommen von Umweltbewegungen, Feminismus und anderen Protestbewegungen ist diese Diagnose eigentlich nicht mehr haltbar.)

Zurück zum Inhalt. Affektkontrolle als Antrieb der Zivilisation schreitet für Elias auch deshalb konstant voran, weil Kooperation notwendig wird. Das erinnert an die Supercooperators-These des Evolutionsforschers Martin Nowak, ist allerdings keine ganz so neue These. Polybius skizzierte im zweiten Jahrhundert bC seine Idee eines Verfassungskreislaufs zwischen Demokratisierung und Tyrannei und hielt damals schon fest, dass die Bauwirtschaft im römischen Reich möglicherweise mehr zu gegenseitigem Respekt und Demokratisierung beigetragen habe, als diverse Verfassungsbemühungen – schließlich erfordert das Bauen (vor allem in entfernten Reichsteilen) klare und gut geregelte Kooperation über große Distanzen und lange Zeiträume hinweg.

Von höfischen Regeln zum anonymen “Es gehört sich so”

Elias setzt seine Beobachtungen zur Zivilisierung mit 16. Jahrhundert mit den Erziehungsempfehlungen des Erasmus von Rotterdam an. Diese ganz pragmatischen Richtlinien (nicht öffentlich rülpsen und furzen, Taschentücher zum Schneuzen verwenden) verwenden den Begriff der Zivilisation und setzen ihn großteils mit Benehmen und eben mit Affektkontrolle gleich.

Erasmus‘ Empfehlungen verbreiteten sich schnell; Elias analysiert, wie sich zahlreiche fast wortgleiche Richtlinien in unterschiedlichen Schriften unterschiedlicher Autoren fanden. Im Lauf der Zeit veränderte sich dabei die Ausrichtung der Empfehlungen. Ursprünglich waren es Regeln für junge Aristokraten, dann wurden es Empfehlungen für alle, die bei Hof reüssieren wollten. Mit dieser Verbreiterung ging eine weitere Anonymisierung des Absenders der Empfehlungen einher. Aus „es ist höfisch“ wurde ein anonymes und abstraktes „man macht das so“. Je anonymer der Absender ist, desto schwerer ist es , sich von dessen Empfehlungen oder ihm selbst abzugrenzen. Die Regeln gelten. Wer ihnen nicht gerecht wird, gehört nicht nur nicht dazu, sondern wird zum allgemeinen Außenseiter, der nicht Teil einer nur unscharf bestimmten Gesellschaft ist.

Arbeit als Abgrenzungsstrategie

Affektkontrolle als Konditionierung und Fassonierung schafft bestimmte Zielvorstellungen und regt zu Verhaltensweisen an. Elias erklärt so auch das Entstehen von bürgerlicher Arbeit: Während der Adel nicht arbeitete, gehörte es zu den konstituierenden Regeln der bürgerlichen Gesellschaft, sich durch Arbeit – auch wenn keine materielle Notwendigkeit dazu bestand – vom Adel abzugrenzen. Mit Arbeit gingen weitere Regelungen und Einschränkungen wie etwa ein strukturierter Tagesablauf einher. Die kurzen Passagen erinnern auch an Edward Thompsons „The Making of the Englisch Working Class“ – allerdings interpretiert Thompson die Entstehung von Arbeit und geregelten Tagesabläufen als disziplinierende Zwangsmaßnahme gegenüber einer armen Landbevölkerung, die für Arbeitseinsätze gebraucht wurde.

Im Verhältnis von bürgerlichen und Adeligen in Elias Interpretation führen klarere Regeln (etwa auch in der Belehnung von Grundstücken, in der Erb- und Machtfolge, in der Trennung von Adel und Bürgerlichen) zu einer Verfestigung von Besitzverhältnissen, die soziale Mobilität grundsätzlich reduzierte – damit aber umgekehrt erst auch mehr Mobilität notwendig machte. Wanderbewegungen und Eroberungszüge, etwa auch die Kreuzzüge, schafften neue Horizonte und vergrößerten zu verteilende Besitztümer. Elias sieht das als Individualisierungsschub, der erneut strengere und klarere Regeln notwendig machte.

Gehenkte am Bildrand

Elias analysiert eine Fülle von Quellen von Schriften über Normen bis zu Bildern, um seine Thesen zu untermauern. Details sind manchmal ermüdend, manchmal bemerkenswert: Auf Darstellungen ritterlicher geprägter Landschaftsszenen etwa interpretiert Elias beiläufig im Hintergrund oder am Bildrand abgebildete Gehenkte als Indiz dafür, dass die Macht des Ritters unumschränkt, sein lokales Gewaltmonopol aber auch keine große Sache war. Es war selbstverständlich. Hätte man es für relevant oder bemerkenswert gehalten, dann wären die Gehenkten zentraler im Bild gewesen. Auch bemerkenswert ist Elias Optimismus, der auch nach dem Ersten Weltkrieg und in den 30er Jahren noch von Fortschritt und dauerhafter sozialer Entwicklung hin zum besseren überzeugt ist. Es ist sogar davon überzeugt, dass der Prozess der Zivilisierung weiter voranschreiten wird; der nächste relevante Meilenstein besteht für ihn in der laufenden Ausdehnung des Geltungsbereichs einzelner Zivilisierungsvorschriften. Galten Regeln erst nur für kleine höfische Gesellschaften, so vergrößerte sich deren Geltungsbereich mit fortschreitender politischer Zentralisierung. Mit der Entstehung bürgerlicher Gesellschaften vergrößerte sich auch der Kreis der zivilisierbaren Subjekte. Eine nächste Stufe der Zivilisation wäre für Elias dann erreicht, wenn Zivilisationsregeln auch für Beziehungen von Staaten untereinander gelten … Davon entfernen wir uns zur Zeit wieder ein Stück.

Wie kann man Elias heute noch lesen? Ein Punkt ist die Betrachtung langer Zeiträume, aus denen auch in die Zukunft projiziert wird. Das wirkt in einer Zeit dramatischer Umbrüche anachronistisch, allerdings waren auch die 30er Jahre nicht gerade von Stabilität geprägt.

Sind wir heute zu individuell für Elias’ Zivilisation?

Andere Aspekte, sie sich möglicherweise gerade verändern, sind die Abstraktion und Anonymisierung der Geltungsquellen von Regeln, die dadurch immer universeller werden. Heute werden Regeln wieder individueller und konkreter – sie sind auf Individuen und Gruppen bezogen, sie verändern sich abhängig von den gerade betroffenen oder aktiven Gruppen. Sie werden auch schwerer verständlich, es gehört geradezu zu ihrem Wesen, sich nur Eingeweihten vollends zu erschließen. Ist das auch ein weiteres Fortschreiten von Zivilisation, indem komplexe individualisierte Regeln Kulturen und Gesellschaften schaffen, die weit von dem entfernt sind, was andere als natürlich empfinden, die „natürlich“ im Gegenteil sogar zu einem Kampfbegriff stilisieren, der allenfalls noch von jenen verwendet wird, die keine Ahnung haben.

Damit ändert sich auch die Idee vom unabgeschlossenen oder unabgegrenzten Menschen. Unabgeschlossen und flexibel bleibt der Mensch zwar weiterhin – aber manche (besonders Zivilisierte?) wird Abgrenzung umso relevanter. Abgrenzung als Erläuterung von Unterschieden schafft grundsätzlich Beziehungen, die Betonung von Unterschieden nimmt Bezug und erklärt dadurch. Abgrenzung als Kommunikationsverweigerung dagegen kappt diese Verbindungen.

Hanna Arendt beschrieb mit diesen gekappten Verbindungen ein Konzept des Bösen. Und auch in Elias‘ Argumentation bewegt sich eine auf Abgrenzung, Gegensätze und Nichtverhandelbarkeit pochende Gesellschaft weg von Zivilisation.

Unbeantwortet bleibt die Frage, ob das besser oder schlechter ist. Und für wen.

Technophilosophien

Philosophie und Technik, Cyberphilosophie, Digitalisierung und Philosophie – vor zwanzig Jahren herrschte hier noch großes Fremdeln. Ansätze zu Philosophie und moderner Technik waren Nischenprojekte, die Cybervisionären erdrückt wurden. Jeder kannte Dystopien, böswillige Roboter oder das Wort Singularität – aber kaum jemand wusste, was es bedeutet. So wie kaum jemand wusste, dass der Film “I, Robot” auf einem Buch des Science Fiction-Autors Isac Asimow beruht, der in anderen seiner Erzählungen schon früh die sogenannten Roboter-Gesetze entwickelt hat. Roboter, kurz zusammengefasst, dürfen Menschen nicht gefährden oder verletzen – es sei denn, es wäre zum Wohl der gesamten Menschheit erforderlich.

Diese Perspektive auf Technologie als Bedrohung, die man in den Griff bekommen muss, dieser Frankenstein-Komplex, der außer Kontrolle geratene Monster sieht, hat sich für lange Zeit durchgesetzt.

Für die vergangenen zehn bis fünfzehn Jahre schien es, als könnten neue positive Technologie-Visionen entstehen. Schnelle und direkte Kommunikation versprach Transparenz und Demokratisierung, Produktivitätssteigerungen bedeuteten Arbeitserleichterungen, Medizin versprach ein technisiertes und verlängertes Leben, Data Science versprach bessere Entscheidungen, Propheten neuer digitaler Zeitalter stellten neue Symbiosen von Mensch und Maschine in Aussicht, die dank dieser einzigartigen Kombination von Skills alles bewältigen konnten.

Diese von vielen immer schon mit Zweifel beäugte Optimismus bröckelt. Transparenz und Demokratisierung steht Überwachung gegenüber, Produktivität bringt Jobverluste mit sich, alle Daten und Algorithmen der Welt haben in der Praxis noch wenig zu praktischen Lösungen drängender Probleme beigetragen – andere Propheten sehen daher die Zukunft nicht in der Kontrolle digitalisierter Cyborgs, sie sehen gegen alle Mittel resistente Mikroben als die Nutznießer multipler Krisen, die unsere aktuelle Zivilisation verändern. Noch wichtiger als negative Folgen von Technologie ist das wachsende Bewusstsein, dass auch (und gerade) Technologie entgegen aller Hoffnungen nicht alle Probleme lösen kann. Nach Angst und Begeisterung wächst jetzt also Enttäuschung.

Was soll Technikphilosophie unter diesen Voraussetzungen leisten? Vielfältige Perspektiven auf Technologie zwischen technologischem Determinismus (Technik bestimmt Mensch und Gesellschaft) bis zu sozialem Konstruktivismus (soziale Einflüsse bestimmen das Entstehen, das Verständnis und die Funktionsweise von Technologien) bieten eine Fülle von Erkläransätzen. Technik kann aus allen mögliche Perspektiven analysiert, kritisiert oder als Erlöser stilisiert werden. Technik kann Problem und Problemlöser sein. Technik kann Erklärhilfe und zu erklärendes Phänomen sein.

Diese Flexibilität macht sich in zeitgenössischen Ansätzen zu Technikphilosophie bemerkbar. Seriöse Ansätze haben die Zeit der Visionen und Prophezeiungen hinter sich gelassen, zentrale Frage ist eher, welche technikphilosophischen Ansätze zur Klärung konkreter Themen herangezogen werden können.

Solche Themen können ihrerseits wiederum eher visionär sein (“Wird Künstliche Intelligenz die Menschheit unterdrücken?”) oder spezifische Ausprägungen sein (“Wer verantwortet die Erkenntnisse von unsupervised machine learning?”). Aus einzelnen technophilosophischen Perspektiven lassen sich viele stringente Antworten formulieren, die Argumente aus anderen technophilosophischen Perspektiven sind aber meist zu gut, um diese Argumente einfach gelten zu lassen.

Man ist sich einig, dass Technik, technische Artefakte, soziotechnische Systeme und all die anderen Konzepte hybrid, dual oder sonstwie mehrschichtig sind. Es sind also immer unterschiedliche Auffassungen möglich, keine Erklärung ist endgültig.

Gibt sich Technikphilosophie damit zufrieden?

Viele Grundlagenwerke, seien es umfassende Lehrbücher wie jene von Mark Coeckhelberg, Einführungen für Ingenieure (Vermaas et al) oder themenspezifische Monographien wie etwa Rob Kitchins Analyse zu Data Science stellen deshalb auch historische Bezüge her, zeichnen relevante Perspektiven aus der Vergangenheit nach, und skizzieren dann zukunftsorientierte Forschungspläne, ohne dabei weiter konkret zu werden. Die Aufrisse künftiger Programme für Technikphilosophien sind Skizzen, die viele Fragen aufwerfen. Nicht immer ganz klar ist, ob und wie weit es auch Antworten geben soll oder kann.

Ein gängiges und in verschiedensten Komplexitätsstufen diskutiertes Beispiel sind Daten und Data Science. Hilft Data Science zu besseren Entscheidungen? Ist unsupervised machine learning unabhängig vom Menschen? Sind Daten in irgendeiner Form besondere und priviliegierte Erkenntnisobjekte? Viele Analysen dieses Fragenkomplexes konzentrieren sich auf unterschiedliche Formen von Bias: Daten sind nicht neutral, Algorithmen sind nicht neutral, Fragestellungen und Interpretationen sind nicht neutral.

Auf diese Feststellungen können sich nahezu alle technkiphilosophischen Strömungen einigen. Relevante Fragestellungen gehen allerdings erst von dieser Einigung aus: Können wir Bias analysieren oder gar eliminieren, ohne dabei in einen endlosen Bias-Regress zu verfallen? Kaum ist ein Bias-Motiv entlarvt, lässt sich entlarven, welcher Bias hinter dieser Entlarvung steckt. Ist Bias kein Problem, weil er ohnehin praktisch unvermeidliches Element einer Außenwelt ist, die auch in deren Abstraktion in Daten erhalten bleiben soll? Ist es ausreichend, wenn das Bias– Problem bewusst ist und gegenebenfalls zur Relativierung von Ergebnissen herangezogen wird?

Die praktischen Folgen dieser Überlegungen sind weitreichend. Als theoretisches philosophisches Konzept sind diese Ideen allerdings banal. Auch der mögliche Umgang mit potenziellen Konsequenzen ist grundsätzlich banal und bedürfte keiner tiefergehenden philosophischen Analyse.

Aber ist das alles, was Technikphilosophie leisten kann?

Ich habe zwei Vermutungen dazu.

Die erste: In vielen Konzepten zur Technikphilosophie stehen nach wie vor entweder Heidegger, Wittgenstein oder Dewey im Hintergrund. Heidegger schaffte es, trotz seiner abstrakten und heute manchmal esoterisch anmutenden Denkweise, die Trennung von Natur und Technik, von Vorhandenem und Zuhandenem, auf den Punkt zu bringen. Technikphilosophie mit Heidegger lässt sich noch heute auf viele Fragestellungen anwenden. Aber es ist schwer, mit ihr über diese Trennung hinauszugehen.

Wittgenstein ist für die Analyse von Sprachspielen bekannt – Spiele haben Regeln, Regeln sind Gesetzmäßigkeiten, ähnlich wie wir sie in technischen Abläufen beobachten können. Außerdem ist Wittgensteins Werk vielschichtig genug, um für praktisch alles herangezogen werden zu können.

Dewey steht in der Tradition des Pragmatismus, der Nützlichkeit und Effektivität als primäre Kriterien für alles, auch für Wahrheitsfragen, ansieht. Das ist sehr nah an Vorstellungen von technologischer Rationalität, für die Funktionieren (nicht etwa gut/böse, sinnvoll/sinnlos, wertvoll/wertlos) das Leitmotiv ist.

Alle drei haben die Anfänge von Technik und Technikphilosophie miterlebt, Kriege, den Umbruch von Staatsformen miterlebt. Dewey wurde fast hundert Jahre alt, lehrte schon seit Mitte der 1880er Jahre und leitete noch in den 1930er Jahren eine zivile Kommission, die die Vorwürfe des stalinistischen Schauprozesses gegen Trotzki untersuchte.

Es könnte nützlich sein, zu den Anfängen der pragmatischen instrumentalistischen Theorien zurückzugehen und von dort aus mit den heute aktuellen Anforderungen neue Ansätze zu entwickeln. Pragmatismus (“Wahr ist, was nützlich ist”) lässt sich leicht als Gedankenspiel abtun, das wohl nicht ganz ernst gemeint sein kann. Dagegen lässt sich einwenden: Vielleicht erfasst diese ganz kurze und vor allem auf die Wahrheitsfrage konzentrierte Version nicht alle Facetten einer so komplexen Fragestellung – aber lässt sie sich widerlegen? William James, Charles Peirce und eben auch John Dewey haben mit ihren Kritikern hier eine Reihe von Verfeinerungen und Details entwickelt. Gerade im Bereich der Technologie, wo keine metaphysischen Grenzen überschritten werden müssen, wo Abläufe und deren Auswirkungen verstanden werden möchten, kann so en grundsätzlich einfaches Konzept nützlich sein. Natürlich wird es nicht ausreichen, ganz auf Transzendenz zu verzichten – jetzt lässt sich ja schon die einfache Frage der Nützlichkeit nicht beantworten, wenn nicht abgeklärt wird, was wem nützlich sein soll, wer darüber entscheidet und in welchem Kontext was überhaupt als nützlich gelten kann. Pragmatismus steht immer auch in direkter Verbindung zu Agency, also zu Fragen der Handlungsfähigkeit und damit auch Unabhängigkeit.

Daraus lässt sich, in Verbindung mit konkreteren Fragestellungen wie dem Bias-Problem in Data Science, ein konkreteres Forschungsprogramm stricken. Ich arbeite daran.

Die zweite Vermutung ist etwas pessimistischer.

Vielleicht liegen wir einfach grundsätzlich falsch. So falsch, dass sich das nicht mal sagen lässt. Vielleicht erfordern technologische Veränderungen, die schneller und umfassender werden, neue Paradigmen, die ganz anders sind als das, was wir für technisch-wissemnschaftliche Rationalität halten. Frühere Philosophengenerationen waren mystischen und religiösen Denkmustern verhaftet. Andere hielten Elemente- oder Säftelehren für nüchterne state of the art-Wissenschaft.

Und vielleicht sind unsere aktuellen Versuche, Technik, Digitalisierung, Technologie konzeptionell in den Griff zu bekommen, in Zukunft ebenso unverständlich und kaum noch als Logik rekonstruierbar; vielleicht ist später, bei fortlaufend schneller Entwicklung, völlig unverständlich, was mit dem Begriff von Technik gemeint gewesen sein soll und wovon, von welcher nichttechnischen, sozialen, natürlichen Welt sich dieses merkwürdige Konzept abgegrenzt haben soll.

Das kann natürlich auch passieren. Ich bin mir aber noch nicht sicher, wie sich diese Idee für aktuelle konkrete Forschung operationalisieren lässt …

Régis Jauffret, Microfictions 2022

Ich werde nicht ganz schlau daraus. Ein Panorama unserer Zeit, konkret dieses Jahres, als 1000-Seiten-Roman, blitzschnell geschrieben – das klang spannend. Jauffret löst das als Sammlung von über 500 Ultrakurzgeschichten mit jeweils maximal 2 Seiten.

Anspielungen auf Politik, Geschichte und Corona zeigen, dass die Texte wirklich ganz aktuelle Notizen sein müssen. Und jeder einzelne kurze Text erzählt sein eigenes Drama, jede Story nimmt eine üble Wendung und ein schlechtes Ende. Manchmal geschieht das in subtiler Bösartigkeit, manchmal mit einem offensiven Leidenswillen, der fast an Klaus Cornfields Kranke Comics heranreicht.

Manchmal ist das faszinierend, bedrückend, manchmal ist man als Leser schon nach einer Seite so tief in einer Story, dass man meint, schon 200 Seiten gelesen zu haben. Manchmal plätschern die zahlreichen, dann bemüht wirkenden Schicksale aber auch an einem teilnahmslosen Leser vorbei, man blättert weiter und hat schon vergessen, bevor man überhaupt verstanden hat.

Eine kurze Kulturgeschichte der Meinung

Die Meinung hat einen schlechten Ruf. Meinung, das ist etwas für Schwurbler, Coronaleugner und Nazis. Wer etwas auf sich hält und der Realität ins Auge blickt, der hat Fakten, oder noch besser: Daten. Aber wie unterscheidet sich die Meinung, der richtigen Realität anhand der realen Fakten ins Auge zu sehen, von der falschen und als beliebig kritisierten Meinung? Wie kommen wir zur Meinung, keine Meinung sondern die Wahrheit zu haben?

Der Schriftsteller Robert Menasse hat sich unlängst in Rage geschrieben, als eine Politikerin anregte, über die Marktdominanz des ORF im Digitalen nachzudenken. Der Inhalt seines Wutposts ist wenig relevant, bemerkenswert ist ein kontextlos eingestreutes Hegel-Zitat über Meinungen: “Eine Meinung ist mein, und kann ich genauso gut für mich behalten. (sic)”. Im übrigen ist das eher ein Menasse- als ein Hegel-Zitat; bei Hegel überliefert ist: “Eine Meinung ist mein, sie [ist] nicht ein in sich allgemeiner, and und für sich seiender Gedanke.” (aus der Einleitung zu den Vorlesungen über die Geschichte der Philosophie). Bevor ich zum eigentlichen Thema kommen kann, ist auch das noch interpretationsbedürftig. Möchte der Herr andeuten, dass es im Journalismus keine Meinungen geben darf? Wovon unterscheidet sich die Meinung, dass etwas wahr ist, von der Tatsache, dass etwas wahr ist? Oder von der Meinung, dass es eine Tatsache ist, dass etwas wahr ist? Sollen PolitikerInnen keine Meinung äußern dürfen? Sollen PolitikerInnen und Medienmenschen nicht nur keine Meinung zu Fakten haben, sondern diese Meinung auch als Fakten verkaufen müssen?

Mit Weltgeist und dem Absoluten gegen die Meinung

Wie dem auch sei, ausgerechnet Hegel als Säulenheiligen für Meinungsfragen anzurufen, ist ein gewagtes Unterfangen. Hegel ist Idealist und Absolutist. Als großer Systematiker ist er auf Zusammenhänge aus, für alles gibt es  übergeordnete Ziele. Der Weltgeist wirkt und setzt sich durch und treibt die Entwicklung voran. Was nicht zum System des Weltgeists passt, löst einen Widerspruch aus, der in einer dialektischen Bewegung bearbeitet wird. Entscheidend für den Widerspruch ist dabei das Verhältnis des Widersprüchlichen zum System. Etwas, das dem System widerspricht, kann nicht sein, weil es eben nicht zum System passt – und das System hat immer recht.

Das ist eine reichlich autoritäre Perspektive. Aus dieser ist es natürlich ein leichtes, Meinungen zu verachten. Das System gibt vor, was richtig und falsch ist, das System hat keine Meinungen. Meinungen, die dem System widersprechen (und alle Meinungen widersprechen dem System, denn was zum System passt, ist keine Meinung, sondern Notwendigkeit) sind demnach irrelevant: Sie können nicht gültig sein, weil das System es nicht erlaubt. Insofern kann man Hegel auch die Meinung zuschreiben, man könne Meinungen getrost für sich behalten.

Hegel hatte es  nicht leicht, seine Meinung durchzusetzen, und soll sich, neueren Biographien zufolge, mit Wein getröstet haben. Heute reiten wir mit dieser Ansicht in den Kampf in Telegram-Channels oder WhatsApp-Gruppen, in denen mit ähnlicher Überzeugung vor Reptiloiden, Transatlantikern und Bilderbergern gewarnt wird.

War Hegel also ein Schwurbler? Sind Weltgeist, Idealismus und Dialektik auch nur Meinungen, die man für sich behalten oder gegen Reptiloiden-Sagas austauschen kann?

Hegel wird heute häufig durch die Brille von Marx gelesen. Dazu muss man kein politischer Marxist sein, Marx war einfach der pragmatischere Denker, der greifbarere Anhaltspunkte lieferte. Was bei Hegel vielfältig und zugleich nirgendwo anwendbare sphärische Herr-Knecht-Verhältnisse waren, wurde bei Marx zu praktischen ökonomischen Machtverhältnissen zwischen Kapitalist und Arbeiter. Plötzlich wurde die Sache vorstellbar.

Marx legte Fakten auf den Tisch (nämlich die Produktionsverhältnisse) zu denen man eine (Achtung!) Meinung haben konnte. Jetzt war auch Marx eher dogmatisch veranlagt und hätte es nicht gern gesehen, wenn sein Konzept als Meinung abgetan würde, aber das ist politischen Aktivisten ja auch nicht zu verdenken. Meinungen sind schließlich klarer, deutlicher und prägnanter als Fakten, die oftmals unordentlich sind.

Meinungen sind deutlicher als Fakten

Diese Eigenschaft ist es, die dem Konzept Meinung heute häufig zum Verhängnis wird. Meinung ist ein Synonym für Lüge und Betrug geworden, etwas, das man sich zurechtlegt, um sich über die Realität hinwegzusetzen, etwas Irrelevantes, dem mit Fakten begegnet werden soll, etwas Verwerfliches, das sich nicht mit Wissenschaft verträgt.

Das stürzt uns in ein erkenntnis- und wahrheitstheoretisches Dilemma, denn wodurch unterscheiden sich die Meinung oder der Gedanke, dass etwas eine Tatsache ist, von der Tatsache, dass etwas eine Tatsache ist? Diese Diskussion ist seit Frege noch offen.

Meinungen sagen etwas, Fakten nicht immer

Meinungen haben aber, abgesehen von diesem Dilemma, einen großen Vorteil: Sie können diskutiert werden. Meinungen binden die Meinenden mit ein und bringen einen Bezugsrahmen mit, der es erlaubt, Perspektiven und Tatsachen zu diskutieren – ohne einen Absolutheitsanspruch stellen zu müssen, der nicht nur Einwände unmöglich, sondern auch jeder Erklärung, jede Chance, zu verstehen, illusorisch macht.

Auf dieser Erkenntnis, das wird manche überraschen, beruhen die Anfänge der modernen Wissenschaft.

Wir sind jetzt im England des 17. Jahrhunderts. In den Bürgerkriegsnachwehen wird Thomas Hobbes‘ Leviathan populär, die Royal Society nimmt erste Formen an. Hobbes war nicht nur politischer Autor, sondern vorrangig Mathematiker, Logiker und überzeugter Rationalist. Logik und göttliche Vorsehung gaben Gesetzmäßigkeiten vor, aus denen ließen sich Regeln ableiten, diese bestimmten die Fakten. Meinungen waren dabei ebenso überflüssig wie konkrete Beispiele; es zählte nur die Überzeugung. Eine dieser logisch aus Gesetzmäßigkeiten abgeleiteten Überzeugungen war es, dass es keine Leere geben könne. Die Natur fürchtet das Leere, deshalb entsteht etwas – und dort, wo nicht einmal mehr Luft ist, ist Äther.

Auf der anderen Seite experimentierte Robert Boyle vor den kritischen Augen der Mitglieder der Royal Society mit dem Vakuum. Es gelang ihm, in einem geschlossenen Gefäß einen Luftleeren Raum zu schaffen – Kleintiere erstickten (ok, Äther kann man nicht atmen), Federn lagen still (sie hätten sich im Zug des einziehende Äthers bewegen müssen), Quecksilbersäulen nahmen den Raum ein, der von Äther hätte ausgefüllt sein müssen (wie verschwand der Äther vor dem Quecksilber?), und wie und woher hätte Äther in den leeren Raum gelangen sollen, wenn er nicht vorher dort war, wo eigentlich Luft war …? Das sorgte für Diskussionsstoff. Zur Diskussion standen die Meinungen der Gentlemen der Royal Society, deren Anwesenheit und Zeugenschaft Experimente erst gültig machte.

Dem ging ein mehrstufiger Prozess voran, den jedes Experiment zu durchlaufen hatte. Die erste Phase entspricht dem, was wir heute Forschung nennen würden. Neue Abläufe und Anordnungen sollten gesuchte Ergebnisse bringen. Die zweite Phase bestand in der Konsolidierung. Das Experiment wurde wiederholt und abgesichert, um reproduzierbare Ergebnisse zu erreichen. Erst in der dritten Phase gelangte das Experiment an die Öffentlichkeit: Es wurde den Mitgliedern der Royal Society vorgeführt. Diese befanden darüber, ob hier etwas neues zu sehen war, was hier zu sehen war und wie die Ergebnisse einzuschätzen waren.

Experimente beschäftigten sich also durchaus mit Fakten – entscheidend war aber deren Interpretation. Interpretationen stützten sich auf die Meinungen von Royal Society-Mitgliedern. Diese sollten gebildete, wohlerzogene, vor allem aber ökonomisch unabhängige Gentlemen sein – um sicherzustellen, dass sie keinen politischen oder finanziellen Interessen Raum gaben. Das kann als reichlich elitäres System betrachtet werden, Historiker und Soziologen sehen darin aber auch das Bestreben, nach dem Bürgerkrieg nicht gleich wieder Krieg führen zu müssen. Apodiktische Beweisführungen, die keinen Zweifel zuließen, richtig und falsch eng mit gut und böse verknüpften und Irrtum mit Charakter- oder Persönlichkeitsmängeln gleichsetzten, rückten in den Hintergrund. Man konnte streiten, ohne Feindschaften auf Leben und Tod zu begründen, ohne einander jeglichen Sinn für Realität und Ordnung absprechen zu müssen.

Dementsprechend vorsichtig sind viele von Boyles Erkenntnissen formuliert, und viele aus diesen Konstellationen entstandene Regeln wirken auch heute noch in den Standards für wissenschaftliches Arbeiten nach: Wir geben Rahmenbedingungen an, unter denen Beobachtungen gemacht wurden. Wir weisen Schlüsse als solche aus – und behaupten sie nicht als Gegebenheiten. Wir unterscheiden zwischen Möglichkeiten und Notwendigkeiten. Wir trennen Kausalität von Korrelation. Wir sind unterschiedlichen Interpretationen gegenüber offen. Wir legen an unsere eigenen Positionen die gleichen Maßstäbe an wie an uns widersprechende Positionen. Und neuerdings müssen wir immer häufiger die Frage stellen, ob Daten ihrem Namen gerecht werden, also tatsächlich schlicht Gegebenes sind, oder ob sie nicht vielmehr ebenfalls gemacht oder sonst wie durch die Relation mit ihrer Umgebung verändert wurden.

Der Zugang von Boyle und der Royal Society hat sich durchgesetzt. Ist Wissenschaft also nichts als kenntlich gemachte Meinung? – Jedenfalls eher, als das Bewusstsein, umittelbar und unabdingbar recht zu haben. Wichtiger ist allerdings das Bewusstsein, stets vor einem ganzen System von Regeln zu argumentieren, Beweise in einem dichten Netz von Abhängigkeiten zu entfalten, und sich vorsichtig entlang von reproduzierbaren Fakten weiterzuarbeiten.

Man kann durchaus irgendwann aufhören, Wissen als bloße Interpretation und Meinung zu behandeln und davon ausgehen, dass der Inhalt der Meinung einer Tatsache entspricht. Wir wissen allerdings (und das ist eine recht gut abgesicherte Tatsache), dass sich dieser Punkt im Lauf der Geschichte häufig verschiebt. Bei wissenschaftlichen Tatsachen vollziehen sich diese Verschiebungen oft längerfristig, bei Tatsachen die Gegenstand journalistischer Berichterstattung sind, kann das auch in kürzeren Zeithorizonten passieren. Meinungen werden wir jedenfalls nie ganz los; beim Übergang von der Meinung zur Tatsache (und zurück) kommt man allerdings leicht vom Weg ab. Wie beim Spazierengehen kommt man allerdings noch leichter vom Weg ab, wenn man nicht auf seine Umgebung achtet oder überhaupt der Meinung (!) ist, es sei unmöglich, sich zu verirren.

Deshalb ist es auch ein wenig lächerlich, mit Hegel gegen Meinungen argumentieren zu wollen.

Bruno Latour, Wir sind nie modern gewesen

Latours Text ist als Essay über die Rolle der Dinge bekannt geworden. Rückblickend – mit der Entwicklung der Actor Network Theory, die menschliche Akteure und nicht menschliche Aktanten und deren Netzwerke als Aktivposten der Soziologie begreift, ist “Wir sind nie modern gewesen” einer der einflussreichsten Texte für technophilosophische oder -soziologische Ansätze der letzten dreißig Jahre geworden.

Latours blumige Sprache braucht aber immer auch noch eine andere, ergänzenden Perspektive – die Essenz dessen, was als Latours Konzept in Lehrbücher eingeht, lässt sich aus seinen eigenen Texten nur mühsam herausdestillieren. Manchmal lenkt die Sprache ab, noch öfter ist es aber die Schwerpunktsetzung seiner Texte.

In diesem Essay schreibt Latour ganz in der französischen Tradition der Anthropologie von Lévi-Strauss und der Strukturalisten. Merkwürdig sind daran nicht die in den 80er Jahren vielleicht noch auffälligen strukturalistischen Elemente, heute sind es die Haltung und das Selbstverständnis der Anthropologie, die in die Jahre gekommen sind. Eine Anthropologie, die in Riten und Gebräuchen indigener Völker Anderes zu entdecken vermeint, die eine Technokratie der Naturbeherrschung einer Mystik gegenüberstellt, die neue Argumentations- und Wissensformen zu entdecken vermeint, ist auf eine Technologiegläubigkeit, die Atomkraftwerke und Verbrennungsmotoren als Hoffnungsträger der Zukunft hervorgebracht hat, angewiesen. Hinter der Neugier und der Hoffnung, das Andere im Urwald zu entdecken, steckt das Selbstverständnis, Natur und Gesellschaft technisch beherrschen zu können und stets in einer eindeutigen Logik agieren zu können.

Heute sind diese Einstellungen Nachwehen der 60er Jahre. Wir sind Vermischung weit mehr gewohnt, es ist im Gegenteil geradezu anrüchig, zu klare Trennlinien ziehen oder gar zwischen verschiedenen Gesellschafts-, Diskurs- und Wissensformen urteilen zu wollen. Latour dagegen verwendet in den 80er Jahren noch viel Zeit und Worte darauf, gegen das Selbstbewusstsein der Kontrollierbarkeit von allem und jedem anzuschreiben.

In seiner wissenschaftshistorischen Kritik kann Latour schneller zur Sache kommen. Was bleibt: In der Moderne haben wir viele Kritikformen gefunden, die Brüche und Risse dort bloßstellen, wo Selbstverständlichkeiten vermutet wurden. Die Ursache waren unterschiedlich – erst wurden sie für Irrtümer gehalten, dann für diverse Störfaktoren, später für soziale Einflüsse. Latour geht ausführlich auf David Bloors Strong Programme für eine Wissenssoziologie ein, um es zu verwerfen – denn in Latours Perspektive bleib die Idee von Einflüssen auf Objekte immer noch dem veralteten Dualismus von Natur und Kultur verhaftet. Stattdessen setzt Latour eben auf ein viel breiteres Repertoire handelnder Entitäten, zu denen eben auch nichtmenschliche Aktanten gehören, und auf die Verbindungen und Netzwerke zwischen diesen als eigentlich relevante Triebkräfte. – “Wirklich wie die Natur, erzählt wie der Diskurs, kollektiv wie die Gesellschaft, existenziell wie das Sein, so sind die Quasi-Objekte”, die in Latours Theorie alls traditionellen klaren Trennungen verwischen.

Mehr Bürokratie!

Weg mit den Bremsern, der Trägheit, den Paragraphen und Formularen – diesen Ruf hören wir tausendfach von Innovatoren, Unternehmern, Freigeistern, Politikern, Gründern, Versicherungsnehmern oder Bankkunden, ja sogar von Beamten. Jeder auch noch so kleine Berührungspunkt mit Bürokratie scheint diesen Reflex auszulösen, es ist ein Minimum, ein kleinster Rückzugsort gemeinsamen Verständnisses, etwas, das überall und von allen selbstverständlich abgenickt wird – damit man weitermachen kann wie bisher.

Ich habe Einwände. 

Ein erste Einwand ist: Wenn viele Leute seit langem einig sind, wie ein Problem zu lösen sei, wenn sie einander dessen wieder und wieder  versichern, dann sind Zweifel angebracht, ob diese Lösung denn eine Lösung ist. Das Problem zeigt sich offenbar unbeeindruckt davon. schlimmer noch: Möglicherweise trägt diese Lösung dazu bei, das Problem zu reproduzieren. Redundanz ist ein starker Überlebensfaktor.

Ein zweiter Einwand könnte sich mit den Vorzügen von Bürokratie befassen: Auch Freigeister wie Hanna Arendt sahen in Bürokratie einen Meilenstein der Demokratie, Bürokratie als Herrschaft des Niemand, der über Vorschriften und hinter Formularbergen regiert, schützt vor Willkür. Bürokratie liefet Antworten auf Fragen, die nicht gestellt wurden und schafft Klarheit.

Das befreit.

Ich möchte aber aus eine ganz anderen Perspektive und mit anderen Argumenten die beliebte Verdammung der Bürokratie infrage stellen. Denn was täten all jene Freigeister, die bürokratische Hürden beklagen, die Stolpersteine in ihrem Weg sehen,  wenn es diese Bremsklötze und Hindernisse nicht gäbe? Sie hätten keine Zeit mehr für ihre Klagen, keinen Leerlauf in den Leerräumen zwischen Regeln und Paragraphen – denn sie müssten in einem fort all das umsetzen, woran allein die Bürokratie sie hindert. Sie fassen einen Plan – sie schreiten zur Tat. Eine schnelle Geschäftsidee – schon umgesetzt. Optimierungspotenzial erkannt und gleich genutzt.

Über zu viel Bürokratie klagen, eine Ende der Bürokratie fordern und das goldene Zeitalter der Postbürokratie verheißen – das macht nur für jene Sinn, die unter dem Schutzmantel der Bürokratie Freiräume finden. Bürokratie ist das notwendige Sicherheitsnetz, das eigentliche Sprungbrett für InnovatorInnen, die neue Pläne am laufenden Band ankündigen – und sich darauf verlassen können, dass irgendein Controller-Bürokrat Zweifel anmelden und nach bedächtigerer Vorgangsweise rufen wird. Alle Entscheidungen fällen sich leichter, wenn gewiss ist, dass sie ohnehin von Bedenkenträgergremien ab- und rundgeschliffen werden. Und weitreichende Pläne sind schnell gefasst, wenn die Weitergabe an eine Organisation statt der Sorge um die Umsetzung Spielraum für das Reifen der nächsten Pläne schafft.

Die Klagen über Bremsen und Hürden, die Verheißungen der besseren Welt nach dem Ende dieser Hindernisse sind Hohn für jene, die nicht in den Genuss der bremsenden Sicherheit kommen. Wie schwer ist es, Entscheidungen zu treffen, wenn man weiß, dass niemand ihnen widersprechen wird! Sie gelten dann, sofort, und sie zeigen Wirkung. Wie vorsichtig und gut überlegt muss ein Plan sein, wenn man weiß, dass man ihn auch selbst umsetzen muss! Wenn man außerdem weiß, dass für die nächste Zeit die Entscheidung für diesen einen Plan die Entscheidung gegen alle anderen Pläne ist – denn es bleiben dann keine Zeit und keine Spielräume mehr für andere Pläne.

Niemand entscheidet also zögerlicher als die, die frei von jeder Bürokratie sind. Sie verfügen über kein bremsendes Sicherheitsnetz, das sie vor ihrem eigenen Elan schützt. Sie sind sich selbst verantwortlich und müssen mit sich selbst verhandeln, welche Pläne mit welcher Priorität abgehandelt werden. Sie müssen sich selbst eingestehen, Pläne und Ziele nicht ausreichend verfolgt zu haben. Und sie müssen mit sich selbst verhandeln, wann es an der Zeit ist, von Plänen abzulassen und sich neu zu orientieren – sie sind Richter über ihr eigenes Scheitern. Die Freiheit, sich für alles entscheiden zu können, gepaart mit dem Anspruch, Entscheidungen auch umzusetzen, schränkt enger ein als die sprödeste Bürokratie.

Es sei denn, man begnügt sich mit dem schalen Hauch heißer Luft. Auch das kann unterhaltsam sein, manchmal sogar zufriedenstellend – aber diese Haltung trägt Züge eines performativen Widerspruchs, mit dem es sich aber gut leben lässt: In der Umgebung der Bürokratie-Gegner ist es für eine gelungene Macher-Attitüde ausreichend, oft und deutlich genug zu sagen, dass man diese Attitüde für sich beansprucht.

Bürokratie ist ein unverzichtbarer Katalysator für Ideen und Innovation. Wer in Bürokratie ein ernstzunehmendes Hindernis sieht, hatte entweder noch nie eine Idee – oder kam noch nie auf Idee, dass man Ideen auch selbst umsetzen könnte.

Redundanz statt Happy End

Die Situation ist ernst, aber wir können uns nicht mit dem Gedanken anfreunden, die Welt nicht unter Kontrolle zu haben – deshalb müssen wir so tun, all ob wir daran glauben würden, dass Technologie auch die aktuellen großen Probleme lösen wird, deshalb müssen wir noch immer Geschichten mit Happy End erzählen. So oder ähnlich lautete der Befund von Philip Blom diese Woche bei einer Diskussion im Angewandte Interdisciplinary Lab.

Ich habe Zweifel. 

Dabei zweifle ich gar nicht so sehr an der Wahrscheinlichkeit eines unkontrollierten Ausgangs unserer aktuellen Multiproblemlagen, ich habe Zweifel an der Tendenz zum Happy End. Die Wort- und Meinungsführer unserer Zeit machen sich in aller Regel kaum noch die Mühe, Happy End-Stories zu entwickeln. Probleme, Meinungen und Situationen sind vielfach auch zu divers um sich darauf einigen zu können, was erstens ein Ende und zweitens happy sein könnte. Statt Stories zu erfinden beschäftigen wir uns mit als Stories erzählten Problemen. Die Diagnose ist die Königsdisziplin in der Diskussionslage unserer Zeit; dass es auch eine Therapie geben könnte, haben wir vielfach vergessen.

Nachdem sich die Diagnose nicht durch eine Therapie oder andere Lösungen als Form des Realitätschecks beweisen kann, braucht sie andere Formen der Selbstvergewisserung. Diese findet sie in der Redundanz.

Immer mehr Menschen wiederholen immer öfter die gleichen Worte. Ich formuliere das gezielt so umständlich, denn ich bin mir nicht sicher, ob sie das gleiche sagen oder dasselbe meinen. Sie verwenden ähnliche, oft idente Worte und Formulierungen, können einander zustimmen, ohne sich über die Bedeutung ihrer Worte austauschen zu müssen und tragen so zur immer weitere Kreise ziehenden Redundanz unklarer Aussagen zu. 

Die Aussagen sind vielleicht unzutreffend oder möglicherweise sogar sinnlos – aber wenn alle („alle“ muss hier im Licht des schönen Wortes salient verstanden werden: alle sind die , von denen ich will, dass es alle sind, von denen ich meinen Horizont abstecken lassen möchte) das sagen, dann muss es richtig sein. Wer wäre ich denn, mich dagegen zu stellen?

Redundanz ist tröstlich. Die Wiederholung schafft Vertrautheit und Nestwärme. Und zugleich verstellt sie die mögliche Sicht auf anderen Perspektiven, die zusätzliche Facetten eines Problems erkennen lassen würden, die vielleicht weiteres zu einer Lösung beitragen könnten. 

Damit leistet Redundanz, vielleicht ist es ja auch Entropie, auf allen Ebenen das gleiche wie die Sehnsucht nach einem Happy End: Sie tröstet, verstellt den Blick auf das Problem und behütet davor, handeln zu müssen.

Diese Theorieebene mutet ein wenig abstrakt an.

Woran lässt sich das konkret festmachen? 

Alle Guten fühlen sich wohl mit Stehsätzen wie „Bildung ist so wichtig“, „Menschenrechte!“ oder: „Wir erleben einen dramatischen Fachkräftemangel.“ 

Als Menschenrechte erfunden wurden, galten sie nicht für alle Menschen. Bildung hat, je nach Perspektive, eine dynamisch-durchlässige Grenze zu nutzlosem Wissen. Aber bleiben wir beim banalsten praktischen Problem: „Der Fachkräftemangel!“ 

Diese Bedrohung unseres Wohlstands wird seit gut fünf Jahren thematisiert. Pandemie, Lockdowns, Kurzarbeit, Ausfallszahlungen haben für viele Menschen die rein wirtschaftlichen Grenzen zwischen Arbeit und Arbeitslosigkeit weiter verschwimmen lassen. Fachkräftemangel ist seit dem Abklingen der Pandemie ein dominierendes Thema – und eines, das sich auch praktisch bemerkbar macht. Florierende Bäckereien müssen trotz großer Nachfrage Schließtage einführen, weil es an Personal fehlt. Gastronomen können keine zusätzlichen Locations bespielen, weil es an Personal fehlt. Findige UnternehmerInnen können ihre neue App-Idee nicht umsetzen lassen, weil es an Personal fehlt. 

Was bedeutet Fachkräftemangel? 

Gibt es weniger Menschen? Sind aussterbende spezialisierte Fachkenntnisse gefragt? Sind arbeitende Menschen unverantwortlich gierig? 

Oder ist vielleicht das Anstellungsmodell, in dem Fachkräfte üblicherweise gesehen werden, einfach keine heute attraktive Vision mehr? Warum sollen UnternehmerInnen flexible Vertrauensarbeitszeit und Pflegeurlaub und Verkehrszuschüsse und Umzugsfreitage und vierzehn Gehälter und Urlaub und Freistellungen für Amtswege finanzieren? Warum sollten Angestellte Präsenz statt Effizienz bieten, sich von Konkurrenzklauseln beschneiden lassen, mit Mehrfachversicherungen Geld verlieren, Rechte an Innovationen und Ideen an das Unternehmen verlieren oder ihr Leben einer intransparenten Dienstplaneinteilung unterordnen? 

Es gibt viel konkrete Möglichkeiten, was die abstrakte Formulierung eigentlich bedeuten könnte. 

Die Möglichkeiten liefern viele Angriffspunkte. Ob die Beschäftigung mit diesen Erfolg bringt, ist ungewiss. Viel gewisser ist, dass die redundante Wiederholung der Abstraktion vielmehr Trost bringt. Denn sie schafft Einigkeit und das Gefühl, verstanden zu werden und zu verstehen.

Das ist um einiges tröstlicher, als tatsächlich zu verstehen. Denn dann wird auch klar, dass damit noch nichts gewonnen ist. Es wartet das nächste Problem, oder noch schlimmer: es muss etwas getan werden. Und das sind eher die Gegenteile von Happy Ends, es sind ja nicht mal ordentliche Enden. 

Narrativ und Storytelling gelten als Essenz aller Vorhaben. Wiedererkennbare eingängige Geschichten könnten auch ihre Vorteile haben. Sie sind praktische Abkürzungen und Generalisierungen, es sind Vereinfachungen, denen es gelingt, mit wenigen Andeutungen ein gemeinsames Bild zu schaffen, das in den Köpfen aller ähnlich aussieht. 

Die Stärke starker Storys sollte es sein, sie spätestens beim dritten Mal mich mehr erzählen zu müssen. Die Reaktion auf eine zum dritten Mal erzählte Story sollte sein: “Jaja, wissen wir, weiter, was jetzt?” Weil aber Narrative so beliebt und gemütlich sind, wiederholt man sie aber wieder und wieder. Es ist angenehmer, am Lagerfeuer sitzen zu bleiben und Geschichten zu wiederholen.

Insofern könnte man auch infrage stellen, ob es wirklich ein Symptom einzigartig schnellen Technologiewandels ist, dass wir so ratlos sind. Das lähmende Lagerfeuer war für Vilem Flusser schon das Fernsehgerät; Dystopien sind nicht neu. Vielleicht macht es uns ja auch aus, uns in Narrativen zu verlieren. 


Die Zukunft, findet Blom übrigens, gehört den Mikroben. Von diesen sind noch keine Narrative bekannt.