Datenwirksamkeit und Magie

Daten sind nützlich, davon sind alle überzeugt. Vielleicht sind sie auch gefährlich. Eventuell sogar wertvoll.

Daten entfalten jedenfalls Wirkung, das ist heute ein Gemeinplatz. Ungeklärt ist aber die Frage, wie diese Wirkung zustande kommt. Daten geben eine Richtung vor und sind Teil der Lösung. Allerdings übergeht dieses Szenario das Problem, wie Daten Organisationen verändern, in Prozesse eingreifen, Richtungswechsel in Strategien bewirken oder den Unternehmenserfolg beeinflussen. Dieser Übergang gleich oft dem wirren Wollknäuel in Cartoon-Projektplänen, der mit “Hier geschieht ein Wunder” beschriftet ist.

Data Science- und Big Data-Beschreibungen gehen heute glücklicherweise schon weit über die Betonung technischen und statistisch-mathematischen Spezialwissens hinaus. Fachwissen ist wichtig, um relevante Fragestellungen identifizieren zu können. Historisch-dokumentarische Kenntnisse sind notwendig, um Datenerhebungsprozesse gestalten und evaluieren zu können. Und jeder ernstzunehmende Datenspezialist wird nicht müde zu betonen, dass die Arbeit des Konzipierens, Sammelns und Bereinigens von Daten den völlig unglamourösen Löwenanteil in der Datenarbeit ausmacht. Bevor auch nur eine einzige Codezeile smarter Algorithmen geschrieben ist, wurden dutzende Stunden mit platten Strichlisten, Spreadsheets und Plausibilitätsprüfungen verbracht.

Der vorbereitenden Arbeit, der archäologischen Spurensuche wird also große Bedeutung beigemessen. Dann klafft allerdings eine große Lücke.

Daten sind wichtig und wirksam, so die Überzeugung. Wie gelingt ihnen das aber? Hier befinden wir uns großteils noch im Reich der Magie. 

Das ist eine Gefahr für die Arbeit mit Daten. 

Erwartungsmanagement ist ein weiterer zentraler Skill jedes Analysten. Erwartungsvollen Kunden oder CEOs muss klargemacht werden, dass Daten erstens Zeit brauchen und zweitens nur in eine Richtung zeigen. Ob dieses Zeigen ein Wegweiser, ein Schubs, ein unwiderstehlicher Sog oder ein bloßes Mahnmal ist, das liegt nicht mehr an Daten allein. Das ist eine Prozessfrage. Hier müssen sich Organisationen verändern. Und vor allem: Hier müssen Entscheidungen getroffen und durchgesetzt werden. 

Data Science verspricht, zu besseren Entscheidungen zu verhelfen. Langwierige Data Science-Prozesse werfen die Frage auf, worüber eigentlich entschieden wird. Die letzte Entscheidung darüber, was nun tatsächlich umgesetzt wird, welche Handlungen aufgrund der Daten gesetzt werden, obliegt praktisch weder Data Scientists noch Data Analysts, sondern organisatorische verantwortlichen Personen. Es ist eine gefährliche Überschätzung von Daten, diesen Unterschied zu übergehen. Das führt zu Frustration (“Diese Daten bringen uns überhaupt nichts”), Lähmung (“Ich brauche mehr Daten, um das entscheiden zu können”) oder gar zum Daten-Deadlock.

Jeder Analyst kennt den Daten-Deadlock: Man präsentiert neue Ergebnisse, zeigt auf Problemstellen, leitet neue Empfehlungen aus Details ab – und bekommt die Antwort: “Das weiß ich schon, das ist nichts Neues für mich.” 

In solchen Fällen bleibt eigentlich nur übrig, die Frage zu stellen: “Und warum handeln Sie dann nicht danach?”

Das ist in vielen Fällen das Ende der freundlichen Zusammenarbeit. 

Manchmal aber offenbart diese Situation aber auch neue Handlungsspielräume – plötzlich wird klar, dass man sich bewegen kann, wer sich bewegen muss und dass immer nur überschaubare Schritte gesetzt werden können – die ihrerseits auch wieder analytisch begleitet werden können. 

Data Science und Analytics enden nicht mit smarten Algorithmen und fancy Python-Scripts. Das sind nicht einmal die Höhepunkte von Datenprozessen. Sie sind das Ende der Anfangsphase, danach beginnt die Arbeit in Prozessen und Organisationen. Für manche ist das eine Entzauberung der mächtigen Daten. Magie aber hat noch selten gut funktioniert, wenn man nur nah genug hinsieht.

Harry Collins, Martin Kusch: The Shape of Actions

In den 90ern war das Internet Nerdkram, Artificial Intelligence beschränkte sich für die Öffentlichkeit auf ein paar Spracherkennungs- und Simulationstools, Machine Learning bestand in Diagnostiksoftware und Big Data gab es noch nicht.

Diese Rahmenbedingungen muss man wohl vorausschicken, wenn man den Text von Collins und Kusch auf aktuelle Fragestellungen anwenden möchte. Eine wesentlich unterschiedliche Perspektive: Heute ist Bias eines der zentralen Themen rund um Artificial Intelligence und Data Science; der Themenkomplex beschreibt ein Defizit von Technologie, die durch menschliche Vorurteile und soziale Einflüsse verunreinigt wird. Damals wandten sich die Autoren gegen die ihrer Meinung nach naive Vorstellung, Maschinen könnten selbstständig handeln und entscheiden und kritisierten in dieser Vorstellung eine Verkürzung, die die Relevanz menschlicher und sozialer Einflüsse unzulässig ignoriere.

Können Maschinen handeln?

Das ist das zentrale Thema dieses Buchs: Wie weit und unter welchen Umständen können Maschinen, wenn überhaupt, so etwas wir Agency besitzen?

Harry Collins und Martin Kusch entwickeln detaillierte Handlungskonzepte, um diese Frage zu diskutieren. In erster Linie unterscheiden sie zwischen Handeln (action) und Verhalten (behavior). Verhalten ist eine reaktive Existenzweise, die mit ihrer Umwelt reagiert, aber keinen Plan verfolgt und immer in konkrete Kontextbedingungen eingebettet ist und von diesen ausgelöst und gesteuert wird. Handeln besteht aus Abläufen, die nicht nur Reaktionen auf äußere Einflüsse sind oder einem anderen vorgefertigten Bauplan folgen. Auch dabei unterscheiden Collins und Kusch unterschiedliche Typen: Mimeomorphe Handlungen folgen dem immer gleichen Plan, können imitiert werden und sind sehr spezifisch in ihrer Reichweite und Wirksamkeit. Mimeomorphe Handlungen können nicht angewendet werden, wenn sich Rahmenbedingungen ändern, wenn Entscheidungen zu anderen als bereits bekannten Fragen (mit bekannten Antworten) getroffen werden müssen. Dann sind polymorphe Handlungen notwendig, die keinem vorgegebenen Ablauf folgen müssen sondern auch unvorhergesehene Abzweigungen nehmen können.

Wiederholbarkeit und Relevanz

Dieses auf den ersten Blick einleuchtende Konzept offenbart seine Schwierigkeit auf den zweiten Blick: Was ist gleich, wo beginnen Unterschiede? Welche Unterschiede sind relevant? Inwiefern können und sollen in die Diagnose von Unterschieden auch Positionen und Perspektiven des Unterscheidenden einbezogen werden? Collins und Kusch deuten dazu eine „sociology of the same“ an: „The whole pattern of human life could be said to be a matter of what we see as the same and the way boundaries between things are shifted about“. Das ist ein spannender Gedanke, der sich in viele Dimensionen verzweigen lässt. Informationstheorien liegt eine Frage von Unterschieden zugrunde – Luciano Floridi führt dazu viel über Levels of Abstraction als Gradmesser von Unterschieden aus. Bei Carnap und Bar Hillel führt die Betonung der Relevanz von Unterschieden zum Informationsparadoxon: Je größer ein Unterschied ist, desto gehaltvoller ist Information – bis zu dem Preis, dass die gehaltvollste Information der logische Widerspruch ist. Die Diagnose von Unterschieden ist eine zentrale Aufgabe von Machine Learning-Prozessen, im Fall der Segmentierung oder Clusterbildung sollen dabei Unterschiede erkannt werden, die für den Menschen nicht ersichtlich gewesen wären. Unterschiede sind eines der Kernthemen von Data Science, die Entscheidungen verspricht – also die Diagnose von Unterschieden und die Auswahl von unterschiedlichen Optionen.

Für Collins und Kusch ist Wiederholung ein zentrales Unterscheidungskriterium. Wiederholung gleicher Abläufe, die mimeomorphe Handlungen ermöglicht, setzt unveränderliche Umgebungen voraus. Es sind sehr konkreten spezifische Kontextangaben erforderlich, um Automatisierung zu ermöglichen. Mit Wiederholung werden Abläufe sebstverständlich, Neuigkeiten diffundieren ins Allgemeinwissen; in der Wissenschaftsphilosophie werden solche Prozesse als Closure oder Black Boxing diskutiert. Collins und Kusch möchten hier allerdings noch einmal unterscheiden.

Verallgemeinerbarkeit und Abstraktion machen den Unterschied

Es reicht nicht aus, wenn Abläufe oder Erkenntnisse akzeptiert und nicht mehr hinterfragt werden (wie bei den Konzepten von Closure oder Black Boxing). Damit Abläufe als mimeomorphe Handlungen gesehen werden können, müssen sie nicht nur repetitiv und akzeptiert sein, sie müssen auch spezifisch und konkret sein. Das bedeutet, sie sind nicht verallgemeinerter und beziehen sich immer auf einen konkreten Kontext und Anlass. Die Autoren exerzieren das am Beispiel von Vakuumpumpen durch: Robert Boyle und dessen Assistenten mussten bei der Erfindung der Vakuumpumpe im 17. Jahrhundert eine Reihe von neuen Abläufen erdenken, ausprobieren und  einüben, um ihre Ergebnisse absichern zu können. Vieles davon ist heute grundlegendes Allgemeinwissen; ein technisch halbwegs versierter Mensch kann, mit einigen knappen Anleitungen, heute eine Vakuumpumpe in Betrieb nehmen und erkennen, ob sie funktioniert. 

Trotzdem bleibt aus der Ablauf des Inbetriebnehmens von Vakuumpumpen eine polymorphe Handlung die nicht automatisiert werden kann. In Anbetracht der Allgemeinheit von Vakuumpumpen gibt es zu viele Optionen und Unterschiedlichkeiten, als dass Abstraktion und Automatisierung möglich wären. Es kann allenfalls die Inbetriebnahme und Überwachung einer spezifischen Vakuumpumpe als mimeomorphe Handlung dokumentiert und automatisiert werden. 

Das erinnert an John Deweys Ausführungen zu Abstraktion, Wissenschaftlichkeit und Unabhängigkeit: Dewey betont, es könne keine distinterested Science geben, weil die für wissenschaftliche Methode notwendige Transparenz immer nur in Hinblick auf spezifische Kontexte gegeben ist. Wissenschaftliche Theorien müssten allerdings den Anspruch haben, in jedem möglichen konkreten Kontext zu gelten.

Wer entscheidet, was konkret ist – und was Zufall?

Konkrete und gültige Feststellungen brauchen also konkreten Kontext. Das wirft die Frage auf, wer diesen Kontext herstellt. Das wiederum ist, wenn wir zur Ausgangsfrage zurückkehren, was Maschinen tun können (und an Machine Learning, Data science und Artificial Intelligence denken), eine Frage, die das Potenzial hat, eine grundlegende Konzepte rund um Data science auf den Kopf zu stellen. Maschinen arbeiten und analysieren in einem vorgegebenen Umfeld, sie überschreiten fallweise Grenzen, die zu überschreiten ihnen ermöglicht wurde (oder die irrtümlich als Grenzen angenommen wurden). Sie machen also, was ihr Rahmen ihnen ermöglicht; der Rahmen wurde letztlich durch menschliche Aktivität abgesteckt. Gern zitiertes Gegenbeispiel ist etwa Conways Game of Life, bei dem ein simples Set von Regeln neue Regeln erzeugt. Schaffen damit automatisierte Systeme ihre eigenen Reproduktionsbedingungen, etwas, das lebenden Organismen vorbehalten schien? Auch die Abläufe in einmal in Gang gesetzten Game of Life-Prozessen sind allerdings davon abhängig, wie sie in Gang gesetzt wurden – und sie verlassen nicht den Rahmen ihrer vorgegebenen Möglichkeiten, sie können sich nicht ohne weiteren Anlass für etwas anderes als das Übliche entscheiden.

Collins und Kusch unterscheiden verschiedene Arten von Maschinen, um diese Frage konkreter zu behandeln: Behavers folgen immer gleichen Abläufen. Disjunctive Behavers können je nach Gegebenheit zwischen verschiedenen vorgegebenen Abläufen entscheiden. Feedback Behavers können ihre Abläufe an diverse Inputs anpassen. Learning Behavers verändern sich und ihr Verhalten im Lauf wiederholter Interaktion mit der Umwelt. In dieser Typologie wäre das Game of Life auf der ersten Stufe von schlichten Behavers anzusiedeln. Ein Beispiel für die oberste Stufe ist für Collins und Kusch ein paar Stiefel, das sich im Lauf der Zeit an Körper und Bewegung ihres Trägers anpasst.

Auch in einer anderen Maschinentypologie in diesem Buch sind Algorithmen, Artificial Intelligence und Neurone Netze nicht unbedingt auf der obersten Ebene von Maschinen anzusetzen: Werkzeuge (tools) verstärken unsere Fähigkeiten, Stellvertreter (proxies) ersetzen oder vertreten uns, Neuigkeiten (Innovationen) setzen Abläufe um, die für uns unmöglich sind. AI und neuronale Netze sind für Collins und Kusch Proxies; ein Beispiel für Novelties wären Tiefkühler.

Maschinen zu überschätzen, in dem ihnen Agency zuerkannt wird, ist für Collins und Kusch ein grundlegendes Missverständnis, das die Analyse der Handlungsfähigkeit von Maschinen verstellt. Denn Maschinen können in ihrer Handlungstypologie nie über mimeomorphe Abläufe hinauskommen. Sie können Menschen zwar vertreten – aber nur dort, wo Menschen ihre Aktivität auf mimeomorphe Handlungen reduzieren.

Eine spannende, im Buch nicht gestellte Frage: Wäre es möglich, einen durchschnittlichen menschlicne Lebensablauf zwischen Pflichtschule, Dienst nach Vorschrift und Konsum auf mimeomorphe Abläufe zu reduzieren?

Wissenschaftskommunikation ist ein Missverständnis

Wissenschaft und Bildung – so wichtig. Je häufiger und breiter Themen wiederholt werden, desto deutlicher werden in der Regel Indizien, die zu Skepsis raten. Medien wollen Wissenschaft vermitteln, Wissenschaftler wollen besser vermittelt werden, Medienpolitiker sehen Wissenschaftskommunikation und Wissenschaftler in Redaktionen als Qualitätsindiz – und das Publikum will unterhalten werden.

Aber seien wir ehrlich – es gibt zwei große Problemfelder. 

Erstens: Wissenschaft ist langweilig. Sensationen entstehen im Nachhinein. Im Moment selbst ist es ein bloßes Aneinanderreihen von Fakten, Erbsen- und Fliegenbeinezählen. 

Zweitens: Was erklärt es schon, wenn, oft bemüht lustig, bemüht einfach oder bemüht klar, irgendwelche wissenschaftlichen Abläufe als Comedy auf Bühnen gebracht werden.

Medien und Wissenschaftskommunikationsdarsteller scheitern meist am zweiten Problem. Sie sind unterhaltsam, schaffen aber kein Wissen.
Wissenschaftler verlieren sich im zweiten Problem. Sie haben ihre Vision vor Augen, sehen die Größe des Problems – und die verstellt ihnen die Sicht auf die Kleinheit ihrer Ergebnisse. Das große Ganze wurde immer schon erzählt, die relevanten Unterschiede liegen im Detail – und man erkennt sie nur, wenn man sich schon auskennt. Aber dennoch erwarten sie, dass die Größe ihrer kleinen Ergebnisse erkannt und von Journalisten mit Begeisterung und Verständnis aufgegriffen werden. 

Das ist nicht nur ein Missverständnis von Wissenschaft, sondern auch ein Missverständnis von Journalismus: Statt Fakten zu suchen, Beziehungen herzustellen und Tatsachen zu vermitteln, soll Begeisterung vermittelt werden.

Das Problem ist, dass Wissenschaft und Journalismus streckenweise nach den gleichen Gesetzen funktionieren – und sich damit auch kannibalisieren. In beiden Bereichen sende Brüche, Disruptionen und Neuartiges die stärksten Signale. Allerdings schaffen die Brüche der Wissenschaft Unsicherheit und Unklarheit, Brüche, die für den Journalismus relevant sind, schaffen Klarheit (und wenn es nur die ist, dass es jetzt anders ist). Vorschnelle Klarheit in der Forschung ist eher vorschnelle Überinterpretation. In beiden Bereichen gilt allerdings auch, dass Bedeutung erst im Nachhinein entsteht. Brüche in der wissenschaftlichen Forschung brauchen Zeit, um sich zu etwas Neuem zusammenzusetzen, umso mehr Zeit, je relevanter dieses Neue sein soll. Im Journalismus lassen sich Geschichten mit Abstand besser erzählen und sie verändern sich im Lauf der Zeit. Das ist nachteilig wenn es anderen ein Anliegen ist, Geschichten schnell weiterzuerzählen. 

Beide Seiten – Journalismus und der Wissenschaftsbetrieb – sind auch gut darin, Inkompatibilitäten als Defizite zur interpretieren, die stets anderswo liegen, nicht auf der eigenen Seite. Der Journalismus sagt: Das ist keine Geschichte. Die Wissenschaft sagt: Ihr erkennt die Großartigkeit nicht, ihr beschäftigt euch nicht ausreichend und in gebührlicher Form mit uns, um die Großartigkeit unserer Forschung zu erkennen. 

In dieser Defizitdiagnose ist schließlich auch die Geburtsstunde der Wissenschaftskommunikation begründet. Als englische Universitäten bei Thatchers Budgetkürzungen um Geld fürchten mussten, entdeckten sie die Öffentlichkeit als relevante Zielgruppe. Die Idee war, wenn die Öffentlichkeit Wissenschaft gut findet, dann hat man bessere Karten im Kampf um Budgets – sei es bei der öffentlichen Hand oder bei privaten Förderern. Die vorrangige Aufgabe von Medien und Publikum war es dabei, Wissenschaft toll zu finden. Warum und wofür, das war zweitrangig. Wenn das Publikum dieser Aufgabe nicht nachkam, dann war es dessen Problem – und dessen Schuld. 

Daran hat sich wenig geändert. Auch wenn Wissenschaft in lustigen Kostümen auftritt und die Grenze zur Science Fiction verwischt. 

Larry Hickman: John Dewey’s Pragmatic Technology

Technologie ist nicht neutral. Sie ist auch keine unabhängige Macht, die bedrohlich ihren eigenen Weg geht. Technik und Technologie entstehen in Anwendungsfällen, als Problemlösung im Zusammenhang mit Aufgabenstellungen und im Zusammenspiel mit Mensch und Gesellschaft.

Je relevanter und verbreiteter Technik und Technologie sind, je enger und oft auch unauffälliger sie mit menschlichem Alltag vernetzt sind, desto relevanter werden Technikkonzepte, die auf die Vorstellung einer isolierten Macht verzichten können und dennoch die Idee von Technik nicht bloß in Beziehungen auflösen oder Technik als diffuse Wirkmacht darstellen. 

Larry Hickman legt in Deweys Werk einen Technologiebegriff frei, der sich als sehr produktiv erweist. Gerade in Hinblick auf digitale Technologien und auf Fragen der Daten und Datenanalyse, die für Dewey kaum noch konkret Thema waren (und auch bei Hickman, das Buch erschien 1991, nur zwischen den Zeilen auftauchen) bietet Dewey einige Anregungen.

Wie kommt das?

Wissen als Artefakt

Deweys Technologiebegriff entsteht aus seiner Betrachtung der wissenschaftlichen Untersuchung. Untersuchung, inquiry, ist für Dewey eine Fähigkeit, und zwar eine gestalterische. Untersuchungen schaffen Ergebnisse, sie entdecken sie nicht, sie legen sie nicht frei, die schaffen in Hinblick auf bestimmte Fragestellungen und Erkenntnisziele.

Das bedeutet: Untersuchungen und Wissenschaft bestehen nicht für sich, und Wissen ist ein Artefakt. Wissen wird geschaffen und ist diversen gestalterischen Prozessen und Zielsetzungen unterworfen. Eigentlich, bringt Hickmans Dewey Prozessorientierung auf die Spitze, arbeiten Wissensarbeiter an der Freilegung einer einzigen Tatsache, denn es kann ja nur eine geben, sofern harter Realismus gilt. Diese ultravernetzte Megatatsache, die alles einbezieht, wäre allerdings ein denkbar unpraktisches Konzept, das sich von nichts abgrenzen lässt. Umso wichtiger werden Zielsetzung und Kontextualisierung, um zumindest relative Abgrenzungen zu ermöglichen.

Untersuchung als wissenschaftliche Methode ist also eine produktive Fähigkeit, Technologie ist active productive inquiry, also die aktive, zielorientierte Anwendung jener Fähigkeiten, die sichere Ergebnisse schaffen. Dewey betont die fortlaufende Aktivität, Wissensproduktion sei eine andauernde Interaktion. Gewissheit werde durch diese ständige Rückversicherung geschaffen, eigentlich ersetzt. Die eingesetzte Methode und die Klarheit über die Methode, letztlich also die Transparenz des Prozesses, sei wichtiger als die konkrete Wahrheits- oder Wissenstheorie. Eigentlich schafft (oder ersetzt) die Methode die Wahrheitstheorie.

Was für ein Technologiekonzept ist das?

Hickman führt drei unterschiedliche Ausprägungen von Technologiekonzepten an .

Substantive, deterministische Technologiekonzepte in der Tradition von Jaques Ellul beschreiben Technologie als vom Menschen weitgehend unabhängiges Phänomen, das Gesellschaft prägt und sich eher unbeirrt von menschlichen Plänen entwickelt. 

Instrumentalistische Konzepte legen das Augenmerk auf Phänomene wie Werkzeugnutzung und Technik als eine Art und Weise, die Wirklichkeit zu behandeln oder sich zur Wirklichkeit zu verhalten (noch unabhängig von konkreten Wirklichkeits- und Wahrheitstheorien). Homo Faber-Konzepte kommen aus dieser Tradition, auf klassischer Pragmatismus wäre hier anzusiedeln. 

Die dritte Spielart ist pluralistisch und betrachtet Technologie zugleich als Mittel, mit „continually shifting networks“ umzugehen – und selbst auch als ein solches.

Für Hickman verbindet Deweys Technologiekonzept zweite und dritte Spielart – auf den ersten Blick ist Dewey in Pragmatismus und Instrumentalismus zuhause, verleiht diesen aber mehr Dynamik.

Technologie ist eine Form von Verhalten

Bei Dewey bleibt alles veränderlich; Prozesse sind auf Zwecke und Ziele ausgerichtet und diese Zwecke und Ziele sind immer nur vorläufig; sie sind ends-in-view.

Diese Fokus auf Wechsel, Beziehungen und sich verändernde Beziehungen führt zur Diagnose von Abgrenzungsproblemen: Wann ist etwas das, als das es beschrieben wird? Verändert sich ein Objekt mit seiner Beschreibung oder mit seiner Nutzung? Dewey führt das anhand von Erz aus: Erz als Rohstoff ist substanziell das gleiche wie bearbeitetes Eisen und ein aus Eisen hergestelltes Produkt. Die unterschiedliche Bedeutung des gleichen Inhalts entsteht durch unterschiedliche Nutzung. Der funktionale Kontext bestimmt die Bedeutung.

Daten entstehen in der
und für die Untersuchung

Hickman referiert von hier aus auch über die Bedeutung und den Stellenwert von Daten bei Dewey. Daten als „Gegebenes“ („Givens“) deuten auf etwas jenseits ihrer selbst hin. Dewey interpretiert Daten als Indikatoren, als Hinweise. Rauch wäre das Datum, Feuer das, worauf die Daten zeigen. „For Dewey, to be a datum is to function in a special way with respect to the control of the subject matter of a particular area of inquiry. Data allow us to fix a problem in a way such that a possible solution is indicated. Data provide evidence that is instrumental to testing a proposed solution.“ Ist damit eine Sonderstellung von Daten, eine besondere Beziehung von Daten  zu ihrem Gegenstand postuliert? Wie würde sich das mit der Betonung von Kontext vertragen, mit der Diagnose, dass Bedeutung durch Anwendung und funktionale Zusammenhänge entsteht? Daten verweisen für Dewey auf etwas außerhalb ihrer selbst. Aber sie sind nicht Träger der Bedeutung; diese konstituiert sich in der Anwendung. In der vielleicht nicht das glücklichen Metapher von Feuer und Rauch: Wo wäre hier die Eigenschaft oder Aktivität des Brennens? Und wo die Feststellung, dass etwas brennt? Auch die Indikator-Eigenschaft lässt sich also nicht ganz von Aktivität und Kontext lösen.

Diese auf den ersten Blick unterstellte Unmittelbarkeit und Sonderstellung von Daten entpuppt sich also als ein weiterer Hinweis auf Abgrenzungsprobleme. Diese können auch als Hinweis darauf verstanden werden, dass strikte Trennlinien, wie moderne rationale Menschen sie gerne ziehen, nicht immer angemessen sind. – Eine Idee, die Bruno Latour einige Jahrzehnte nach Dewey in seiner Unterstellung, wir wären nie modern gewesen, näher ausgeführt hat.

Dewey bezieht diese mangelhafte Abgrenzung nicht nur auf Dichotomien zwischen Natur und Kultur, Technik und Gesellschaft, er diagnostiziert auch flexible Übergänge zwischen innen und außen; Artefakte gebe es auf beiden Seiten. Wissen ist für Dewey ein Artefakt, auch Wissen existiert also sowohl in unseren Köpfen als auch außerhalb von diesen.

In der konkreten Formulierung klingen extended mind-Theorien an, wie sie Jahrzehnte später bei Clark oder Chalmers ausformuliert wurden; Dewey wird in dieser Richtung allerdings nicht weiter konkret. Für Dewey sind andere Konsequenzen (oder Möglichkeiten) dieser Diagnose relevant.

Bedeutung entsteht durch Anwendung

Eben weil Bedeutung erst durch Funktion und Anwendung entsteht, kann es für Dewey keine neutralen Theorien geben, keine distinterested science. Bedeutung (und damit sinnvolle Aussagen) gibt es immer nur in Hinblick auf konkrete Kontexte. Theorien und Wissenschaft allerdings sollen auf möglichst viele verschiedene Interessen und Kontexte anwendbar sein.

Hier werden Deweys Ausführungen noch einmal in Hinblick auf Daten und Data Science relevant. 

Denn, fragt Dewey, wie kommen wir zu gültigen Verallgemeinerungen? Die gute Nachricht, verkürzt gefasst: relativ leicht. Die schlechte Nachricht: Das ist allerdings kein gesicherter Weg, hinter eine Kette von Beziehungen und Bedeutungszusammenhängen zu kommen. Daten sind für Dewey immer partikulär, sie entsprechen keinem „principle of nature“, die Beziehungen, durch die sie ihre Bedeutung bekommen, sind nicht in der Natur festgelegt, sie entstehen durch die und für die Untersuchung.

»Notwendigkeit ist Aberglaube«

Diese Kontext- und Zweckabhängigkeit bestimmt die Konstitution von Bedeutung, die Formulierung von Fragen, die Kalibrierung von Skalen, die Bildung von Modellen und Metaphern und letztlich wohl auch die Frage, welche Beziehungen zwischen Daten und ihren Objekten überhaupt postuliert werden. Wissenschaftlich ist das wenn diese Bedeutungskette nachvollziehbar und argumentierbar ist. Problematisch dagegen ist es, wenn Teile dieser Kette in Vergessenheit geraten oder verdrängt werden. Genau das unterstellt Dewey „certain forms of technology“: Diese hätten nicht nur die Tendenz, Auswahlmöglichkeiten zu beschneiden, sie tragen darüberhinaus auch noch dazu bei, die bereits getroffenen Entscheidungen in Vergessenheit geraten zu lassen, „they anesthesize awareness that choice has been limited“.

Notwendigkeit ist für Dewey purer Aberglaube. Es gibt immer Entscheidungen. Möglicherweise allerdings wurden sie bereits getroffen. 

Entscheidender als die Frage der Notwendigkeit ist das Wissen darüber, wann, in Hinblick auf welche Zwecke und wie diese Entscheidung getroffen wurde.

Das ist für Dewey kein Defizit, das es zu beseitigen gälte. Kontext ist konstitutiv für das Entstehen von Bedeutung, Inferenz als Herleitung von Bedeutung ist eine Funktion von Verhalten; unterschiedliche Verhaltensweisen (oder das gleiche Verhalten in unterschiedlichen Kontexten) führt also zu unterschiedlichen Bedeutungen.

Dewey sieht dieses Argument als zentral für seine Begriff der inquiry, der in der Tradition pragmatistischer Wahrheitskonzepte steht (vereinfacht: wahr ist, was nützlich ist), von hier aus lässt sich aber – mit Blick auf Daten, Repräsentation und Datenmodelle – auch ein Argument geben die Vision des hypothesenfreien Forschens entwickeln.

Die Idee des hypothesenfreien Forschens und Modellierens geht von der Möglichkeit aus, „die Daten“ (oder Algorithmen) Entscheidungen treffen zu lassen, ohne ihnen Vorgaben zu machen. Beim unsupervised machine learning etwa bilde Algorithmen selbst Cluster anhand von Beziehungen oder Häufungen von Merkmalen, die ihnen selbst auffallen. Der Mensch muss nicht einmal vorgeben, wieviele Cluster es sein sollen. Das wird als Gegenentwurf zum Modell- oder hypthesengesteuerten Forschen und Modellieren gesehen, wobei erst Erwartungen formuliert und dann Beweise dafür gesucht werden. 

Beim hypothesenfreien Modellieren kann man darüber streiten, dass die Ergebnisse letztlich auch noch Interpretation brauchen. Das ist aber nur ein Teil der verdrängten Entscheidungen. Unterschiedliche Algorithmen liefern unterschiedliche Cluster, die Auswahl der Grundgesamtheit wirkt sich ebenso aus wie das Bereinigen um Ausreißer oder die Festsetzung von Schwellwerten – all das sind Entscheidungen, die, mit Dewey, im Nebel der Anästhesie verschollen sind.

Machine learning-Ergebnisse ohne das Wissen um die angewendeten Netzwerkalgorithmen (oder oft sind es ja nur Datenabfragen) analysieren zu wollen, also auch dabei theoriefrei zu bleiben, ist fahrlässig. Und in der analytischen Praxis sind oft jene Ergebnisse am fruchtbarsten, die aus vorerst unerklärlichen Gründen überhaupt nicht zur Ausgangshypothese passen. Die lassen sich aber nur dann feststellen, wenn Ergebnisse vor dem Hintergrund einer Hypothese betrachtet werden, mit der sie erarbeitet wurden. (Ok, Überraschungen kann man auch anders erleben – zum Beispiel durch schlechte Vorbereitung. Das würde aber nicht zu bevorzugten analytischen Methoden gehören.)

Für Dewey könnte nur die unsystematische, unwissenschaftliche Analyse auf Hypothesen und damit auf Klassifizierung verzichten – denn sie begnügt sich mit der Feststellung individueller, singulärer Bedeutung, die in konkreten Situationen gegeben ist. Wissenschaft und gültige Theorien dagegen müssen abstrahieren können. Das bedeutet nicht, dass sie ohne Kontext gelten. Sie sollten allerdings in allen möglichen Kontexten gelten. Sie bleiben also auf Kontext angewiesen. 

Daten, diese Feststellung geht aber über Dewey und Hickman hinaus, bräuchten ihre eigene Beweis-Blockchain und die Erwartungen erfüllen zu können, die Anhänger des hypothesenfreien Forschers und Modellierens an sie stellen. Allerdings müsste diese Blockchain, anders als die Blockhains, die wir kennen, auch in die Zukunft reichen. Das klingt abwegig, wird aber implizit auch immerhin so konkret postuliert, dass es von anderen Forschern unter dem Stichwort „promissory data“ kritisiert wird.

Daten und die Bias-Banalität

Wenn Daten und Algorithmen Menschen Entscheidungen abnehmen, dann klingt das verlockend. Es klang verlockend, muss man eigentlich sagen. Denn mittlerweile gehört Zweifel an der neutral-mechanischen Entscheidungsqualität technischer Prozesse zum guten Ton. In der europäischen Datenschutzgrundverordnung ist sogar ausdrücklich verankert, dass relevante Entscheidungen über Menschen nicht ausschließlich von Maschinen getroffen werden dürfen.

Die Entscheidungsqualität wird angezweifelt, weil auch Daten und algorithmische Prozesse perspektivischen Verzerrungen unterworfen sind. 

Daten bilden Realität ab, aber Realität ist immer auch jemandes Realität – das ist die einfache Fassung des Bias-Problems, das in nahezu jeder Diskussion zu Data Science und Big Data Erwähnung findet. Diese einfachen Fassungen des Problems lassen vermuten, dass das Bias-Problem auf die eine oder andere Art und Weise gelöst werden könnte. Man müsse nur richtig hinsehen, die richtigen Prioritäten setzen und die eigenen Erwartungen kritisch hinterfragen.

Dem ist entgegenzuhalten, dass nicht nur Realität immer auch jemandes Realität ist, auch die Abbildung von Realität ist immer jemandes Abbildung. Das setzt sich fort, den letztlich ist auch der festgestellte Bias jemandes Bias – und die Feststellung ist jemandes Feststellung. Ist es also nicht möglich, hinter (oder vor) den Bias zu kommen? Welcher Umgang mit der Bias-Diagnose ist dann sinnvoll? Reicht es etwa schon, um die generelle Problematik bescheid zu wissen, muss sie gar nicht gelöst werden? 

Damit schließt die Bias-Diagnose rund um Data Science und Big Data immer auch einen guten Anteil Banalität ein.

Daten sind immer jemandes Daten, Bias ist jemandes Bias
und auch Kritik daran ist immer jemandes Kritik

Alles ist Bias: In Algorithmen abgebildete Vorurteile sind Bias, der Versuch, Vorurteile bei der Wahl der Datenquellen zu umgehen, ist Bias. Die Betonung der eigenen Perspektive ist Bias, der Versuch, Privilegien auszugleichen, ist Bias. Bias nicht zu betonen ist Bias, die Kritik an Bias ist ebenfalls Bias. 

Müssen sich Analysten und Data Engineers damit zufriedengeben? Ist die Feststellung von Bias schon der zumindest vorläufige Endpunkt, der entweder hinzunehmen ist oder auf die Unzulänglichkeit vermeintlich neutraler Analysen hinweist?

Die Allgegenwart von Bias ist nicht von der Hand zu weisen. Die Relevanz von Bias ist ebenfalls offensichtlich. Beide Selbstverständlichkeiten sind keine gute Ausgangslage, um das Bias-Problem produktiv zu analysieren und zu kritisieren. 

Eine andere Möglichkeit der Fragestellung legt das Augenmerk darauf, warum Bias insbesondere in Datenfragen besonders relevant sein soll.

Gibt es so etwas wie Abbildung? Oder eher mehr neue Bilder …

Daten sind Technologie, Daten sind Stellvertreter, die etwas abbilden, Daten wird eine Sonderstellung in Hinblick auf Klarheit, Präzision und Direktheit nachgesagt. Zahlreiche wissenschaftsphilosophische Konzepte, die sich mit Abbildung, (Re)Präsentation, und auch Technologie beschäftigen, betonen die produktiven und gestalterischen Aspekte dieser Prozesse.

Modellbildung ist keine nachbildende Abbildung, sondern ein kreativer Prozess, der eine Fülle von Entscheidungen voraussetzt und bedingt, die ihrerseits dann wieder die nächsten Entscheidungsschritte bedingen und zugleich einschränken und ermöglichen. Das lesen wir zum Beispiel bei Michael Lynch. Repräsentation gibt es eigentlich nicht, schon gar nicht über Modelle, Daten und Theorien, es gibt nur Präsentation. Jede vermeintliche Abbildung ist also auch Gestaltung – das lesen wir bei Lorraine Daston. Modelle, seien es Metaphern, physisch-technische Modelle, mathematische Modelle, Analogien oder Datenmodelle, setzen eine ganz bestimmte Perspektive auf den modellierten Sachverhalt voraus und prägen und bedingen ebensolche Perspektiven.

Dieser aktive Part von Technik, Technologie, Repräsentation und Modellierung wird in jenen Konzepten, die Bias als Schwäche und Manko betonen, als Defizit gesehen. Die Defizitperspektive stellt in den Raum, dass es auch möglich sein müsste, dieses Defizit zu beheben. Schließlich setzt die Diagnose eines Defizits eine unberührte Idealsituation voraus – diese ist also (zumindest als Konzept, wenn schon nicht als Erfahrungswert) bekannt. Also sollte es auch Mittel und Wege geben, sich ihr anzunähern; zumindest kann festgestellt werden, ob sich die defizitäre Entfernung zum Ideal durch die eine oder andere Biasbehandlung vergrößert oder reduziert hat. Es gibt also, so scheint es in dieser Perspektive, einen unverfälschten Idealzustand, eine Technik, die diesen abbilden oder operationalisieren kann, Hürden und Probleme auf dem Weg zur oder in der Anwendung der nicht verfälschenden Technik und schließlich einen Standpunkt, von dem aus Abweichungen, Probleme, Defizit – also eben der problematische Bias diagnostiziert werden kann.

»Wenn wir nur
endlich rational wären …«

Diese Problemsituation erinnert an David Bloors Strong Programme einer Soziologie des Wissens und der Wissenschaft. Bloor entlarvt in seinem Konzept die Vorstellung von einer entlang der Realität handelnden und erkennenden Rationalität als normatives Konzept. Er kritisiert die Idee, dass rationales Handeln zur Wahrheit führe, aber von diversen im weitesten Sinne irrationalen Einflüssen irritiert werde. Zu diesen Einflüssen gehört Aberglaube ebenso wie Einkommen oder soziale Stellung, der aktuelle Stand des Wissens gehört ebenso dazu wie religiös bedingte Tabus. Das sind veränderliche Größen, die Idealrationalität dagegen ist ein unveränderliches Leitbild, das von diesen schädlichen Verfälschungen befreit werden muss. Wenn erst alle Einflüsse entfernt sind und Rationalität ungehindert agiert, dann stehen Erkenntnis und Wahrheit nichts mehr im Weg.

Bloors Kritik setzt an der Fragestellung an, wie denn äußere Einflüsse von inneren Grundzügen getrennt werden können. Daran schließt die Frage an, wie schädliche von förderlichen Einflüssen unterschieden werden können. Und das schließlich wirft die Frage auf, woher das Wissen über das unverfälschzte Ideal der Rationalität kommt und wie wir feststellen, dass wir jetzt an der richtigen Stelle sind. 

Bloor plädiert – vereinfacht – für eine vernetzte Perspektive auf Wissen, WIssenschaft, Rationalität und Einflüsse, die sich nicht der Illusion von Abgrenzungen hingibt. 

Welche Rolle könnte in einem solchen Szenario der im Datendunstkreis kritisierte Bias einnehmen? 

Bias entspricht einem der störenden Einflüsse, die den direkten Zugang zur unverfälschten Rationalität, zum technoneutralen Algorithmus verstellen. 

Wenn nun Bias ebenso nicht verfälschendes Element einer Perspektive, nicht störender Irrtum ist, sondern Teil der betrachteten, eigentlich jeder Technologie? 

Wie verschiebt sich das Bild, wenn wir Bias als integralen Bestandteil von Technik, Daten und Algorithmen betrachten? 

Technik wird damit zu Gestaltung und zum Machtinstrument – wobei auch in dieser Diagnose schon wertende Argumente, also letztlich Bias, wirken.

Keine Daten ohne Zweck

Daten und Datenanalyse sind Anwendungen vermeintlich neutraler Technologie, die durch unterschiedliche Anwendungsweisen dem Risiko der Verfälschung ausgesetzt sind. Was wären Daten und Analyse allerdings ohne ihre Anwendung? Wie könnten wir uns – ohne Anwendung – ein Bild von ihnen machen? Wo, ähnlich wie bei Bloors Problem, ließe sich eine Trennlinie zwischen Technik und Anwendung festmachen? 

Dieses wiederkehrende Abgrenzungsproblem lässt erkennen, dass andere Technikbegriffe nützlich sein können, solche, die Anwendung einschließen und Technologie nicht als abgegrenzten unberührbaren Bereich darstellen, der von Menschen unabhängig agiert.

Zwischen extremen Konzepten, die Technik als determinierende Kraft begreifen oder Technik als neutrales Ideal beschreiben zeichnen sich instrumentalistische  und pragmatistische Konzepte als nützliche Alternativen ab. Diese beziehen gestalterische und produktive Komponenten mit ein und entwickeln Begriffe auf Ziele und Zwecke hin, die auch immer nur temporäre, aktuell absehbare Ziele und Zwecke sind, mit den Begriffen John Deweys: ends-in-view.

Deweys Instrumentalismus wurde in der Analyse von Larry Hickman zur einem der produktivsten Technologiekonzepte, gerade auch in Hinblick auf die mögliche Anwendung auf Datenthemen. Dewey selbst spricht gelegentlich Daten als Gegenstand von Technik an, ohne vorhersehen zu können, welche weiteren Bedeutungen seine Analysen im Rückblick bekommen konnten.

Programmieren als
Gestaltung von Welten

Gerade in der Analyse digitaler Technik, der Grundlage der Arbeit mit Daten, erscheint es praktisch unmöglich, Technik, Anwendung und Ziele zu trennen. Digitalen Technikern scheint diese Trennung auch weniger plausibel zu sein Maschinenbauern oder Physikern, die noch öfter auf unabhängige, neutrale, und vom Einsatz des Menschen abhängige Technik pochen, auch wenn diese Technik den Menschen insofern beherrscht als sie wirkt, ohne von allen Menschen verstanden zu werden. Einige allerdings haben sie geschaffen – um einen Zweck zu verfolgen. 

Im Gegensatz dazu liegt digitalen Technikern die produktive gestalterische Komponente ihrer Technik um einiges näher. Bjarne Stroustroup etwa, Erfinder der Programmiersprache C++, beschreibt ganz selbstverständlich, dass Programmierer Welt gestalten. Programmieren sei keine Aneinanderreihung von Codes, sondern das Gestalten von Abläufen in der Welt, das vor allem voraussetze, dass die Problemstellungen, die die Gestaltung dieser Abläufe notwendig machen, erst verstanden werden – das wiederum setzt voraus, dass ein Zweck im Blick behalten wird. Wir sind also mitten in einem höchst pragmatischen und instrumentalistischen Szenario, das die Idee, Technik könne unabhängig von diesem konkreten Kontext existieren, überaus fragwürdig erscheinen lässt.

Wie verträgt sich diese Diagnose mit entgegengesetzten Konzepten auch aus dem Bereich der digitalen Technologie, wie wir sie aus der theoretischen Informatik kennen? Theoretische Informatik beschäftigt sich mit verschiedenen Formen von Logik und logischem Kalkül und betont die Abgrenzung von jeglicher kontingenten Bedingungen setzenden Außenwelt. Logik beschäftigt sich mit den Regeln des korrekten Schließens. Logik urteilt nicht darüber, in welchen Fällen diese Regeln auf die richtigen Fragestellungen angewendet werden. Das zeigt sich einerseits an der Frage, wie die Prämissen der Aussagenlogik überprüfbar sind, noch deutlicher aber im Kalkül der Prädikatenlogik, in dem das gesamte Universum, für das das Kalkül gültig sein soll, konkret definiert werden muss. 

Das bedeutet: Logik formuliert abstrakte Wahrheitsbedingungen, keine konkreten Wahrheitskriterien. Die Wahrheitsbedingungen nehmen keinen Bezug auf aktuelle, kontingente oder akute Umgebungsbedingungen – aber sie machen nur in sehr konkreten und spezifischen Situationen Sinn. Über andere Situationen sagen sie nichts aus.

Das, in Verbindung mit einem pragmatischen Technikkonzept, liefert meines Erachtens Hinweise auf Auswege aus dem Bias-Dilemma. Wird dadurch die Neutralität von Daten und technischen Abläufen wiederhergestellt? Ich denke nicht. 

Ich denke, wir werden eher bei der überraschten Feststellung landen, dass neutrale Technik und unverfälschte Daten ein verlockender, aber letztlich sehr merkwürdiger Irrtum sind. Der Weg dorthin ist allerdings eine andere und etwas längere Geschichte.

Jenseits von Analytics

Sollen wir Wetterdaten auch berücksichtigen? Vielleicht die aktuelle Börsenlage als Indikator für das Gemüt mancher Segmente? Oder gleich die weltweite Nachrichtenlage, um dier allgemeine Laune der Zielgruppe zu bewerten?

In der Urgeschichte des Internet waren Analytics-Tools schlichte Counter, die vorerst mal irgendwas zählten. Anfänglich, man erinnert sich, waren es überhaupt sogenannte „hits“ – also jede Interaktion mit dem Webserver, jede aufgerufene html-Datei, jedes Bild, jedes Script. Bei laufend komplizierter werdenden Webseiten, die aus einer Vielzahl von Scripts, Bildern, css-Dateien und html bestanden (wer erinnert sich noch an Frames?) führte das recht schnell zu absurd hohen Hit-Zahlen. Hübsche Torten- und Balkengrafiken gab es auch, aber sie sagten nichts aus.  

Aktuelle Analytics-Frameworks sind weit davon entfernt. Sie tracken Aktionen, aggregieren Daten, reichern diese mit Informationen an – und machen damit nichts. Integration geht über Präsentation, Interoperabilität schlägt Visualisierung. Bevor Daten heute dargestellt werden, haben sie eine Reihe von Aggregierungen durchlaufen, wurden mit Informationen aus anderen Quellen verknüpft, mit weiteren Details angereichert, auf Konsistenz und Validität überprüft und durch eine Reihe von Repositories gereicht.

Sogar alte Platzhirschen wie Google Analytics, Piwik oder Matomo, die über Jahre hinweg keine Wünsche offenzulassen schienen, wirken heute veraltet und schwerfällig.

Die versprochene Informationsfülle rückt allerdings in weite Ferne, soald ein zeitgemäßes Analytics-Projekt konkret werden soll:

Technische Flexibilität erfordert große Präzision in den Requirements. 

Präzise Requirements erfordern klare und stabile Prozesse.

Das ist aber oft dann, wenn der Datenbedarf groß wird, nicht der Fall. Wo also anfangen, wenn sowohl das Ziel als auch die Ausgangslage unklar sind? Ausgedehnte Requirementsphasen sind aus der Mode gekommen, seit agile Methoden vorherrschen. Der Wunsch nach schnellen Ergebnissen lässt oft vergessen, dass die ersten Ergebnisse noch weit von der eigentlich gewünschten Ausbaustufe entfernt sind. Und große Ziele, denen gegenüber sich die ersten Ergebnisse mickrig ausnehmen, wirken entmutigend, wenn schon der Weg zu den ersten Zielen länger als ein paar Tage war.

Sind moderne Analytics-Tools also hehre Zukunftsvisionen, die noch länger nicht Realität werden? Oder wenden sie sich an ein Publikum, das schon einige Stufen auf dem Weg zu Data-Wissen und Data-Erfahrung hinter sich hat – und aufgrund dieser Anforderungen eben nicht zahlreich ist?

Die Fähigkeit, zeitgemäße Werkzeuge zur Datananalyse verstehen und einsetzen zu können, wird einen doppelten Unterschied ausmachen: Sie setzt einen zeitgemäßen Wissensstand voraus, der einen Vorsprung bedeutet – und sie verschafft einen weiteren Vorsprung, der den Unterschied zu jenen, die am Anfang stehen, vergrößern wird.

Vor einigen Jahren haben wir über Media Literacy und allgemeine digitale Skills diskutiert, in recht deformierter Gestalt ist diese Diskussion mittlerweile sogar in Schulen und Lehrplänen angekommen – dort wird Media Literacy in der Gestalt von digitaler Grundbildung gelehrt als wäre Medienkompetenz alles, was an Digitalknowhow notwendig wäre.

Digitale Media Literacy ist eine wichtige Fähigkeit, um in der Gegenwart nicht völlig intellektuell zu verwahrlosen. Manchmal, das ist ein Missverständnis, werden technische oder fachliche Skills dabei in den Vordergrund gestellt. Dass das ein Irrtum ist, lassen allein die verirrten Geister in diversen Telegram-Channels erkennen. Als Nutzer sind sie auf der Höhe der Zeit, aber als Bürger sind sie hoffnungslos verwirrt.

Diese Differenz markiert einen der Übergänge zu Data Literacy. Auch hier sind technische Skills relevant, im Gegensatz zu Media Literacy sind sie etwas komplexer und auch im engeren Sinne tatsächlich technisch, indem sie auch über reines Oberflächen-Knowhow für Anwender hinausgehen. Noch relevanter aber wird der Bezug zu Kontext, zu Details im Prozess und zur konkreten Anwendung. Denn Daten werden überschätzt: Daten stehen im Ruf, aussagekräftige Stellvertreter der Wahrheit zu sein, auf Umwegen wird ihnen eine besondere, direktere Verbindung zu Realität nachgesagt. Wer die richtigen Daten kennt, trifft bessere Entscheidungen – das ist beliebter Konsens unter Data Scientists, Analysten und Big Data-Trittbrettfahrern

Diese Einschätzung setzt mathematische, technische und statistische Skills voraus. Sie setzt auch großes Fachbereichswissen voraus. Und sie setzt, das ist die wichtigste und schwierigste Entscheidung, voraus, dass auch bekannt ist, wann es genug ist. Welche Daten und welche Abhängigkeiten spielen eine Rolle, welche Faktoren gelten als Einflüsse, also als systemexterne Komponenten, und welche als Ergebnisse, also als Systembestandteile? Welche beobachteten Inputs haben zwar räumlichen oder zeitlichen Zusammenhang, wirken sich aber weder auf das eigentlich beobachtete Geschehen aus und sind letztlich völlig beliebig?

Statistik kann viele dieser Fragen vermeiden. Eine bunte Menge an Eingaben liefert ein Ergebnis. Möglicherweise lassen sich Teile davon sogar reproduzieren. Welche der als Einflüsse betrachteten Faktoren welchen Anteil an der Wirkung hatten, bleibt dabei unbekannt. Die Ausgangslage und eventuelle besondere Konstellationen, die sie beeinflussen, sind unscharf umrissen. Und jede mögliche Erklärung wirft wieder neue Fragen über Systemgrenzen, Ursache und Wirkung auf.

Klare Entscheidungskriterien sind hier selbst wieder laufender Veränderung unterworfen. Das braucht Erfahrung, das braucht verschiedene Perspektiven. Das braucht den Vorsprung, der sich nur über Jahre und mit Arbeit erreichen lässt und der den Unterschied macht. 

Aus dieser Erfahrung kommen allerdings auch die wichtigsten Argumente gegen Daten und ihre effiziente kommerzielle Nutzung. 

Es gilt, nicht nur die Frage nach dem Nutzen, sondern auch die Frage nach dem Sinn durchgängig automatisierter und datenbasierter Abläufe zu schaffen. Gerade die Verlagsbranche, in der Daten schon seit langem das Thema der (langen) Stunde sind, muss sich diese Sinnfrage angesichts vieler sich verändernder Rahmenbedingungen stellen. 

Wem nutzt es, Usern maßgeschneidert personalisierten Inhalt anzubieten? Langweilt das Nutzer oder befriedigt es sie? Welchen Sinn machen detailierte Erkenntnisse aus der Vergangenheit mit daraus abgeleiteten Prognosen für die Zukunft, wenn die sich daraus ergebenden Empfehlungen den eigenen Intentionen widersprechen? Wenn die notwendigen Handlungen außerhalb des eigenen Spielraums liegen? Oder wenn die sich als notwendig ergebenden Veränderungen dort stattfinden müssten, wo man selbst keinen Einfluss hat?

In der Praxis: Warum sind datenreiche Branchen wie Banken, Versicherungen, Energie- und Telekomanbieter so schlecht darin, ihren Datenreichtum produktiv einzusetzen?

Diese Verwirrungen spiegeln im großen das kleine tägliche Dilemma, dem jeder Datenanalyst immer wieder ausgesetzt ist. Jede Erkenntnis, jeder Schluss ist zugleich gewagt, banal, auf dünnem Eis basiert und eine Selbstverständlichkeit, zu deren Erkenntnis es keiner Analysen bedurft hätte.

Letztlich, das lehrt zumindest der Rückblick, ist es dann aber doch die Summe dieser vorerst unscheinbaren Erkenntnisse, die den Unterschied ausmacht. Sofern alle Beteiligten durchhalten.

Datenbasis

Daten bringen bessere Entscheidungen. Daten sind präzise, Zahlen lügen nicht, Algorithmen sind unbeirrt, Modelle bringen Unsichtbares zum Vorschein. Data Scientists, Analysts, Engineers und Big Data-Trittbrettfahrer sind sich dabei einig. 

Daten versprechen faktenbasierte, von Meinungen und Stimmungsschwankungen unberührte und von persönlichen Vorlieben und eingeschränkten Standpunkten befreite Entscheidungen.

Das setzt einiges voraus. 

Erstens impliziert diese Überzeugung eine normative Macht von Daten. Was die Daten sagen, das soll geschehen – denn sonst würde eine andere Instanz als die Daten selbst entscheiden, welcher Entscheidungsempfehlung nun wirklich gefolgt werden soll. 

Zweitens schließt diese Perspektive ein, dass Entscheidungen nirgendwo anders getroffen werden. Daten und deren Analyse führen entscheidungs- und alternativlos zu einem Ergebnis. Im Zuge dieses Prozesses ist bei jedem Schritt klar, was geschehen soll; Alternativen und Unklarheiten sind ausgeschlossen. Zur Entscheidung stehen nur die letzten und großen Fragen an, der Rest ist eindeutig. 

Drittens impliziert diese Perspektive, dass Entscheidungen getroffen werden – es gibt also Optionen und offene Punkte. Dabei wiederum können Konflikte mit der ersten Voraussetzung entstehen, wenn diese im Sinne eines strengen Determinismus interpretiert wird.

Die erste Voraussetzung mag Verhandlungssache sein, man kann das vereinbaren – auch wenn so gegensätzliche Welten wie Science Fiction-Ängste und europäische Grundrechte dagegen sprechen. Die Angst vor Robotern und künstlichen Intelligenzen trägt seit Jahrzehnten ganze Science Fiction Genres. Und die europäische Datenschutzgrundverordnung etwa sieht vor, das Menschen nicht zum Gegenstand rein automatisierter Entscheidungen werden dürfen. 

Die zweite Voraussetzung erinnert streckenweise an Lehrbuchdefinitionen von Algorithmen. Auch dort ist Eindeutigkeit zentrales Kriterium. Dennoch ist die umso zweifelhafter. In jeden einzelnen Schritt von Data Science und Data Analysis-Prozessen sind Entscheidungen notwendig, schließlich geschehen 80 Prozent jedes Datenprozesses noch lange bevor erste Algorithmen überhaupt konzipiert sind. Auch dabei sind sich Data Scientists und Analysts einig. 

Die dritte Voraussetzung lässt vermuten, dass nicht jeder Entscheidungsprozess so eindeutig und geradlinig verläuft, wie es für die ersten beiden Voraussetzungen notwendig wäre. Damit spielen Fragen der System- und Prozessabgrenzung eine Rolle: Welche Zusammenhänge werden betrachtet, welche können vernachlässigt werden? Welche Faktoren gelten als Einflüsse, welche als Folgen oder Handlungsoptionen? Auch dieses Bild nämlich kann wechseln.

Eine erste Entscheidung ist die Fragestellung an sich: Welches Problem soll analysiert werden, welche Fragestellungen sollen deutlich werden? Die Wahl des Datenerhebungs- oder beobachtungszeitraums sowie der eigentlich beobachteten oder gemessenen Gegenstände oder Prozesse sind weitere Entscheidungen. 

Methoden, Techniken, Werkzeuge, Speichermittel und -methoden sind ebenfalls Felder, die zu entscheidende Optionen aufwerfen. Messgrößen, Skalen, Kalibrierungen, Einheiten, Grenz- und Schwellwerte müssen auch festgelegt werden, bevor Analysen näher konzipiert werden. Und all diese Detailentscheidungen sind erst Zutaten, bevor darüber entschieden werden kann welche Berechnungs- und Auswertungsmethoden eingesetzt werden sollen. Bei keiner dieser Entscheidungen sind Alternativen zwingend entweder richtig oder falsch – es sind jeweils mehrere Optionen möglich. 

Es sei denn, Analysten kämen zu der Entscheidung, dass keine Optionen zulässig sind. Auch das ist möglich – etwa wenn Konsistenz zu Analysen aus der Vergangenheit gewährleistet sein muss; in der Praxis spielen regulatorische Vorgaben auch oft eine Rolle. Die Bandbreite dabei reicht von Handlungsvorgaben, die sich auf Berichte auswirken (wie es etwa in der Finanzbranche bei Risikobewertungen und Analysen üblich ist), bis zu pragmatisch banalen Vorschriften wie der Einigung auf gemeinsame Terminologien und Kennzahlen (etwa im Fall von Mediadatenreportings in der Verlagsbranche).

Wenn also eine Vielzahl an Entscheidungen notwendig sind, bevor Daten Entscheidungen treffen, denen zu folgen wir uns entschieden haben – wo finden dann diese Entscheidungen statt, die zu verbessern Data Science verspricht? Diese Frage wird in vielen Analysen zu Data Science in vielen Wissensdisziplinen ausgeblendet. 

Data Scientists betonen regelmäßigen hartnäckig die Notwendigkeit und Relevanz solider Datenvorbereitung. Sie bestehen auf der Wichtigkeit von konkretem Fachwissen. Sie beschwören Kontext als entscheidenden Indikator für berechnete Ergebnisse. Während der mathematisch-statistische Teil von Analysen klar geregelt ist, gelehrt und dokumentiert wird, und entgegen dieser Beteuerungen in Ausbildung, Job und Gehaltsverteilung den Löwenanteil von Data Science ausmacht, sind die so sehr betonten Soft Skills in der Analyse und Lehre von Data Science unverhältnismäßig unscharf gefasst. 

Fachwissen, Kontext, Zielsetzungen mischen sich auf eher unklare Art und Weise in Data Science Projekte. Sie sind relevante Aspekte – aber sie sind weder gut abgegrenzt noch als Probleme oder Fragestellungen scharf umrissen.  Liegt in der Klärung dieser Fragestellungen auch die Antworten auf die Fragen, wo über die besseren Entscheidungen in Data Science entschieden wird? 

Ich denke, die Frage lässt sich nicht konkret diskutieren ohne über grundlegende Technologiekonzepte zu sprechen. 

Die theoretisch-philosophische Auseinandersetzung mit Technologie kennt sehr unterschiedliche Ausprägungen. 

Deterministisch-fatalistische Konzepte sehen in Technologie den stärksten Treiber: Technologie prägt und dominiert Gesellschaft, technische Entwicklung sind unvermeidbare Konsequenzen und können durch soziale oder menschliche Entscheidungen nur geringfügig beeinflusst werden. Solche Perspektiven können dystopische und utopische Zukunftsszenarien sein, in denen Roboter, KI oder Überwachungstechnologie über die Menschen herrschen. Historisch-deterministische Auffassungen, die materielle Umstände für prägend halten, fallen ebenfalls in diese Kategorie – damit sind auch marxistische Gesellschaftsauffassungen, die die Verteilung materiell-techologischer Infrastrukturen wie Produktionsmittel für prägend halten, deterministisch-fatalistisch. 

Demgegenüber stehen antideterministische Konzepte, die Technologie als Ergebnis sozialer Handlungen verstehen. Technologie ist dabei kein treibender Akteur, sondern Ergebnis gesellschaftlicher Entwicklungen und Entscheidungen, Technologie ist in dieser Perspektive Mittel zum Zweck. Reine und eindeutige Ausprägungen sind selbstverständlich selten. Und so mischen andere Perspektiven Elemente aus beiden Konzepten und sehen Technologie weder als dominierende Instanz noch als bloßes Ergebnis sozialer Entscheidungen, aber als prägenden Akteur, der seinerseits durchaus Entwicklungen und Entscheidungen in Gang setzen kann, das aber nicht selbstständig tut. Berühmtes und pragmatisches Beispiel dafür ist Langdon Winners Perspektive auf Technologie, die Folgen zeitigt – allerdings über Artefakte, die Menschen in sozialen Prozessen geschaffen haben. Technische Verhältnisse können soziale Entwicklungen prägen – Winner illustrierte das mit dem Beispiel der Brücken zwischen New York und Long Island, die lange Zeit zu niedrig waren, um Busverkehr zu erlauben. Nach Long Island kam also nur, wer ein eigenes Auto hatte – und so wurde Long Island, nach Winner, zur begehrten Nobelgegend. 

Das ist eine, so kurz gefasst, hemdsärmelige Perspektive, die soziale Folgen von Technologie transparent macht, aber auch erkennen lässt, dass Technologie kein unabhängiger Akteur ist. Technologie wirkt über Artefakte, die ihrerseits wieder Ergebnis sozialer Entscheidungen sind. 

Eine andere Perspektive auf Technologie, sogar generell auf Artefakte als Akteure, möchte die Trennung von Sozialem und Natürlichem, von Natur und Kultur gleich überspringen. Bruno Latour stellt diese Trennung, auf die seiner Einschätzung die Moderne schlechthin beruht, infrage. Natur und Kultur, Technik und Gesellschaft sind in Handlungen, Prozessen und Artefakten so stark verwoben, dass sie nicht sinnvoll als getrennte Konzepte betrachtet werden können. 

Dinge können ebenso Akteure sein wie Menschen, umgekehrt wirken Menschen in und durch Dinge und beziehen Dinge umgekehrt ihre Wirkungskraft aus Menschen und deren Regeln – da lässt sich keine sinnvolle Trennlinie mehr ziehen. Berühmt sind Latours Analysen zur Soziologie des Türschließers, der nicht nur ein technisches Ding ist, sondern Regeln, Wünsche und Erwartungen verkörpert und damit auch soziale Realitäten schafft, oder zur Soziologie von Bodenschwellen, die aus Beton, Gesetzen und Polizisten gemacht sind.

Abhängig von der Perspektive auf Technologie ist auch die Frage, wo und von wem in technischen Prozessen Entscheidungen getroffen werden, sehr unterschiedlich einzuschätzen. 

In der deterministischen Perspektive sind Entscheidungen weder notwendig noch möglich. Prozesse sind in Gang gesetzt und führen gemäß ihrer Regeln zu Ergebnissen. Diskussionsbedarf gibt es lediglich rund um die Frage, wo und wie technische Prozesse in Gang gesetzt werden. Kann das streng genommen jemals möglich sein? Dürfte es nicht, in einer stringent deterministischen Perspektive, nur einen einzigen technischen Prozess geben, der sich eben immer weiter verzweigt?

In antideterministischen Konzeptionen dagegen sind laufend Entscheidungen notwendig. Nichts geschieht von selbst, Wahlfreiheit ist immer gegeben. Eine Mischform könnte sozialer Determinismus sein, der soziale Abläufe als zwingend, ihre Umgebung aber als kontingent betrachtet – auch dann aber sind Entscheidungen notwendig.

Mischformen wie Winner sie skizziert, lenken die Aufmerksamkeit auf wechselnde Abhängigkeiten zwischen Technik und Sozialem, Kultur und Natur. Netzwerktheorien wie bei Latour lassen Grenzen überhaupt verschwinden. Damit ist auch die Richtung und Gewichtung von Einflüssen schwer feststellbar: Wenn es in dichten Aktor-Netzwerken Entscheidungen gibt – wer trifft diese? Wer wirkt auf wen? Geschehen Entwicklungen als eigendynamische Prozesse oder werden sie von jemand oder etwas vorangetrieben? Welchen Einfluss haben Gestaltung und Konzeption des Netzwerkes, also die Frage, was in welchem Zusammenhang Teil des Netzwerks ist und was nicht?

Verlangt diese Auffassung letztlich einen universellen Einheitsprozess wie die streng deterministische Konzeption, in der Technologie alles eigengesetzlich regelt? Allerdings kann es mehrere Netzwerke geben, deren Relevanz kann situationsabhängig wechseln. Das eröffnet wiederum Spielraum für Entscheidungen.

Was lassen diese Technologiekonzepte über das Entscheidungsproblem in Data Science erkennen?

Funktioniert die Auffassung von besseren und automatisierten Entscheidungen nur in deterministischen Technologiekonzepten? Wenn das so wäre, wozu bräuchten wir dann überhaupt Data Science? Der Technologieprozess nimmt ohnehin seinen Lauf.

Können in antideterministischen Konzepten Entscheidungen unabhängig getroffen werden? Gibt es hier nicht letztlich immer einen weiteren Grund, dessen Relevanz geltend gemacht werden kann?

Inwiefern lassen Netzwerkkonzepte noch ausreichend Eindeutigkeit zu, um Entscheidungen, Endgültigkeit und Urteile über Qualität (also über bessere und schlechtere Entscheidungen) zuzulassen?

Und wie weit sind solche Fragestellungen für praktische Data Science-Prozesse relevant?

Die Vielfalt möglicher Perspektiven kann zur Kenntnis genommen werden  – das wäre bereits ein Verzicht auf den Anspruch, bessere und unabhängige Entscheidungen zu ermöglichen. Denn bei einer gleichberechtigten Vielfalt von Optionen wäre zuallererst eine Entscheidung zwischen Optionen notwendig. Erst nach dieser Entscheidung, die außerhalb des Data Science-Prozesses stattfindet, könnten die Entscheidungen des Data Science-Prozesses angestoßen werden.

Eine andere Option zum Umgang mit dieser Puralität ist die Entwicklung oder Adaption eines Technologiebegriffs, der dieser Situation gerecht wird.Das funktioniert nicht ohne einige Data Science-Szenarien näher zu betrachten, um einen solchen Technologiebegriff dann auch in konkreten Anwendungen beobachten zu können.

Das ist eine andere Geschichte.

Für jetzt muss eine Vermutung ausreichen: Behauptungen über Eindeutigkeit und Entscheidungsqualität von Data Science werden umso leichter und entschlossener aufgestellt, je weiter Fachwissen einerseits und die konkrete Überprüfbarkeit der getroffenen Entscheidungen andererseits entfernt sind. Unsaubere Praxis dagegen wirft Fragen auf, die wieder Entscheidungen notwendig machen.

Norbert Elias, Über den Prozess der Zivilisation

Das Ungewöhnlichste an einem zweibändigen über 1000 Seiten langen Buch über die Geschichte der Zivilisation ist aus der heutigen Perspektive, in einer Zeit von Klima-, Corona-, Energiekrise und Krieg, die Hartnäckigkeit, sich mit derart langen Zeiträumen zu beschäftigen.  Macht dieseer große Horizont heute noch Sinn?, drängt sich als Frage auf. Haben wir noch so viel Zeit für so große Entwürfe?

Das ist für viele vermutlich nachvollziehbar. Es ist ebenso nachvollziehbar, wie es letztlich absurd ist: Die Geschichte, mit der sich Norbert Elias beschäftigt, war immer eine krisenreiche, kriegerische, gewalterfüllte, eine in der, im Gegenteil, in Elias‘ Perspektive, die Dinge sich  zum besseren wenden. Zivilisationen entstehen, Menschen lernen, sich zu kontrollieren, die Welt wird zu einem ruhigeren und weniger gefährlichen Ort. Dieser grundlegende Optimismus steht in deutlichem Gegensatz zu etwa Hobsbawms Pessimismus, für den noch nicht einmal mit dem Zweiten Weltkrieg der Gipfel der Grausamkeit erreicht war.

Affektkontrolle als Prozess

Elias‘ Werk ist auch noch aus anderen Perspektiven anachronistisch. Elias hat eine Idee, eine Ausgangsthese von der zunehmenden Affektkontrolle trägt die ganzen 1000 Seiten. Anders als ähnliche sozialwissenschaftlich-historische Bücher aus der gleichen Zeit (also aus der späten Zwischenkriegszeit) schöpft die Geschichte der Zivilisation dabei nicht aus dem vollen Register von Rechts-, Politik-, Wirtschafts-, Kultur-, Literatur- oder Kunstgeschichte über die Jahrhunderte und in vielen Teilgebieten (wie etwa Beauvoirs „deuxième sexe“) über die Jahrunderte hinweg und in Hinblick auf verschiedenste Themenbereiche. Elias bleibt sehr konzentriert auf zwei Kernthesen. Die eine ist inhaltlicher Natur – die Geschichte beobachtet zunehmende Affektkontrolle –, die andere ist methodischer Natur: Elias betont die Prozesshaftigkeit von Geschichte, immer wieder weist er darauf hin, dass sich Thesen nicht an Momenten oder in statischen Diagnosen argumentieren lassen. Sie sind auf Entwicklungen und Bewegungen angewiesen, den in der Theorie beschriebenen Reinzustand gibt es im Feld nicht.

Die Affektkontrolle scheint Elias selbstverständlich gewesen zu sein – er postuliert sie und liefert viele Quellen. Die Prozessorientierung muss in seinen Augen eine neuartige Methode und Diagnose gewesen sein, er weist immer wieder darauf hin und spricht dabei auch imaginäre KritikerInnen oder KollegInnen an.

Die Prozessorientierung bezieht sich schließlich nicht nur auf historische Ereignisse, auch Identitäten, letztlich der Mensch selbst sind dynamische Prozesse. Elias weicht die Grenze zwischen Innerem und Äußerem in der Analyse von Menschen, Gesellschaften und Einflüssen auf und wird damit zu einem frühen Protagonisten von external und extended mind-Theorien und von Theorien, wie Materialität und Artefaktualität von Wissen und Gedanken einbeziehen. Der Mensch ist also kein homo clausus.

Der unabgegrenzte Mensch

Diese Unabgeschlossenheit mündet für Elias in einer Suche nach Abgeschlossenem, Fixiertem, Absolutem – darin, dass ist eine Nebenlinie des Texts, sieht er das Aufkommen von Nationalismus oder Sozialismus begründet. Beide schaffen Entitäten, die über den einzelnen hinausgehen und dessen Unsicherheit und Unabgeschlossenheit etwas Fixes und Eindeutiges gegenüberstellen.

Elias‘ Diagnose der Unabgegrenztheit des Menschen stammt aus den 30er Jahren. Sowohl soziale als auch nationale Absolutheiten waren in dieser Zeit bereits problematisch geworden.

Spätere Unabgegrenztheits-Diagnosen konzentrierten sich auf andere Schwerpunkte. Latour etwa postulierte Unabgrenztheit als notwendige Position, um Irrtümer der Moderne zu korrigieren: Die Abgrenzung von Natur und Kultur, Umwelt und Gesellschaft, Unberührtem und Technik sei nicht nur nicht haltbar, sondern ein folgenschwerer Irrtum der Moderne, der zur Überschätzung von Technik und Kontrollierbarkeit führt. Die Frage ist nun, ob Latour damit die Diagnose von Elias fünfzig Jahre später (in den 80er Jahren) variiert – oder ob Latours Postulat auf falschen Voraussetzungen beruht, weil die vorausgesetzte strenge Trennung von Natur und Kultur, von Mensch und Umwelt so streng nicht wahr, wenn Elias schon recht hatte. (Latours Postulat funktioniert meines Erachtens generell nur vor einer Technologie- und Kontrollgläubigkeit, wie es sie zuletzt wohl in den 60er Jahren gab. Spätestens seit dem Aufkommen von Umweltbewegungen, Feminismus und anderen Protestbewegungen ist diese Diagnose eigentlich nicht mehr haltbar.)

Zurück zum Inhalt. Affektkontrolle als Antrieb der Zivilisation schreitet für Elias auch deshalb konstant voran, weil Kooperation notwendig wird. Das erinnert an die Supercooperators-These des Evolutionsforschers Martin Nowak, ist allerdings keine ganz so neue These. Polybius skizzierte im zweiten Jahrhundert bC seine Idee eines Verfassungskreislaufs zwischen Demokratisierung und Tyrannei und hielt damals schon fest, dass die Bauwirtschaft im römischen Reich möglicherweise mehr zu gegenseitigem Respekt und Demokratisierung beigetragen habe, als diverse Verfassungsbemühungen – schließlich erfordert das Bauen (vor allem in entfernten Reichsteilen) klare und gut geregelte Kooperation über große Distanzen und lange Zeiträume hinweg.

Von höfischen Regeln zum anonymen “Es gehört sich so”

Elias setzt seine Beobachtungen zur Zivilisierung mit 16. Jahrhundert mit den Erziehungsempfehlungen des Erasmus von Rotterdam an. Diese ganz pragmatischen Richtlinien (nicht öffentlich rülpsen und furzen, Taschentücher zum Schneuzen verwenden) verwenden den Begriff der Zivilisation und setzen ihn großteils mit Benehmen und eben mit Affektkontrolle gleich.

Erasmus‘ Empfehlungen verbreiteten sich schnell; Elias analysiert, wie sich zahlreiche fast wortgleiche Richtlinien in unterschiedlichen Schriften unterschiedlicher Autoren fanden. Im Lauf der Zeit veränderte sich dabei die Ausrichtung der Empfehlungen. Ursprünglich waren es Regeln für junge Aristokraten, dann wurden es Empfehlungen für alle, die bei Hof reüssieren wollten. Mit dieser Verbreiterung ging eine weitere Anonymisierung des Absenders der Empfehlungen einher. Aus „es ist höfisch“ wurde ein anonymes und abstraktes „man macht das so“. Je anonymer der Absender ist, desto schwerer ist es , sich von dessen Empfehlungen oder ihm selbst abzugrenzen. Die Regeln gelten. Wer ihnen nicht gerecht wird, gehört nicht nur nicht dazu, sondern wird zum allgemeinen Außenseiter, der nicht Teil einer nur unscharf bestimmten Gesellschaft ist.

Arbeit als Abgrenzungsstrategie

Affektkontrolle als Konditionierung und Fassonierung schafft bestimmte Zielvorstellungen und regt zu Verhaltensweisen an. Elias erklärt so auch das Entstehen von bürgerlicher Arbeit: Während der Adel nicht arbeitete, gehörte es zu den konstituierenden Regeln der bürgerlichen Gesellschaft, sich durch Arbeit – auch wenn keine materielle Notwendigkeit dazu bestand – vom Adel abzugrenzen. Mit Arbeit gingen weitere Regelungen und Einschränkungen wie etwa ein strukturierter Tagesablauf einher. Die kurzen Passagen erinnern auch an Edward Thompsons „The Making of the Englisch Working Class“ – allerdings interpretiert Thompson die Entstehung von Arbeit und geregelten Tagesabläufen als disziplinierende Zwangsmaßnahme gegenüber einer armen Landbevölkerung, die für Arbeitseinsätze gebraucht wurde.

Im Verhältnis von bürgerlichen und Adeligen in Elias Interpretation führen klarere Regeln (etwa auch in der Belehnung von Grundstücken, in der Erb- und Machtfolge, in der Trennung von Adel und Bürgerlichen) zu einer Verfestigung von Besitzverhältnissen, die soziale Mobilität grundsätzlich reduzierte – damit aber umgekehrt erst auch mehr Mobilität notwendig machte. Wanderbewegungen und Eroberungszüge, etwa auch die Kreuzzüge, schafften neue Horizonte und vergrößerten zu verteilende Besitztümer. Elias sieht das als Individualisierungsschub, der erneut strengere und klarere Regeln notwendig machte.

Gehenkte am Bildrand

Elias analysiert eine Fülle von Quellen von Schriften über Normen bis zu Bildern, um seine Thesen zu untermauern. Details sind manchmal ermüdend, manchmal bemerkenswert: Auf Darstellungen ritterlicher geprägter Landschaftsszenen etwa interpretiert Elias beiläufig im Hintergrund oder am Bildrand abgebildete Gehenkte als Indiz dafür, dass die Macht des Ritters unumschränkt, sein lokales Gewaltmonopol aber auch keine große Sache war. Es war selbstverständlich. Hätte man es für relevant oder bemerkenswert gehalten, dann wären die Gehenkten zentraler im Bild gewesen. Auch bemerkenswert ist Elias Optimismus, der auch nach dem Ersten Weltkrieg und in den 30er Jahren noch von Fortschritt und dauerhafter sozialer Entwicklung hin zum besseren überzeugt ist. Es ist sogar davon überzeugt, dass der Prozess der Zivilisierung weiter voranschreiten wird; der nächste relevante Meilenstein besteht für ihn in der laufenden Ausdehnung des Geltungsbereichs einzelner Zivilisierungsvorschriften. Galten Regeln erst nur für kleine höfische Gesellschaften, so vergrößerte sich deren Geltungsbereich mit fortschreitender politischer Zentralisierung. Mit der Entstehung bürgerlicher Gesellschaften vergrößerte sich auch der Kreis der zivilisierbaren Subjekte. Eine nächste Stufe der Zivilisation wäre für Elias dann erreicht, wenn Zivilisationsregeln auch für Beziehungen von Staaten untereinander gelten … Davon entfernen wir uns zur Zeit wieder ein Stück.

Wie kann man Elias heute noch lesen? Ein Punkt ist die Betrachtung langer Zeiträume, aus denen auch in die Zukunft projiziert wird. Das wirkt in einer Zeit dramatischer Umbrüche anachronistisch, allerdings waren auch die 30er Jahre nicht gerade von Stabilität geprägt.

Sind wir heute zu individuell für Elias’ Zivilisation?

Andere Aspekte, sie sich möglicherweise gerade verändern, sind die Abstraktion und Anonymisierung der Geltungsquellen von Regeln, die dadurch immer universeller werden. Heute werden Regeln wieder individueller und konkreter – sie sind auf Individuen und Gruppen bezogen, sie verändern sich abhängig von den gerade betroffenen oder aktiven Gruppen. Sie werden auch schwerer verständlich, es gehört geradezu zu ihrem Wesen, sich nur Eingeweihten vollends zu erschließen. Ist das auch ein weiteres Fortschreiten von Zivilisation, indem komplexe individualisierte Regeln Kulturen und Gesellschaften schaffen, die weit von dem entfernt sind, was andere als natürlich empfinden, die „natürlich“ im Gegenteil sogar zu einem Kampfbegriff stilisieren, der allenfalls noch von jenen verwendet wird, die keine Ahnung haben.

Damit ändert sich auch die Idee vom unabgeschlossenen oder unabgegrenzten Menschen. Unabgeschlossen und flexibel bleibt der Mensch zwar weiterhin – aber manche (besonders Zivilisierte?) wird Abgrenzung umso relevanter. Abgrenzung als Erläuterung von Unterschieden schafft grundsätzlich Beziehungen, die Betonung von Unterschieden nimmt Bezug und erklärt dadurch. Abgrenzung als Kommunikationsverweigerung dagegen kappt diese Verbindungen.

Hanna Arendt beschrieb mit diesen gekappten Verbindungen ein Konzept des Bösen. Und auch in Elias‘ Argumentation bewegt sich eine auf Abgrenzung, Gegensätze und Nichtverhandelbarkeit pochende Gesellschaft weg von Zivilisation.

Unbeantwortet bleibt die Frage, ob das besser oder schlechter ist. Und für wen.