Arthur Rimbaud, Lettres du Harar

Arthur Rimbaud hätte man ja eher als coolen Hund in Erinnerung. Poesie, Eskapaden, dann die Ausstiegsszenarien Seefahrt und Afrika und ein paar wilde Jahre als Draufgänger, die dann halt letztlich das Leben kosten. Nach einer Reise nach Harar habe ich seine Briefe auf Harar, Djibouti und Aden gelesen, und die zeichnen ein deutlich anderes Bild.

In seinen ersten Reisejahren war Rimbaud der neugierige Unternehmer, der alles mögliche lernen und ausprobieren wollte. Das lassen seine Buchbestellungen vermuten: Rimbaud ließ sich meterweise Fachliteratur schicken – über Landwirtschaft, Viehzucht, Eisenbahnbau und diverse andere technische Fächer. 

In die Pläne mischt sich bald Enttäuschung. Die Bezahlung ist mau, die Geschäfte sind wenig aufregend, Chefs und Geschäftspartner halten ihre Versprechen nicht, alles dauert. Schon nach relativ kurzer Zeit redet Rimbaud von Rückkehr: Sein Ziel ist es, Geld zu sparen, es anzulegen und auch in Europa von den Zinsen leben zu können. Vom draufgängerischen Aussteiger keine Spur. Rimbaud beklagt auch, dass er sein Geld weder anlegen noch jemandem anvertrauen kann – es trägt es immer bei sich in seinem Gürtel und klagt über Hüftschmerzen. Der Geldgürtel aus Goldfrancs wiegt acht Kilo. 

Dann mischen sich rassistische Töne über die dummen und faulen Einheimischen in die Briefe; Rimbaud scheint sich mit allen zu überwerfen: Mit den Menschen vor Ort, seinen Geschäftspartnern, den Kunden und den Behörden. Menelik II., Kaiser von Äthiopien, überlistet ihn bei einem Waffendeal und zwingt ihn, ihm die ganze Lieferung zum Vorteilspreis zu überlassen. Nach dem Tod eines seiner Geschäftspartner kassieren dessen Gläubiger angebliche Schulden bei Rimbaud doppelt. Die französischen Behörden verweigern ihm neuerliche Lizenzen für den Waffenhandel. Eine Geschäftsidee, eine neue Maultiersorte zu züchten kommt nicht vom Fleck; Rimbaud sucht zwar per Brief im Nahen Osten nach den besten Eseln, viel weiter entwickelt sich die Idee aber offenbar nicht. 

Dann beginnen die Schmerzen in den Beinen. Rimbaud lässt sich Kompressionsstrümpfe schicken, besucht verschiedene Ärzte, es hilft nichts. So sehr er auch über die Hitze gejammert hat, so abschreckend bleibt dennoch die Vorstellung, ins kalte Europa zurückzukehren. Dann wagt er doch die Überfahrt. 

In Marseille wird ihm ein Bein abgenommen. Zu den Schmerzen gesellt sich die Angst: Wie wird er einbeinig leben können? Und gilt der Rückkehrer der französischen Armee als Deserteur, wird ihn das Militär verfolgen. 

Rimbaud besucht seine Familie für einige Wochen, hadert mit den Ärzten, schlechter Wundheilung und dem Holzbein und stirbt einige Monate nach der Amputation in Marseille. 

Don Ihde: Technology and the Lifeworld

Heute ist der Begriff der Kulturtechnik mit all seinen befreundeten Begriffen und Derivaten so weit verbreitet, dass man sich erst einmal versichern muss, was damit gemeint war. Reden wir von der klassischen Bedeutung der Kultivierung der Natur mit verschiedenen Technologien? Beziehen wir uns auf kulturelle Errungenschaften und deren Beherrschung? Oder reden wir von unterschiedlich vermittelten und zielorientierten Strategien, mit denen wir auf unsere Umgebung einwirken? 

Don Ihde arbeitete in den 80er Jahren zu einem neuen Technologiebegriff, das Buch erschien 1990 und für Ihde war es damals noch notwendig, vorauszuschicken, das er Technologie als kulturelles Instrument betrachtet. Das war eine relevante Abgrenzung gegenüber diversen deterministischen Positionen, die Technologie als selbstständigen Block betrachteten, der entweder (technisch-deterministisch) Natur und Gesellschaft bestimmte oder (sozial-deterministisch) von der Gesellschaft bestimmt wurde, jedenfalls aber etwas von Natur und Gesellschaft verschiedenes war.

Ihde muss deshalb auch ausholen und erklären, dass es keinen technologiefreien Natur- oder Urzustand geben kann. Jeder Stock, jeder Stein, der zwischen seinem Anwender und einem Ziel vermittelt, ist Technologie.

Mit seiner Version, eine Trennung von Natur und Technik zu hinterfragen, erinnert Ihde auf den ersten Blick an Latour, er setzt allerdings andere Schwerpunkte. Ihde kritisiert auch die Vorstellung, bewegliche oder relative Konzepte von einer unabhängigen Position aus betrachten zu können, die letztlich selbst auch wieder relativiert werden können. Es muss zumindest auch deutlich gemacht werden, wie die vermeintlich bevorzugte Position zu ihrer bevorzugten Position gekommen ist und welches Konzept der Privilegiertheit dadurch zum Ausdruck gebracht wird. Diese Form der Reflexivität (in dem Sinn, dass sich die eigenen Ansprüche an andere Positionen auch auf die eigenen Positionen und deren Fundamente anwenden lassen müssen) erinnert an David Bloors Strong Programme der Wissenssoziologie und die Mahnung, dass Wahrheit nicht durch mangelnde Rationalität verstellt wird – nicht weil das nicht so wäre, sondern weil sowohl Wahrheit als auch Rationalität bewegliche Begriffe sind. Wir befinden uns nicht auf einem immer klarer werdenden Königsweg zur Klarheit, sondern auf verschiedenen Wegen, die teilweise auch wieder revidiert werden müssen.

Und natürlich klingt auch Dewey hier an, wenn dieser feststellt, dass Notwendigkeit purer Aberglaube ist.

Wahrnehmung ist Gestaltung, Beobachtung erst recht

Ihde möchte mit seinen Hinweisen auf die wandelbare Relevanz von Positionen vor allem die Situiertheit von Wahrnehmungen und Perspektiven deutlich machen. Jede Auswahl einer Perspektive (oder schon eines Themas, das in die Perspektive genommen wird) ist Auswahl und Einschränkung und damit nicht nur Abbildung, sondern auch Gestaltung. Phänomenologie beschäftigt sich nicht nur mit Erscheinungen, also mit Oberflächen von Dingen, die so gegeben sind. Die Wahrnehmung, die in der Phänomenologie thematisiert wird, gestaltet auch. Damit sind der Wahrnehmende und dessen Position unverzichtbarer Bestandteil der Wahrnehmung. Es gibt keine bloße Wahrnehmung und kein Ding an sich, es gibt immer nur Wahrnehmung als etwas und Wahrnehmung von einer Position aus.

Wird Wahrnehmung damit ein überdehnter überstrapazierter Begriff? 

Ihde schlägt vor, Wahrnehmung, so wie Husserl sie in den Mittelpunkt rückt, schärfer zu beschreiben: Ihde unterscheidet zwischen Mikroperzeption als Sinneswahrnehmung und Makroperzeption als kulturell und hermeneutisch vermittelter Wahrnehmung, die also noch deutlicher auch eine Interpretations- und damit Gestaltungsleistung enthält.

Was haben all diese Überlegungen mit Technologie zu tun? 

Technologie ist für Ihde zumindest in Hinblick auf Wahrnehmung, Wissenschaft und Erkenntnis in Mittel, Sinne und Wahrnehmungsfelder zu erweitern. Das schließt an alte Technologie- und Wissenschaftskonzeptionen an, in denen Instrumente eine zentrale Rolle spielen.

Neue Techniken und Instrumente bringen neue Wahrnehmungen und neue Erkenntnisse; damit verändern sie den Wahrnehmenden und die Wahrnehmung. Ihde unterscheidet diverse Beziehungsformen, in denen neue Erkenntnisse und Wahrnehmungen geschaffen werden. Damit rücken Fragen des Lernens und Vermittelns in den Blickpunkt: Wie lernen wir von neuen Techniken, wie ordnen wir neue, bislang unbekannte Informationen ein, wie erkennen und bewerten wir sie überhaupt – und wie wird aus Signalen, Daten, Geräuschen oder Flecken Information?

Technologie verändert Wahrnehmung

Ihde streift, vermutlich eher unabsichtlich, datenrelevante Fragen: Welche Signal- oder Textarten vermitteln wieviel Information, wie direkt, und auf welchen Kanälen? Ihde räumt dabei visuellen Darstellungsformen einen gewissen Vorrang ein. Grafiken etwa erlauben für ihn nicht nur hermeneutisches Verstehen (also Makroperzeption), sie vermitteln auch auf sinnlicher anschaulicher Ebene, funktionieren also auch im Bereich der Mikroperzeption. Schriftlicher Text, vor allem in Alphabeten kodifiziert, erlaubt nur hermeneutisches Verstehen, hier sind größere Übersetzungsleistungen notwendig.

Diese Sonderstellung von Visualisierungen, also von aufbereiteten Daten, schließt an Ideen zur Sonderstellung von Daten an, die im Datendiskurs öfter vorgebracht werden. So wie in den meisten Fällen liefert aber auch Ihde kein Argument für den direkten Vorteil von Daten. Sie können ihren Vorsprung erst dann umsetzen, wenn sie aufbereitet sind und einem uns bekannten Wahrnehmungsschema entsprechen. Daten nehmen hier dennoch insofern eine Sonderstellung ein, als sie eine Doppelrolle einnehmen: Sie sind Material und Werkzeug zugleich; sie liefern die Bausteine und den Bauplan und sie sind gleichzeitig Repräsentation und Relation. Daten bilden etwas ab (als Relation), indem sie die Grundlage für Darstellungsformen schaffen (also Repräsentation fördern), sie müssen den Bauplan für ihre eigene Anordnung mitbringen, weil sie sonst nichtssagendes Rauschen wären. Sie werden anhand eines Bauplans geschaffen, obwohl sie für sich in Anspruch nehmen sie könnten als unvoreingenommen Vorgefundenes betrachtet werden.

Das wissen wir, unklar ist allerdings, in welcher Reihenfolge das geschieht, welche Wirkungen mit welchen Ursachen zusammenhängen und welche Rolle unsere Wahrnehmung dabei spielt, insbesondere, inwieweit sie dabei gestalterisch eingreift. Mit mehr Optionen (und Technik schafft mehr Optionen) werden Entscheidungen immer relevanter: Mehr Entscheidungen müssen getroffen werden, sie haben auch weitreichendere Konsequenzen (In Analysen zu Data Science-Prozesse und der Frage, wo in diesen Prozessen Entscheidungen getroffen werden (Am Ende? Am Anfang? Mit jedem Schritt?) sind diese Fragestellungen zentral.).

Technik und Wissenschaft: Vernetzte Zusammenhänge oder klare Abgrenzungen?

Ihde führt das nicht viel weiter aus. Seine Mission ist mit dem Verdeutlichen dieser Verzweigungen und Abhängigkeiten erfüllt. Wir erinnern uns: Ihde Anliegen war es, Technologie als kulturelles Instrument sichtbar zu machen. Technologie ist nicht unabhängig von Welt, Natur oder Gesellschaft zu betrachten, sondern in all diese Bereiche verwoben. Fraglich ist eher, ob es etwas wie Technologie allein, Technik an sich gibt, oder ob es Technologie, so wie für Ihde generell alles, nur in Kontexten und Beziehungen gibt. 

Ihde schafft also ein Bild von Technik und Technologie als Netzwerke von Beziehungen. Technologie ist eine vermittelnde Verbindung, nicht etwas, das abseits der Dinge steht oder von außen an diese herangetragen wird. Eine Uhr misst nicht nur die Zeit, die schafft eine konkrete Vorstellung von Zeit und durch diese Strukturierung schafft sie eigentlich überhaupt erst das, was sie in anderen Technik-Perspektiven nur zu messen vorgibt.

Bei all der Konzentration darauf, den Beziehungscharakter von Technik herauszuarbeiten, kann man Ihde durchaus entgegenhalten, wenig Substantielles zum Technikbegriff gesagt zu haben. Was ist nun Technik? Wie und wovon grenzen wir sie ab? Was ist keine Technik?

In den 80er Jahren war das ein neuartiger Weg; heute, wo sich dieser Gedanke durchgesetzt hat, wünscht man sich eher auch wieder konkrete Diagnosen. Ihde verweigert das und sieht in der Unschärfe neue relevante Wege zum Technologieverständnis.

Allerdings diagnostizierte auch Ihde schon Gegenwind zu diesen Positionen: In den 80er Jahren wurden erstmals seit langem wieder Sparmaßnahmen und Kürzungen in politischen Budgets diskutiert, allen voran in Thatcher-England; einige davon betrafen Wissenschaft und Universitäten. Viele Wissenschaftler hatten damals beklagt, dass diese Kürzungen auch auf die Aufweichung des Wissenschaftsbegriffs zurückzuführen seien. Wissenschaft, die einst harte Fakten geliefert habe, sei nun in vagen Relativismen verstrickt, die sogar Gesetze der Technik und Physik in Frage stellten – die Postmoderne dräute herauf (noch bevor Quantenmechanik dann zur vagen Generalentschuldigung jeder Unsicherheit wurde). Einen derart aufgeweichten Wissenschaftsbegriff könne niemand mehr finanzieren wollen, es sei kein Wunder, dass sich bei derart zerstörerischer Kritik von innen die Öffentlichkeit abwende. Wissenschaft und Technologie müssten mit Klarheit vorangehen. Ihde verwehrte sich dagegen – und rückte zusätzlich damals so avantgarditische Themen wie Umweltzerstörung, Nachhaltigkeit und Klimawandel in den Mittelpunkt des Philosophierens über Technik und Technikfolgen.

Zur gleichen Zeit entstanden im übrigen auch die ersten formellen Ansätze von Wissenschaftskommunikation, die ihrerseits auch noch ganz darauf ausgerichtet waren, Defizite im Publikum zu beseitigen, das der Wissenschaft eben noch nicht ausreichend Respekt und Aufmerksamkeit entgegenbringe, um die Klarheit und den Vorsprung der Wissenschaft zu schätzen. Wissenschaftskommunikation ist seither lange Wege zwischen Evangelismus, Clownerie, Wissenschaftsüberforderung, Besserwisserei und solider Öffentlichkeitsarbeit gegangen

Wo Ihde mit der Auflösung von Grenzen zwischen Technologie und Lebenswelten beschäftigt war, wünschen sich manche heute wieder schärfere Grenzen, mehr Respekt und klarere Ansagen. 

Das ist verständlich. Es ist aber nicht nur angesichts von Ihdes Ausführungen auch fragwürdig, Technik und Wissenschaft als losgelöste unabhängige Autoritäten betrachten zu wollen. 

Ihde hat die Verworrenheit von Technologie und Lebenswelt deutlich herausgestellt, seine Konzepte sind allerdings nicht besonders produktiv operationalisierbar. Im Vorwort deutet Ihde auch an, dass ein Text nur der erste einer Reihe ist, die neue und andere Technologiebegriffe herausarbeiten sollen. 

Wesentlich bleibt aber der Beziehungsaspekt, der integraler Bestandteil auch von Konzepten wie Technologie ist und auf vielfache Weise beschrieben wird: Ihde unterscheidet embodiment, hermeneutic, alterity und background relations. Vor allem die Analyse der alterity Relations (die Idee vom relevanten Anderen ist dabei von Lévinas entlehnt) eignet sich, um monolithische Technologiekonzepte in beziehungsorientierte Konzepte zurückzuübersetzen, Entropomorphismen zu entlarven und Debatten um Agency und Verantwortung von (nicht für) Maschinen anders zu betrachten.

Daten lösen keine Probleme

Daten liefern Antworten. Daten helfen zu besseren Entscheidungen. Daten lösen Probleme. Das ist das Credo jener, die evidenzbasierte Entscheidungen wollen, die Daten das Primat über Emotion und Vorlieben einräumen möchten und die Daten als Königsweg zur unverstellten Rationalität betrachten.

Diese Einstellung ist nicht selten. 

Und sie ist in etwa so absurd wie die Vorstellung, Probleme und Folgen des Klimawandels wären mit der Erfindung des Thermometers ausreichend bekämpft.

Daten können vieles sein. In einer technisierten, heute vorherrschenden Perspektive, sind es zähl- und sortierbare Platzhalter, die auf etwas anderes verweisen. Daten unterscheiden sich nicht wesentlich von Alphabeten: Sie bedürfen einer Konvention, um Bedeutung zu schaffen. Sie sind auf Beziehungen angewiesen, um Sinn zu ergeben. Sie können beliebig kombiniert werden, ergeben dann aber nicht unbedingt konkrete Aussagen. 

Manchmal vermutet man in Daten insofern eine Sonderstellung, als sie besonders klare, eindeutige und repräsentative Repräsentanten ihrer Art sein sollen. Diese Sonderstellung wird ihnen aber vor allem deshalb zuteil, weil sie ihnen eingeräumt wird. Das Konzept ist zirkulär – aber geschlossene Kreisläufe erhalten sich schließlich leichter selbst und sind weniger anfällig für Störungen von außen. 

Thermometer sind nun auch besonders repräsentative Repräsentanten ihrer Art (wenn wir ihre digitalen Erscheinungsbilder mal außer Acht lassen). Säulen steigen, Zeiger schlagen aus – das sind eindeutige Datenvisualisierungen, die uns zeigen: Es wird mehr. Die Temperatur steigt. Wir können das eindeutig ablesen, wir haben Interpretationsmöglichkeiten, die keiner Übersetzung, keines Thesaurus bedürfen, die noch leichter verständlich und deutlicher ist, als unsere Alltagssprache.

Das Thermometer hat alle Daten-, Repräsentations- und Relationsprobleme rund um Temperaturfragen gelöst, verschiedene Skalen und Kalibrierungen funktionieren nach dem gleichen Muster.

Ein simples Säulenthermometer kann als Sinnbild für komplexe Datenaggregierungen und -visualisierungen gelten und hat vieles auf den Punkt gebracht. Die Existenz des Thermometers aber hat noch nichts dazu beigetragen, Probleme und Folgen des Klimawandels zu lösen. Sie wird es auch nicht tun.

Vielleicht ist die Existenz des Thermometers unverzichtbar, um Probleme und Folgen des Klimawandels feststellen, beschreiben und kategorisieren zu können. Das wäre viel. Aber warum tun wir so, als könnten wir von anderen Daten und ihren Erscheinungsformen so leicht so viel mehr erwarten?

Datenwirksamkeit und Magie

Daten sind nützlich, davon sind alle überzeugt. Vielleicht sind sie auch gefährlich. Eventuell sogar wertvoll.

Daten entfalten jedenfalls Wirkung, das ist heute ein Gemeinplatz. Ungeklärt ist aber die Frage, wie diese Wirkung zustande kommt. Daten geben eine Richtung vor und sind Teil der Lösung. Allerdings übergeht dieses Szenario das Problem, wie Daten Organisationen verändern, in Prozesse eingreifen, Richtungswechsel in Strategien bewirken oder den Unternehmenserfolg beeinflussen. Dieser Übergang gleich oft dem wirren Wollknäuel in Cartoon-Projektplänen, der mit “Hier geschieht ein Wunder” beschriftet ist.

Data Science- und Big Data-Beschreibungen gehen heute glücklicherweise schon weit über die Betonung technischen und statistisch-mathematischen Spezialwissens hinaus. Fachwissen ist wichtig, um relevante Fragestellungen identifizieren zu können. Historisch-dokumentarische Kenntnisse sind notwendig, um Datenerhebungsprozesse gestalten und evaluieren zu können. Und jeder ernstzunehmende Datenspezialist wird nicht müde zu betonen, dass die Arbeit des Konzipierens, Sammelns und Bereinigens von Daten den völlig unglamourösen Löwenanteil in der Datenarbeit ausmacht. Bevor auch nur eine einzige Codezeile smarter Algorithmen geschrieben ist, wurden dutzende Stunden mit platten Strichlisten, Spreadsheets und Plausibilitätsprüfungen verbracht.

Der vorbereitenden Arbeit, der archäologischen Spurensuche wird also große Bedeutung beigemessen. Dann klafft allerdings eine große Lücke.

Daten sind wichtig und wirksam, so die Überzeugung. Wie gelingt ihnen das aber? Hier befinden wir uns großteils noch im Reich der Magie. 

Das ist eine Gefahr für die Arbeit mit Daten. 

Erwartungsmanagement ist ein weiterer zentraler Skill jedes Analysten. Erwartungsvollen Kunden oder CEOs muss klargemacht werden, dass Daten erstens Zeit brauchen und zweitens nur in eine Richtung zeigen. Ob dieses Zeigen ein Wegweiser, ein Schubs, ein unwiderstehlicher Sog oder ein bloßes Mahnmal ist, das liegt nicht mehr an Daten allein. Das ist eine Prozessfrage. Hier müssen sich Organisationen verändern. Und vor allem: Hier müssen Entscheidungen getroffen und durchgesetzt werden. 

Data Science verspricht, zu besseren Entscheidungen zu verhelfen. Langwierige Data Science-Prozesse werfen die Frage auf, worüber eigentlich entschieden wird. Die letzte Entscheidung darüber, was nun tatsächlich umgesetzt wird, welche Handlungen aufgrund der Daten gesetzt werden, obliegt praktisch weder Data Scientists noch Data Analysts, sondern organisatorische verantwortlichen Personen. Es ist eine gefährliche Überschätzung von Daten, diesen Unterschied zu übergehen. Das führt zu Frustration (“Diese Daten bringen uns überhaupt nichts”), Lähmung (“Ich brauche mehr Daten, um das entscheiden zu können”) oder gar zum Daten-Deadlock.

Jeder Analyst kennt den Daten-Deadlock: Man präsentiert neue Ergebnisse, zeigt auf Problemstellen, leitet neue Empfehlungen aus Details ab – und bekommt die Antwort: “Das weiß ich schon, das ist nichts Neues für mich.” 

In solchen Fällen bleibt eigentlich nur übrig, die Frage zu stellen: “Und warum handeln Sie dann nicht danach?”

Das ist in vielen Fällen das Ende der freundlichen Zusammenarbeit. 

Manchmal aber offenbart diese Situation aber auch neue Handlungsspielräume – plötzlich wird klar, dass man sich bewegen kann, wer sich bewegen muss und dass immer nur überschaubare Schritte gesetzt werden können – die ihrerseits auch wieder analytisch begleitet werden können. 

Data Science und Analytics enden nicht mit smarten Algorithmen und fancy Python-Scripts. Das sind nicht einmal die Höhepunkte von Datenprozessen. Sie sind das Ende der Anfangsphase, danach beginnt die Arbeit in Prozessen und Organisationen. Für manche ist das eine Entzauberung der mächtigen Daten. Magie aber hat noch selten gut funktioniert, wenn man nur nah genug hinsieht.

Harry Collins, Martin Kusch: The Shape of Actions

In den 90ern war das Internet Nerdkram, Artificial Intelligence beschränkte sich für die Öffentlichkeit auf ein paar Spracherkennungs- und Simulationstools, Machine Learning bestand in Diagnostiksoftware und Big Data gab es noch nicht.

Diese Rahmenbedingungen muss man wohl vorausschicken, wenn man den Text von Collins und Kusch auf aktuelle Fragestellungen anwenden möchte. Eine wesentlich unterschiedliche Perspektive: Heute ist Bias eines der zentralen Themen rund um Artificial Intelligence und Data Science; der Themenkomplex beschreibt ein Defizit von Technologie, die durch menschliche Vorurteile und soziale Einflüsse verunreinigt wird. Damals wandten sich die Autoren gegen die ihrer Meinung nach naive Vorstellung, Maschinen könnten selbstständig handeln und entscheiden und kritisierten in dieser Vorstellung eine Verkürzung, die die Relevanz menschlicher und sozialer Einflüsse unzulässig ignoriere.

Können Maschinen handeln?

Das ist das zentrale Thema dieses Buchs: Wie weit und unter welchen Umständen können Maschinen, wenn überhaupt, so etwas wir Agency besitzen?

Harry Collins und Martin Kusch entwickeln detaillierte Handlungskonzepte, um diese Frage zu diskutieren. In erster Linie unterscheiden sie zwischen Handeln (action) und Verhalten (behavior). Verhalten ist eine reaktive Existenzweise, die mit ihrer Umwelt reagiert, aber keinen Plan verfolgt und immer in konkrete Kontextbedingungen eingebettet ist und von diesen ausgelöst und gesteuert wird. Handeln besteht aus Abläufen, die nicht nur Reaktionen auf äußere Einflüsse sind oder einem anderen vorgefertigten Bauplan folgen. Auch dabei unterscheiden Collins und Kusch unterschiedliche Typen: Mimeomorphe Handlungen folgen dem immer gleichen Plan, können imitiert werden und sind sehr spezifisch in ihrer Reichweite und Wirksamkeit. Mimeomorphe Handlungen können nicht angewendet werden, wenn sich Rahmenbedingungen ändern, wenn Entscheidungen zu anderen als bereits bekannten Fragen (mit bekannten Antworten) getroffen werden müssen. Dann sind polymorphe Handlungen notwendig, die keinem vorgegebenen Ablauf folgen müssen sondern auch unvorhergesehene Abzweigungen nehmen können.

Wiederholbarkeit und Relevanz

Dieses auf den ersten Blick einleuchtende Konzept offenbart seine Schwierigkeit auf den zweiten Blick: Was ist gleich, wo beginnen Unterschiede? Welche Unterschiede sind relevant? Inwiefern können und sollen in die Diagnose von Unterschieden auch Positionen und Perspektiven des Unterscheidenden einbezogen werden? Collins und Kusch deuten dazu eine „sociology of the same“ an: „The whole pattern of human life could be said to be a matter of what we see as the same and the way boundaries between things are shifted about“. Das ist ein spannender Gedanke, der sich in viele Dimensionen verzweigen lässt. Informationstheorien liegt eine Frage von Unterschieden zugrunde – Luciano Floridi führt dazu viel über Levels of Abstraction als Gradmesser von Unterschieden aus. Bei Carnap und Bar Hillel führt die Betonung der Relevanz von Unterschieden zum Informationsparadoxon: Je größer ein Unterschied ist, desto gehaltvoller ist Information – bis zu dem Preis, dass die gehaltvollste Information der logische Widerspruch ist. Die Diagnose von Unterschieden ist eine zentrale Aufgabe von Machine Learning-Prozessen, im Fall der Segmentierung oder Clusterbildung sollen dabei Unterschiede erkannt werden, die für den Menschen nicht ersichtlich gewesen wären. Unterschiede sind eines der Kernthemen von Data Science, die Entscheidungen verspricht – also die Diagnose von Unterschieden und die Auswahl von unterschiedlichen Optionen.

Für Collins und Kusch ist Wiederholung ein zentrales Unterscheidungskriterium. Wiederholung gleicher Abläufe, die mimeomorphe Handlungen ermöglicht, setzt unveränderliche Umgebungen voraus. Es sind sehr konkreten spezifische Kontextangaben erforderlich, um Automatisierung zu ermöglichen. Mit Wiederholung werden Abläufe sebstverständlich, Neuigkeiten diffundieren ins Allgemeinwissen; in der Wissenschaftsphilosophie werden solche Prozesse als Closure oder Black Boxing diskutiert. Collins und Kusch möchten hier allerdings noch einmal unterscheiden.

Verallgemeinerbarkeit und Abstraktion machen den Unterschied

Es reicht nicht aus, wenn Abläufe oder Erkenntnisse akzeptiert und nicht mehr hinterfragt werden (wie bei den Konzepten von Closure oder Black Boxing). Damit Abläufe als mimeomorphe Handlungen gesehen werden können, müssen sie nicht nur repetitiv und akzeptiert sein, sie müssen auch spezifisch und konkret sein. Das bedeutet, sie sind nicht verallgemeinerter und beziehen sich immer auf einen konkreten Kontext und Anlass. Die Autoren exerzieren das am Beispiel von Vakuumpumpen durch: Robert Boyle und dessen Assistenten mussten bei der Erfindung der Vakuumpumpe im 17. Jahrhundert eine Reihe von neuen Abläufen erdenken, ausprobieren und  einüben, um ihre Ergebnisse absichern zu können. Vieles davon ist heute grundlegendes Allgemeinwissen; ein technisch halbwegs versierter Mensch kann, mit einigen knappen Anleitungen, heute eine Vakuumpumpe in Betrieb nehmen und erkennen, ob sie funktioniert. 

Trotzdem bleibt aus der Ablauf des Inbetriebnehmens von Vakuumpumpen eine polymorphe Handlung die nicht automatisiert werden kann. In Anbetracht der Allgemeinheit von Vakuumpumpen gibt es zu viele Optionen und Unterschiedlichkeiten, als dass Abstraktion und Automatisierung möglich wären. Es kann allenfalls die Inbetriebnahme und Überwachung einer spezifischen Vakuumpumpe als mimeomorphe Handlung dokumentiert und automatisiert werden. 

Das erinnert an John Deweys Ausführungen zu Abstraktion, Wissenschaftlichkeit und Unabhängigkeit: Dewey betont, es könne keine distinterested Science geben, weil die für wissenschaftliche Methode notwendige Transparenz immer nur in Hinblick auf spezifische Kontexte gegeben ist. Wissenschaftliche Theorien müssten allerdings den Anspruch haben, in jedem möglichen konkreten Kontext zu gelten.

Wer entscheidet, was konkret ist – und was Zufall?

Konkrete und gültige Feststellungen brauchen also konkreten Kontext. Das wirft die Frage auf, wer diesen Kontext herstellt. Das wiederum ist, wenn wir zur Ausgangsfrage zurückkehren, was Maschinen tun können (und an Machine Learning, Data science und Artificial Intelligence denken), eine Frage, die das Potenzial hat, eine grundlegende Konzepte rund um Data science auf den Kopf zu stellen. Maschinen arbeiten und analysieren in einem vorgegebenen Umfeld, sie überschreiten fallweise Grenzen, die zu überschreiten ihnen ermöglicht wurde (oder die irrtümlich als Grenzen angenommen wurden). Sie machen also, was ihr Rahmen ihnen ermöglicht; der Rahmen wurde letztlich durch menschliche Aktivität abgesteckt. Gern zitiertes Gegenbeispiel ist etwa Conways Game of Life, bei dem ein simples Set von Regeln neue Regeln erzeugt. Schaffen damit automatisierte Systeme ihre eigenen Reproduktionsbedingungen, etwas, das lebenden Organismen vorbehalten schien? Auch die Abläufe in einmal in Gang gesetzten Game of Life-Prozessen sind allerdings davon abhängig, wie sie in Gang gesetzt wurden – und sie verlassen nicht den Rahmen ihrer vorgegebenen Möglichkeiten, sie können sich nicht ohne weiteren Anlass für etwas anderes als das Übliche entscheiden.

Collins und Kusch unterscheiden verschiedene Arten von Maschinen, um diese Frage konkreter zu behandeln: Behavers folgen immer gleichen Abläufen. Disjunctive Behavers können je nach Gegebenheit zwischen verschiedenen vorgegebenen Abläufen entscheiden. Feedback Behavers können ihre Abläufe an diverse Inputs anpassen. Learning Behavers verändern sich und ihr Verhalten im Lauf wiederholter Interaktion mit der Umwelt. In dieser Typologie wäre das Game of Life auf der ersten Stufe von schlichten Behavers anzusiedeln. Ein Beispiel für die oberste Stufe ist für Collins und Kusch ein paar Stiefel, das sich im Lauf der Zeit an Körper und Bewegung ihres Trägers anpasst.

Auch in einer anderen Maschinentypologie in diesem Buch sind Algorithmen, Artificial Intelligence und Neurone Netze nicht unbedingt auf der obersten Ebene von Maschinen anzusetzen: Werkzeuge (tools) verstärken unsere Fähigkeiten, Stellvertreter (proxies) ersetzen oder vertreten uns, Neuigkeiten (Innovationen) setzen Abläufe um, die für uns unmöglich sind. AI und neuronale Netze sind für Collins und Kusch Proxies; ein Beispiel für Novelties wären Tiefkühler.

Maschinen zu überschätzen, in dem ihnen Agency zuerkannt wird, ist für Collins und Kusch ein grundlegendes Missverständnis, das die Analyse der Handlungsfähigkeit von Maschinen verstellt. Denn Maschinen können in ihrer Handlungstypologie nie über mimeomorphe Abläufe hinauskommen. Sie können Menschen zwar vertreten – aber nur dort, wo Menschen ihre Aktivität auf mimeomorphe Handlungen reduzieren.

Eine spannende, im Buch nicht gestellte Frage: Wäre es möglich, einen durchschnittlichen menschlicne Lebensablauf zwischen Pflichtschule, Dienst nach Vorschrift und Konsum auf mimeomorphe Abläufe zu reduzieren?

Wissenschaftskommunikation ist ein Missverständnis

Wissenschaft und Bildung – so wichtig. Je häufiger und breiter Themen wiederholt werden, desto deutlicher werden in der Regel Indizien, die zu Skepsis raten. Medien wollen Wissenschaft vermitteln, Wissenschaftler wollen besser vermittelt werden, Medienpolitiker sehen Wissenschaftskommunikation und Wissenschaftler in Redaktionen als Qualitätsindiz – und das Publikum will unterhalten werden.

Aber seien wir ehrlich – es gibt zwei große Problemfelder. 

Erstens: Wissenschaft ist langweilig. Sensationen entstehen im Nachhinein. Im Moment selbst ist es ein bloßes Aneinanderreihen von Fakten, Erbsen- und Fliegenbeinezählen. 

Zweitens: Was erklärt es schon, wenn, oft bemüht lustig, bemüht einfach oder bemüht klar, irgendwelche wissenschaftlichen Abläufe als Comedy auf Bühnen gebracht werden.

Medien und Wissenschaftskommunikationsdarsteller scheitern meist am zweiten Problem. Sie sind unterhaltsam, schaffen aber kein Wissen.
Wissenschaftler verlieren sich im zweiten Problem. Sie haben ihre Vision vor Augen, sehen die Größe des Problems – und die verstellt ihnen die Sicht auf die Kleinheit ihrer Ergebnisse. Das große Ganze wurde immer schon erzählt, die relevanten Unterschiede liegen im Detail – und man erkennt sie nur, wenn man sich schon auskennt. Aber dennoch erwarten sie, dass die Größe ihrer kleinen Ergebnisse erkannt und von Journalisten mit Begeisterung und Verständnis aufgegriffen werden. 

Das ist nicht nur ein Missverständnis von Wissenschaft, sondern auch ein Missverständnis von Journalismus: Statt Fakten zu suchen, Beziehungen herzustellen und Tatsachen zu vermitteln, soll Begeisterung vermittelt werden.

Das Problem ist, dass Wissenschaft und Journalismus streckenweise nach den gleichen Gesetzen funktionieren – und sich damit auch kannibalisieren. In beiden Bereichen sende Brüche, Disruptionen und Neuartiges die stärksten Signale. Allerdings schaffen die Brüche der Wissenschaft Unsicherheit und Unklarheit, Brüche, die für den Journalismus relevant sind, schaffen Klarheit (und wenn es nur die ist, dass es jetzt anders ist). Vorschnelle Klarheit in der Forschung ist eher vorschnelle Überinterpretation. In beiden Bereichen gilt allerdings auch, dass Bedeutung erst im Nachhinein entsteht. Brüche in der wissenschaftlichen Forschung brauchen Zeit, um sich zu etwas Neuem zusammenzusetzen, umso mehr Zeit, je relevanter dieses Neue sein soll. Im Journalismus lassen sich Geschichten mit Abstand besser erzählen und sie verändern sich im Lauf der Zeit. Das ist nachteilig wenn es anderen ein Anliegen ist, Geschichten schnell weiterzuerzählen. 

Beide Seiten – Journalismus und der Wissenschaftsbetrieb – sind auch gut darin, Inkompatibilitäten als Defizite zur interpretieren, die stets anderswo liegen, nicht auf der eigenen Seite. Der Journalismus sagt: Das ist keine Geschichte. Die Wissenschaft sagt: Ihr erkennt die Großartigkeit nicht, ihr beschäftigt euch nicht ausreichend und in gebührlicher Form mit uns, um die Großartigkeit unserer Forschung zu erkennen. 

In dieser Defizitdiagnose ist schließlich auch die Geburtsstunde der Wissenschaftskommunikation begründet. Als englische Universitäten bei Thatchers Budgetkürzungen um Geld fürchten mussten, entdeckten sie die Öffentlichkeit als relevante Zielgruppe. Die Idee war, wenn die Öffentlichkeit Wissenschaft gut findet, dann hat man bessere Karten im Kampf um Budgets – sei es bei der öffentlichen Hand oder bei privaten Förderern. Die vorrangige Aufgabe von Medien und Publikum war es dabei, Wissenschaft toll zu finden. Warum und wofür, das war zweitrangig. Wenn das Publikum dieser Aufgabe nicht nachkam, dann war es dessen Problem – und dessen Schuld. 

Daran hat sich wenig geändert. Auch wenn Wissenschaft in lustigen Kostümen auftritt und die Grenze zur Science Fiction verwischt. 

Larry Hickman: John Dewey’s Pragmatic Technology

Technologie ist nicht neutral. Sie ist auch keine unabhängige Macht, die bedrohlich ihren eigenen Weg geht. Technik und Technologie entstehen in Anwendungsfällen, als Problemlösung im Zusammenhang mit Aufgabenstellungen und im Zusammenspiel mit Mensch und Gesellschaft.

Je relevanter und verbreiteter Technik und Technologie sind, je enger und oft auch unauffälliger sie mit menschlichem Alltag vernetzt sind, desto relevanter werden Technikkonzepte, die auf die Vorstellung einer isolierten Macht verzichten können und dennoch die Idee von Technik nicht bloß in Beziehungen auflösen oder Technik als diffuse Wirkmacht darstellen. 

Larry Hickman legt in Deweys Werk einen Technologiebegriff frei, der sich als sehr produktiv erweist. Gerade in Hinblick auf digitale Technologien und auf Fragen der Daten und Datenanalyse, die für Dewey kaum noch konkret Thema waren (und auch bei Hickman, das Buch erschien 1991, nur zwischen den Zeilen auftauchen) bietet Dewey einige Anregungen.

Wie kommt das?

Wissen als Artefakt

Deweys Technologiebegriff entsteht aus seiner Betrachtung der wissenschaftlichen Untersuchung. Untersuchung, inquiry, ist für Dewey eine Fähigkeit, und zwar eine gestalterische. Untersuchungen schaffen Ergebnisse, sie entdecken sie nicht, sie legen sie nicht frei, die schaffen in Hinblick auf bestimmte Fragestellungen und Erkenntnisziele.

Das bedeutet: Untersuchungen und Wissenschaft bestehen nicht für sich, und Wissen ist ein Artefakt. Wissen wird geschaffen und ist diversen gestalterischen Prozessen und Zielsetzungen unterworfen. Eigentlich, bringt Hickmans Dewey Prozessorientierung auf die Spitze, arbeiten Wissensarbeiter an der Freilegung einer einzigen Tatsache, denn es kann ja nur eine geben, sofern harter Realismus gilt. Diese ultravernetzte Megatatsache, die alles einbezieht, wäre allerdings ein denkbar unpraktisches Konzept, das sich von nichts abgrenzen lässt. Umso wichtiger werden Zielsetzung und Kontextualisierung, um zumindest relative Abgrenzungen zu ermöglichen.

Untersuchung als wissenschaftliche Methode ist also eine produktive Fähigkeit, Technologie ist active productive inquiry, also die aktive, zielorientierte Anwendung jener Fähigkeiten, die sichere Ergebnisse schaffen. Dewey betont die fortlaufende Aktivität, Wissensproduktion sei eine andauernde Interaktion. Gewissheit werde durch diese ständige Rückversicherung geschaffen, eigentlich ersetzt. Die eingesetzte Methode und die Klarheit über die Methode, letztlich also die Transparenz des Prozesses, sei wichtiger als die konkrete Wahrheits- oder Wissenstheorie. Eigentlich schafft (oder ersetzt) die Methode die Wahrheitstheorie.

Was für ein Technologiekonzept ist das?

Hickman führt drei unterschiedliche Ausprägungen von Technologiekonzepten an .

Substantive, deterministische Technologiekonzepte in der Tradition von Jaques Ellul beschreiben Technologie als vom Menschen weitgehend unabhängiges Phänomen, das Gesellschaft prägt und sich eher unbeirrt von menschlichen Plänen entwickelt. 

Instrumentalistische Konzepte legen das Augenmerk auf Phänomene wie Werkzeugnutzung und Technik als eine Art und Weise, die Wirklichkeit zu behandeln oder sich zur Wirklichkeit zu verhalten (noch unabhängig von konkreten Wirklichkeits- und Wahrheitstheorien). Homo Faber-Konzepte kommen aus dieser Tradition, auf klassischer Pragmatismus wäre hier anzusiedeln. 

Die dritte Spielart ist pluralistisch und betrachtet Technologie zugleich als Mittel, mit „continually shifting networks“ umzugehen – und selbst auch als ein solches.

Für Hickman verbindet Deweys Technologiekonzept zweite und dritte Spielart – auf den ersten Blick ist Dewey in Pragmatismus und Instrumentalismus zuhause, verleiht diesen aber mehr Dynamik.

Technologie ist eine Form von Verhalten

Bei Dewey bleibt alles veränderlich; Prozesse sind auf Zwecke und Ziele ausgerichtet und diese Zwecke und Ziele sind immer nur vorläufig; sie sind ends-in-view.

Diese Fokus auf Wechsel, Beziehungen und sich verändernde Beziehungen führt zur Diagnose von Abgrenzungsproblemen: Wann ist etwas das, als das es beschrieben wird? Verändert sich ein Objekt mit seiner Beschreibung oder mit seiner Nutzung? Dewey führt das anhand von Erz aus: Erz als Rohstoff ist substanziell das gleiche wie bearbeitetes Eisen und ein aus Eisen hergestelltes Produkt. Die unterschiedliche Bedeutung des gleichen Inhalts entsteht durch unterschiedliche Nutzung. Der funktionale Kontext bestimmt die Bedeutung.

Daten entstehen in der
und für die Untersuchung

Hickman referiert von hier aus auch über die Bedeutung und den Stellenwert von Daten bei Dewey. Daten als „Gegebenes“ („Givens“) deuten auf etwas jenseits ihrer selbst hin. Dewey interpretiert Daten als Indikatoren, als Hinweise. Rauch wäre das Datum, Feuer das, worauf die Daten zeigen. „For Dewey, to be a datum is to function in a special way with respect to the control of the subject matter of a particular area of inquiry. Data allow us to fix a problem in a way such that a possible solution is indicated. Data provide evidence that is instrumental to testing a proposed solution.“ Ist damit eine Sonderstellung von Daten, eine besondere Beziehung von Daten  zu ihrem Gegenstand postuliert? Wie würde sich das mit der Betonung von Kontext vertragen, mit der Diagnose, dass Bedeutung durch Anwendung und funktionale Zusammenhänge entsteht? Daten verweisen für Dewey auf etwas außerhalb ihrer selbst. Aber sie sind nicht Träger der Bedeutung; diese konstituiert sich in der Anwendung. In der vielleicht nicht das glücklichen Metapher von Feuer und Rauch: Wo wäre hier die Eigenschaft oder Aktivität des Brennens? Und wo die Feststellung, dass etwas brennt? Auch die Indikator-Eigenschaft lässt sich also nicht ganz von Aktivität und Kontext lösen.

Diese auf den ersten Blick unterstellte Unmittelbarkeit und Sonderstellung von Daten entpuppt sich also als ein weiterer Hinweis auf Abgrenzungsprobleme. Diese können auch als Hinweis darauf verstanden werden, dass strikte Trennlinien, wie moderne rationale Menschen sie gerne ziehen, nicht immer angemessen sind. – Eine Idee, die Bruno Latour einige Jahrzehnte nach Dewey in seiner Unterstellung, wir wären nie modern gewesen, näher ausgeführt hat.

Dewey bezieht diese mangelhafte Abgrenzung nicht nur auf Dichotomien zwischen Natur und Kultur, Technik und Gesellschaft, er diagnostiziert auch flexible Übergänge zwischen innen und außen; Artefakte gebe es auf beiden Seiten. Wissen ist für Dewey ein Artefakt, auch Wissen existiert also sowohl in unseren Köpfen als auch außerhalb von diesen.

In der konkreten Formulierung klingen extended mind-Theorien an, wie sie Jahrzehnte später bei Clark oder Chalmers ausformuliert wurden; Dewey wird in dieser Richtung allerdings nicht weiter konkret. Für Dewey sind andere Konsequenzen (oder Möglichkeiten) dieser Diagnose relevant.

Bedeutung entsteht durch Anwendung

Eben weil Bedeutung erst durch Funktion und Anwendung entsteht, kann es für Dewey keine neutralen Theorien geben, keine distinterested science. Bedeutung (und damit sinnvolle Aussagen) gibt es immer nur in Hinblick auf konkrete Kontexte. Theorien und Wissenschaft allerdings sollen auf möglichst viele verschiedene Interessen und Kontexte anwendbar sein.

Hier werden Deweys Ausführungen noch einmal in Hinblick auf Daten und Data Science relevant. 

Denn, fragt Dewey, wie kommen wir zu gültigen Verallgemeinerungen? Die gute Nachricht, verkürzt gefasst: relativ leicht. Die schlechte Nachricht: Das ist allerdings kein gesicherter Weg, hinter eine Kette von Beziehungen und Bedeutungszusammenhängen zu kommen. Daten sind für Dewey immer partikulär, sie entsprechen keinem „principle of nature“, die Beziehungen, durch die sie ihre Bedeutung bekommen, sind nicht in der Natur festgelegt, sie entstehen durch die und für die Untersuchung.

»Notwendigkeit ist Aberglaube«

Diese Kontext- und Zweckabhängigkeit bestimmt die Konstitution von Bedeutung, die Formulierung von Fragen, die Kalibrierung von Skalen, die Bildung von Modellen und Metaphern und letztlich wohl auch die Frage, welche Beziehungen zwischen Daten und ihren Objekten überhaupt postuliert werden. Wissenschaftlich ist das wenn diese Bedeutungskette nachvollziehbar und argumentierbar ist. Problematisch dagegen ist es, wenn Teile dieser Kette in Vergessenheit geraten oder verdrängt werden. Genau das unterstellt Dewey „certain forms of technology“: Diese hätten nicht nur die Tendenz, Auswahlmöglichkeiten zu beschneiden, sie tragen darüberhinaus auch noch dazu bei, die bereits getroffenen Entscheidungen in Vergessenheit geraten zu lassen, „they anesthesize awareness that choice has been limited“.

Notwendigkeit ist für Dewey purer Aberglaube. Es gibt immer Entscheidungen. Möglicherweise allerdings wurden sie bereits getroffen. 

Entscheidender als die Frage der Notwendigkeit ist das Wissen darüber, wann, in Hinblick auf welche Zwecke und wie diese Entscheidung getroffen wurde.

Das ist für Dewey kein Defizit, das es zu beseitigen gälte. Kontext ist konstitutiv für das Entstehen von Bedeutung, Inferenz als Herleitung von Bedeutung ist eine Funktion von Verhalten; unterschiedliche Verhaltensweisen (oder das gleiche Verhalten in unterschiedlichen Kontexten) führt also zu unterschiedlichen Bedeutungen.

Dewey sieht dieses Argument als zentral für seine Begriff der inquiry, der in der Tradition pragmatistischer Wahrheitskonzepte steht (vereinfacht: wahr ist, was nützlich ist), von hier aus lässt sich aber – mit Blick auf Daten, Repräsentation und Datenmodelle – auch ein Argument geben die Vision des hypothesenfreien Forschens entwickeln.

Die Idee des hypothesenfreien Forschens und Modellierens geht von der Möglichkeit aus, „die Daten“ (oder Algorithmen) Entscheidungen treffen zu lassen, ohne ihnen Vorgaben zu machen. Beim unsupervised machine learning etwa bilde Algorithmen selbst Cluster anhand von Beziehungen oder Häufungen von Merkmalen, die ihnen selbst auffallen. Der Mensch muss nicht einmal vorgeben, wieviele Cluster es sein sollen. Das wird als Gegenentwurf zum Modell- oder hypthesengesteuerten Forschen und Modellieren gesehen, wobei erst Erwartungen formuliert und dann Beweise dafür gesucht werden. 

Beim hypothesenfreien Modellieren kann man darüber streiten, dass die Ergebnisse letztlich auch noch Interpretation brauchen. Das ist aber nur ein Teil der verdrängten Entscheidungen. Unterschiedliche Algorithmen liefern unterschiedliche Cluster, die Auswahl der Grundgesamtheit wirkt sich ebenso aus wie das Bereinigen um Ausreißer oder die Festsetzung von Schwellwerten – all das sind Entscheidungen, die, mit Dewey, im Nebel der Anästhesie verschollen sind.

Machine learning-Ergebnisse ohne das Wissen um die angewendeten Netzwerkalgorithmen (oder oft sind es ja nur Datenabfragen) analysieren zu wollen, also auch dabei theoriefrei zu bleiben, ist fahrlässig. Und in der analytischen Praxis sind oft jene Ergebnisse am fruchtbarsten, die aus vorerst unerklärlichen Gründen überhaupt nicht zur Ausgangshypothese passen. Die lassen sich aber nur dann feststellen, wenn Ergebnisse vor dem Hintergrund einer Hypothese betrachtet werden, mit der sie erarbeitet wurden. (Ok, Überraschungen kann man auch anders erleben – zum Beispiel durch schlechte Vorbereitung. Das würde aber nicht zu bevorzugten analytischen Methoden gehören.)

Für Dewey könnte nur die unsystematische, unwissenschaftliche Analyse auf Hypothesen und damit auf Klassifizierung verzichten – denn sie begnügt sich mit der Feststellung individueller, singulärer Bedeutung, die in konkreten Situationen gegeben ist. Wissenschaft und gültige Theorien dagegen müssen abstrahieren können. Das bedeutet nicht, dass sie ohne Kontext gelten. Sie sollten allerdings in allen möglichen Kontexten gelten. Sie bleiben also auf Kontext angewiesen. 

Daten, diese Feststellung geht aber über Dewey und Hickman hinaus, bräuchten ihre eigene Beweis-Blockchain und die Erwartungen erfüllen zu können, die Anhänger des hypothesenfreien Forschers und Modellierens an sie stellen. Allerdings müsste diese Blockchain, anders als die Blockhains, die wir kennen, auch in die Zukunft reichen. Das klingt abwegig, wird aber implizit auch immerhin so konkret postuliert, dass es von anderen Forschern unter dem Stichwort „promissory data“ kritisiert wird.

Daten und die Bias-Banalität

Wenn Daten und Algorithmen Menschen Entscheidungen abnehmen, dann klingt das verlockend. Es klang verlockend, muss man eigentlich sagen. Denn mittlerweile gehört Zweifel an der neutral-mechanischen Entscheidungsqualität technischer Prozesse zum guten Ton. In der europäischen Datenschutzgrundverordnung ist sogar ausdrücklich verankert, dass relevante Entscheidungen über Menschen nicht ausschließlich von Maschinen getroffen werden dürfen.

Die Entscheidungsqualität wird angezweifelt, weil auch Daten und algorithmische Prozesse perspektivischen Verzerrungen unterworfen sind. 

Daten bilden Realität ab, aber Realität ist immer auch jemandes Realität – das ist die einfache Fassung des Bias-Problems, das in nahezu jeder Diskussion zu Data Science und Big Data Erwähnung findet. Diese einfachen Fassungen des Problems lassen vermuten, dass das Bias-Problem auf die eine oder andere Art und Weise gelöst werden könnte. Man müsse nur richtig hinsehen, die richtigen Prioritäten setzen und die eigenen Erwartungen kritisch hinterfragen.

Dem ist entgegenzuhalten, dass nicht nur Realität immer auch jemandes Realität ist, auch die Abbildung von Realität ist immer jemandes Abbildung. Das setzt sich fort, den letztlich ist auch der festgestellte Bias jemandes Bias – und die Feststellung ist jemandes Feststellung. Ist es also nicht möglich, hinter (oder vor) den Bias zu kommen? Welcher Umgang mit der Bias-Diagnose ist dann sinnvoll? Reicht es etwa schon, um die generelle Problematik bescheid zu wissen, muss sie gar nicht gelöst werden? 

Damit schließt die Bias-Diagnose rund um Data Science und Big Data immer auch einen guten Anteil Banalität ein.

Daten sind immer jemandes Daten, Bias ist jemandes Bias
und auch Kritik daran ist immer jemandes Kritik

Alles ist Bias: In Algorithmen abgebildete Vorurteile sind Bias, der Versuch, Vorurteile bei der Wahl der Datenquellen zu umgehen, ist Bias. Die Betonung der eigenen Perspektive ist Bias, der Versuch, Privilegien auszugleichen, ist Bias. Bias nicht zu betonen ist Bias, die Kritik an Bias ist ebenfalls Bias. 

Müssen sich Analysten und Data Engineers damit zufriedengeben? Ist die Feststellung von Bias schon der zumindest vorläufige Endpunkt, der entweder hinzunehmen ist oder auf die Unzulänglichkeit vermeintlich neutraler Analysen hinweist?

Die Allgegenwart von Bias ist nicht von der Hand zu weisen. Die Relevanz von Bias ist ebenfalls offensichtlich. Beide Selbstverständlichkeiten sind keine gute Ausgangslage, um das Bias-Problem produktiv zu analysieren und zu kritisieren. 

Eine andere Möglichkeit der Fragestellung legt das Augenmerk darauf, warum Bias insbesondere in Datenfragen besonders relevant sein soll.

Gibt es so etwas wie Abbildung? Oder eher mehr neue Bilder …

Daten sind Technologie, Daten sind Stellvertreter, die etwas abbilden, Daten wird eine Sonderstellung in Hinblick auf Klarheit, Präzision und Direktheit nachgesagt. Zahlreiche wissenschaftsphilosophische Konzepte, die sich mit Abbildung, (Re)Präsentation, und auch Technologie beschäftigen, betonen die produktiven und gestalterischen Aspekte dieser Prozesse.

Modellbildung ist keine nachbildende Abbildung, sondern ein kreativer Prozess, der eine Fülle von Entscheidungen voraussetzt und bedingt, die ihrerseits dann wieder die nächsten Entscheidungsschritte bedingen und zugleich einschränken und ermöglichen. Das lesen wir zum Beispiel bei Michael Lynch. Repräsentation gibt es eigentlich nicht, schon gar nicht über Modelle, Daten und Theorien, es gibt nur Präsentation. Jede vermeintliche Abbildung ist also auch Gestaltung – das lesen wir bei Lorraine Daston. Modelle, seien es Metaphern, physisch-technische Modelle, mathematische Modelle, Analogien oder Datenmodelle, setzen eine ganz bestimmte Perspektive auf den modellierten Sachverhalt voraus und prägen und bedingen ebensolche Perspektiven.

Dieser aktive Part von Technik, Technologie, Repräsentation und Modellierung wird in jenen Konzepten, die Bias als Schwäche und Manko betonen, als Defizit gesehen. Die Defizitperspektive stellt in den Raum, dass es auch möglich sein müsste, dieses Defizit zu beheben. Schließlich setzt die Diagnose eines Defizits eine unberührte Idealsituation voraus – diese ist also (zumindest als Konzept, wenn schon nicht als Erfahrungswert) bekannt. Also sollte es auch Mittel und Wege geben, sich ihr anzunähern; zumindest kann festgestellt werden, ob sich die defizitäre Entfernung zum Ideal durch die eine oder andere Biasbehandlung vergrößert oder reduziert hat. Es gibt also, so scheint es in dieser Perspektive, einen unverfälschten Idealzustand, eine Technik, die diesen abbilden oder operationalisieren kann, Hürden und Probleme auf dem Weg zur oder in der Anwendung der nicht verfälschenden Technik und schließlich einen Standpunkt, von dem aus Abweichungen, Probleme, Defizit – also eben der problematische Bias diagnostiziert werden kann.

»Wenn wir nur
endlich rational wären …«

Diese Problemsituation erinnert an David Bloors Strong Programme einer Soziologie des Wissens und der Wissenschaft. Bloor entlarvt in seinem Konzept die Vorstellung von einer entlang der Realität handelnden und erkennenden Rationalität als normatives Konzept. Er kritisiert die Idee, dass rationales Handeln zur Wahrheit führe, aber von diversen im weitesten Sinne irrationalen Einflüssen irritiert werde. Zu diesen Einflüssen gehört Aberglaube ebenso wie Einkommen oder soziale Stellung, der aktuelle Stand des Wissens gehört ebenso dazu wie religiös bedingte Tabus. Das sind veränderliche Größen, die Idealrationalität dagegen ist ein unveränderliches Leitbild, das von diesen schädlichen Verfälschungen befreit werden muss. Wenn erst alle Einflüsse entfernt sind und Rationalität ungehindert agiert, dann stehen Erkenntnis und Wahrheit nichts mehr im Weg.

Bloors Kritik setzt an der Fragestellung an, wie denn äußere Einflüsse von inneren Grundzügen getrennt werden können. Daran schließt die Frage an, wie schädliche von förderlichen Einflüssen unterschieden werden können. Und das schließlich wirft die Frage auf, woher das Wissen über das unverfälschzte Ideal der Rationalität kommt und wie wir feststellen, dass wir jetzt an der richtigen Stelle sind. 

Bloor plädiert – vereinfacht – für eine vernetzte Perspektive auf Wissen, WIssenschaft, Rationalität und Einflüsse, die sich nicht der Illusion von Abgrenzungen hingibt. 

Welche Rolle könnte in einem solchen Szenario der im Datendunstkreis kritisierte Bias einnehmen? 

Bias entspricht einem der störenden Einflüsse, die den direkten Zugang zur unverfälschten Rationalität, zum technoneutralen Algorithmus verstellen. 

Wenn nun Bias ebenso nicht verfälschendes Element einer Perspektive, nicht störender Irrtum ist, sondern Teil der betrachteten, eigentlich jeder Technologie? 

Wie verschiebt sich das Bild, wenn wir Bias als integralen Bestandteil von Technik, Daten und Algorithmen betrachten? 

Technik wird damit zu Gestaltung und zum Machtinstrument – wobei auch in dieser Diagnose schon wertende Argumente, also letztlich Bias, wirken.

Keine Daten ohne Zweck

Daten und Datenanalyse sind Anwendungen vermeintlich neutraler Technologie, die durch unterschiedliche Anwendungsweisen dem Risiko der Verfälschung ausgesetzt sind. Was wären Daten und Analyse allerdings ohne ihre Anwendung? Wie könnten wir uns – ohne Anwendung – ein Bild von ihnen machen? Wo, ähnlich wie bei Bloors Problem, ließe sich eine Trennlinie zwischen Technik und Anwendung festmachen? 

Dieses wiederkehrende Abgrenzungsproblem lässt erkennen, dass andere Technikbegriffe nützlich sein können, solche, die Anwendung einschließen und Technologie nicht als abgegrenzten unberührbaren Bereich darstellen, der von Menschen unabhängig agiert.

Zwischen extremen Konzepten, die Technik als determinierende Kraft begreifen oder Technik als neutrales Ideal beschreiben zeichnen sich instrumentalistische  und pragmatistische Konzepte als nützliche Alternativen ab. Diese beziehen gestalterische und produktive Komponenten mit ein und entwickeln Begriffe auf Ziele und Zwecke hin, die auch immer nur temporäre, aktuell absehbare Ziele und Zwecke sind, mit den Begriffen John Deweys: ends-in-view.

Deweys Instrumentalismus wurde in der Analyse von Larry Hickman zur einem der produktivsten Technologiekonzepte, gerade auch in Hinblick auf die mögliche Anwendung auf Datenthemen. Dewey selbst spricht gelegentlich Daten als Gegenstand von Technik an, ohne vorhersehen zu können, welche weiteren Bedeutungen seine Analysen im Rückblick bekommen konnten.

Programmieren als
Gestaltung von Welten

Gerade in der Analyse digitaler Technik, der Grundlage der Arbeit mit Daten, erscheint es praktisch unmöglich, Technik, Anwendung und Ziele zu trennen. Digitalen Technikern scheint diese Trennung auch weniger plausibel zu sein Maschinenbauern oder Physikern, die noch öfter auf unabhängige, neutrale, und vom Einsatz des Menschen abhängige Technik pochen, auch wenn diese Technik den Menschen insofern beherrscht als sie wirkt, ohne von allen Menschen verstanden zu werden. Einige allerdings haben sie geschaffen – um einen Zweck zu verfolgen. 

Im Gegensatz dazu liegt digitalen Technikern die produktive gestalterische Komponente ihrer Technik um einiges näher. Bjarne Stroustroup etwa, Erfinder der Programmiersprache C++, beschreibt ganz selbstverständlich, dass Programmierer Welt gestalten. Programmieren sei keine Aneinanderreihung von Codes, sondern das Gestalten von Abläufen in der Welt, das vor allem voraussetze, dass die Problemstellungen, die die Gestaltung dieser Abläufe notwendig machen, erst verstanden werden – das wiederum setzt voraus, dass ein Zweck im Blick behalten wird. Wir sind also mitten in einem höchst pragmatischen und instrumentalistischen Szenario, das die Idee, Technik könne unabhängig von diesem konkreten Kontext existieren, überaus fragwürdig erscheinen lässt.

Wie verträgt sich diese Diagnose mit entgegengesetzten Konzepten auch aus dem Bereich der digitalen Technologie, wie wir sie aus der theoretischen Informatik kennen? Theoretische Informatik beschäftigt sich mit verschiedenen Formen von Logik und logischem Kalkül und betont die Abgrenzung von jeglicher kontingenten Bedingungen setzenden Außenwelt. Logik beschäftigt sich mit den Regeln des korrekten Schließens. Logik urteilt nicht darüber, in welchen Fällen diese Regeln auf die richtigen Fragestellungen angewendet werden. Das zeigt sich einerseits an der Frage, wie die Prämissen der Aussagenlogik überprüfbar sind, noch deutlicher aber im Kalkül der Prädikatenlogik, in dem das gesamte Universum, für das das Kalkül gültig sein soll, konkret definiert werden muss. 

Das bedeutet: Logik formuliert abstrakte Wahrheitsbedingungen, keine konkreten Wahrheitskriterien. Die Wahrheitsbedingungen nehmen keinen Bezug auf aktuelle, kontingente oder akute Umgebungsbedingungen – aber sie machen nur in sehr konkreten und spezifischen Situationen Sinn. Über andere Situationen sagen sie nichts aus.

Das, in Verbindung mit einem pragmatischen Technikkonzept, liefert meines Erachtens Hinweise auf Auswege aus dem Bias-Dilemma. Wird dadurch die Neutralität von Daten und technischen Abläufen wiederhergestellt? Ich denke nicht. 

Ich denke, wir werden eher bei der überraschten Feststellung landen, dass neutrale Technik und unverfälschte Daten ein verlockender, aber letztlich sehr merkwürdiger Irrtum sind. Der Weg dorthin ist allerdings eine andere und etwas längere Geschichte.