Larry Hickman: John Dewey’s Pragmatic Technology

Larry Hickman: John Dewey’s Pragmatic Technology

Hickman interpretiert Dewey als Technik-Philosophen. Das Ergebnis kann erstaunlich gut auf aktuelle Probleme in Datenanalyse und Data science angewendet werden.

Technologie ist nicht neutral. Sie ist auch keine unabhängige Macht, die bedrohlich ihren eigenen Weg geht. Technik und Technologie entstehen in Anwendungsfällen, als Problemlösung im Zusammenhang mit Aufgabenstellungen und im Zusammenspiel mit Mensch und Gesellschaft.

Je relevanter und verbreiteter Technik und Technologie sind, je enger und oft auch unauffälliger sie mit menschlichem Alltag vernetzt sind, desto relevanter werden Technikkonzepte, die auf die Vorstellung einer isolierten Macht verzichten können und dennoch die Idee von Technik nicht bloß in Beziehungen auflösen oder Technik als diffuse Wirkmacht darstellen. 

Larry Hickman legt in Deweys Werk einen Technologiebegriff frei, der sich als sehr produktiv erweist. Gerade in Hinblick auf digitale Technologien und auf Fragen der Daten und Datenanalyse, die für Dewey kaum noch konkret Thema waren (und auch bei Hickman, das Buch erschien 1991, nur zwischen den Zeilen auftauchen) bietet Dewey einige Anregungen.

Wie kommt das?

Wissen als Artefakt

Deweys Technologiebegriff entsteht aus seiner Betrachtung der wissenschaftlichen Untersuchung. Untersuchung, inquiry, ist für Dewey eine Fähigkeit, und zwar eine gestalterische. Untersuchungen schaffen Ergebnisse, sie entdecken sie nicht, sie legen sie nicht frei, die schaffen in Hinblick auf bestimmte Fragestellungen und Erkenntnisziele.

Das bedeutet: Untersuchungen und Wissenschaft bestehen nicht für sich, und Wissen ist ein Artefakt. Wissen wird geschaffen und ist diversen gestalterischen Prozessen und Zielsetzungen unterworfen. Eigentlich, bringt Hickmans Dewey Prozessorientierung auf die Spitze, arbeiten Wissensarbeiter an der Freilegung einer einzigen Tatsache, denn es kann ja nur eine geben, sofern harter Realismus gilt. Diese ultravernetzte Megatatsache, die alles einbezieht, wäre allerdings ein denkbar unpraktisches Konzept, das sich von nichts abgrenzen lässt. Umso wichtiger werden Zielsetzung und Kontextualisierung, um zumindest relative Abgrenzungen zu ermöglichen.

Untersuchung als wissenschaftliche Methode ist also eine produktive Fähigkeit, Technologie ist active productive inquiry, also die aktive, zielorientierte Anwendung jener Fähigkeiten, die sichere Ergebnisse schaffen. Dewey betont die fortlaufende Aktivität, Wissensproduktion sei eine andauernde Interaktion. Gewissheit werde durch diese ständige Rückversicherung geschaffen, eigentlich ersetzt. Die eingesetzte Methode und die Klarheit über die Methode, letztlich also die Transparenz des Prozesses, sei wichtiger als die konkrete Wahrheits- oder Wissenstheorie. Eigentlich schafft (oder ersetzt) die Methode die Wahrheitstheorie.

Was für ein Technologiekonzept ist das?

Hickman führt drei unterschiedliche Ausprägungen von Technologiekonzepten an .

Substantive, deterministische Technologiekonzepte in der Tradition von Jaques Ellul beschreiben Technologie als vom Menschen weitgehend unabhängiges Phänomen, das Gesellschaft prägt und sich eher unbeirrt von menschlichen Plänen entwickelt. 

Instrumentalistische Konzepte legen das Augenmerk auf Phänomene wie Werkzeugnutzung und Technik als eine Art und Weise, die Wirklichkeit zu behandeln oder sich zur Wirklichkeit zu verhalten (noch unabhängig von konkreten Wirklichkeits- und Wahrheitstheorien). Homo Faber-Konzepte kommen aus dieser Tradition, auf klassischer Pragmatismus wäre hier anzusiedeln. 

Die dritte Spielart ist pluralistisch und betrachtet Technologie zugleich als Mittel, mit „continually shifting networks“ umzugehen – und selbst auch als ein solches.

Für Hickman verbindet Deweys Technologiekonzept zweite und dritte Spielart – auf den ersten Blick ist Dewey in Pragmatismus und Instrumentalismus zuhause, verleiht diesen aber mehr Dynamik.

Technologie ist eine Form von Verhalten

Bei Dewey bleibt alles veränderlich; Prozesse sind auf Zwecke und Ziele ausgerichtet und diese Zwecke und Ziele sind immer nur vorläufig; sie sind ends-in-view.

Diese Fokus auf Wechsel, Beziehungen und sich verändernde Beziehungen führt zur Diagnose von Abgrenzungsproblemen: Wann ist etwas das, als das es beschrieben wird? Verändert sich ein Objekt mit seiner Beschreibung oder mit seiner Nutzung? Dewey führt das anhand von Erz aus: Erz als Rohstoff ist substanziell das gleiche wie bearbeitetes Eisen und ein aus Eisen hergestelltes Produkt. Die unterschiedliche Bedeutung des gleichen Inhalts entsteht durch unterschiedliche Nutzung. Der funktionale Kontext bestimmt die Bedeutung.

Daten entstehen in der
und für die Untersuchung

Hickman referiert von hier aus auch über die Bedeutung und den Stellenwert von Daten bei Dewey. Daten als „Gegebenes“ („Givens“) deuten auf etwas jenseits ihrer selbst hin. Dewey interpretiert Daten als Indikatoren, als Hinweise. Rauch wäre das Datum, Feuer das, worauf die Daten zeigen. „For Dewey, to be a datum is to function in a special way with respect to the control of the subject matter of a particular area of inquiry. Data allow us to fix a problem in a way such that a possible solution is indicated. Data provide evidence that is instrumental to testing a proposed solution.“ Ist damit eine Sonderstellung von Daten, eine besondere Beziehung von Daten  zu ihrem Gegenstand postuliert? Wie würde sich das mit der Betonung von Kontext vertragen, mit der Diagnose, dass Bedeutung durch Anwendung und funktionale Zusammenhänge entsteht? Daten verweisen für Dewey auf etwas außerhalb ihrer selbst. Aber sie sind nicht Träger der Bedeutung; diese konstituiert sich in der Anwendung. In der vielleicht nicht das glücklichen Metapher von Feuer und Rauch: Wo wäre hier die Eigenschaft oder Aktivität des Brennens? Und wo die Feststellung, dass etwas brennt? Auch die Indikator-Eigenschaft lässt sich also nicht ganz von Aktivität und Kontext lösen.

Diese auf den ersten Blick unterstellte Unmittelbarkeit und Sonderstellung von Daten entpuppt sich also als ein weiterer Hinweis auf Abgrenzungsprobleme. Diese können auch als Hinweis darauf verstanden werden, dass strikte Trennlinien, wie moderne rationale Menschen sie gerne ziehen, nicht immer angemessen sind. – Eine Idee, die Bruno Latour einige Jahrzehnte nach Dewey in seiner Unterstellung, wir wären nie modern gewesen, näher ausgeführt hat.

Dewey bezieht diese mangelhafte Abgrenzung nicht nur auf Dichotomien zwischen Natur und Kultur, Technik und Gesellschaft, er diagnostiziert auch flexible Übergänge zwischen innen und außen; Artefakte gebe es auf beiden Seiten. Wissen ist für Dewey ein Artefakt, auch Wissen existiert also sowohl in unseren Köpfen als auch außerhalb von diesen.

In der konkreten Formulierung klingen extended mind-Theorien an, wie sie Jahrzehnte später bei Clark oder Chalmers ausformuliert wurden; Dewey wird in dieser Richtung allerdings nicht weiter konkret. Für Dewey sind andere Konsequenzen (oder Möglichkeiten) dieser Diagnose relevant.

Bedeutung entsteht durch Anwendung

Eben weil Bedeutung erst durch Funktion und Anwendung entsteht, kann es für Dewey keine neutralen Theorien geben, keine distinterested science. Bedeutung (und damit sinnvolle Aussagen) gibt es immer nur in Hinblick auf konkrete Kontexte. Theorien und Wissenschaft allerdings sollen auf möglichst viele verschiedene Interessen und Kontexte anwendbar sein.

Hier werden Deweys Ausführungen noch einmal in Hinblick auf Daten und Data Science relevant. 

Denn, fragt Dewey, wie kommen wir zu gültigen Verallgemeinerungen? Die gute Nachricht, verkürzt gefasst: relativ leicht. Die schlechte Nachricht: Das ist allerdings kein gesicherter Weg, hinter eine Kette von Beziehungen und Bedeutungszusammenhängen zu kommen. Daten sind für Dewey immer partikulär, sie entsprechen keinem „principle of nature“, die Beziehungen, durch die sie ihre Bedeutung bekommen, sind nicht in der Natur festgelegt, sie entstehen durch die und für die Untersuchung.

»Notwendigkeit ist Aberglaube«

Diese Kontext- und Zweckabhängigkeit bestimmt die Konstitution von Bedeutung, die Formulierung von Fragen, die Kalibrierung von Skalen, die Bildung von Modellen und Metaphern und letztlich wohl auch die Frage, welche Beziehungen zwischen Daten und ihren Objekten überhaupt postuliert werden. Wissenschaftlich ist das wenn diese Bedeutungskette nachvollziehbar und argumentierbar ist. Problematisch dagegen ist es, wenn Teile dieser Kette in Vergessenheit geraten oder verdrängt werden. Genau das unterstellt Dewey „certain forms of technology“: Diese hätten nicht nur die Tendenz, Auswahlmöglichkeiten zu beschneiden, sie tragen darüberhinaus auch noch dazu bei, die bereits getroffenen Entscheidungen in Vergessenheit geraten zu lassen, „they anesthesize awareness that choice has been limited“.

Notwendigkeit ist für Dewey purer Aberglaube. Es gibt immer Entscheidungen. Möglicherweise allerdings wurden sie bereits getroffen. 

Entscheidender als die Frage der Notwendigkeit ist das Wissen darüber, wann, in Hinblick auf welche Zwecke und wie diese Entscheidung getroffen wurde.

Das ist für Dewey kein Defizit, das es zu beseitigen gälte. Kontext ist konstitutiv für das Entstehen von Bedeutung, Inferenz als Herleitung von Bedeutung ist eine Funktion von Verhalten; unterschiedliche Verhaltensweisen (oder das gleiche Verhalten in unterschiedlichen Kontexten) führt also zu unterschiedlichen Bedeutungen.

Dewey sieht dieses Argument als zentral für seine Begriff der inquiry, der in der Tradition pragmatistischer Wahrheitskonzepte steht (vereinfacht: wahr ist, was nützlich ist), von hier aus lässt sich aber – mit Blick auf Daten, Repräsentation und Datenmodelle – auch ein Argument geben die Vision des hypothesenfreien Forschens entwickeln.

Die Idee des hypothesenfreien Forschens und Modellierens geht von der Möglichkeit aus, „die Daten“ (oder Algorithmen) Entscheidungen treffen zu lassen, ohne ihnen Vorgaben zu machen. Beim unsupervised machine learning etwa bilde Algorithmen selbst Cluster anhand von Beziehungen oder Häufungen von Merkmalen, die ihnen selbst auffallen. Der Mensch muss nicht einmal vorgeben, wieviele Cluster es sein sollen. Das wird als Gegenentwurf zum Modell- oder hypthesengesteuerten Forschen und Modellieren gesehen, wobei erst Erwartungen formuliert und dann Beweise dafür gesucht werden. 

Beim hypothesenfreien Modellieren kann man darüber streiten, dass die Ergebnisse letztlich auch noch Interpretation brauchen. Das ist aber nur ein Teil der verdrängten Entscheidungen. Unterschiedliche Algorithmen liefern unterschiedliche Cluster, die Auswahl der Grundgesamtheit wirkt sich ebenso aus wie das Bereinigen um Ausreißer oder die Festsetzung von Schwellwerten – all das sind Entscheidungen, die, mit Dewey, im Nebel der Anästhesie verschollen sind.

Machine learning-Ergebnisse ohne das Wissen um die angewendeten Netzwerkalgorithmen (oder oft sind es ja nur Datenabfragen) analysieren zu wollen, also auch dabei theoriefrei zu bleiben, ist fahrlässig. Und in der analytischen Praxis sind oft jene Ergebnisse am fruchtbarsten, die aus vorerst unerklärlichen Gründen überhaupt nicht zur Ausgangshypothese passen. Die lassen sich aber nur dann feststellen, wenn Ergebnisse vor dem Hintergrund einer Hypothese betrachtet werden, mit der sie erarbeitet wurden. (Ok, Überraschungen kann man auch anders erleben – zum Beispiel durch schlechte Vorbereitung. Das würde aber nicht zu bevorzugten analytischen Methoden gehören.)

Für Dewey könnte nur die unsystematische, unwissenschaftliche Analyse auf Hypothesen und damit auf Klassifizierung verzichten – denn sie begnügt sich mit der Feststellung individueller, singulärer Bedeutung, die in konkreten Situationen gegeben ist. Wissenschaft und gültige Theorien dagegen müssen abstrahieren können. Das bedeutet nicht, dass sie ohne Kontext gelten. Sie sollten allerdings in allen möglichen Kontexten gelten. Sie bleiben also auf Kontext angewiesen. 

Daten, diese Feststellung geht aber über Dewey und Hickman hinaus, bräuchten ihre eigene Beweis-Blockchain und die Erwartungen erfüllen zu können, die Anhänger des hypothesenfreien Forschers und Modellierens an sie stellen. Allerdings müsste diese Blockchain, anders als die Blockhains, die wir kennen, auch in die Zukunft reichen. Das klingt abwegig, wird aber implizit auch immerhin so konkret postuliert, dass es von anderen Forschern unter dem Stichwort „promissory data“ kritisiert wird.

Michael Hafner

Michael Hafner

Technologiehistoriker, Comic-Verleger, Datenanalyst

Sonst noch neu

Christine Lagorio-Chafkin, We are the Nerds

Reddit ist seit dieser Woche börsenotiert. Die Reddit-Story erzählt, wie die Geschichte vieler Onlineplattformen der letzten 20 Jahre, wie Neugierde und Experimentierfreude Extremen und Radikalisierungen in alle Richtungen weichen müssen.

Ben Smith, Traffic

Die BuzzFeed-Story – eine Kulturgeschichte des Verhältnisses von Medien und Internet in den letzten zwanzig Jahren.

AI und Medien: Zurück in die Zukunft der kleinen LLMs

KI-Strategien der dritten und vierten Generation setzen zunehmend auf eigene, reduzierte und kontrollierbare Modelle. Wer auf generative Multi-Purpose-LLMs wie Chat GPT setzt, hat keine besonders ausgereifte KI-Strategie. Gerade in der Medienbranche ist das gut zu beobachten.

Meine Bücher