Jenseits von Analytics

Jenseits von Analytics

Zeitgemäße Analytics-Tools bieten mehr und setzen mehr voraus, als viele digitalisierende Unternehmen können.

Sollen wir Wetterdaten auch berücksichtigen? Vielleicht die aktuelle Börsenlage als Indikator für das Gemüt mancher Segmente? Oder gleich die weltweite Nachrichtenlage, um dier allgemeine Laune der Zielgruppe zu bewerten?

In der Urgeschichte des Internet waren Analytics-Tools schlichte Counter, die vorerst mal irgendwas zählten. Anfänglich, man erinnert sich, waren es überhaupt sogenannte „hits“ – also jede Interaktion mit dem Webserver, jede aufgerufene html-Datei, jedes Bild, jedes Script. Bei laufend komplizierter werdenden Webseiten, die aus einer Vielzahl von Scripts, Bildern, css-Dateien und html bestanden (wer erinnert sich noch an Frames?) führte das recht schnell zu absurd hohen Hit-Zahlen. Hübsche Torten- und Balkengrafiken gab es auch, aber sie sagten nichts aus.  

Aktuelle Analytics-Frameworks sind weit davon entfernt. Sie tracken Aktionen, aggregieren Daten, reichern diese mit Informationen an – und machen damit nichts. Integration geht über Präsentation, Interoperabilität schlägt Visualisierung. Bevor Daten heute dargestellt werden, haben sie eine Reihe von Aggregierungen durchlaufen, wurden mit Informationen aus anderen Quellen verknüpft, mit weiteren Details angereichert, auf Konsistenz und Validität überprüft und durch eine Reihe von Repositories gereicht.

Sogar alte Platzhirschen wie Google Analytics, Piwik oder Matomo, die über Jahre hinweg keine Wünsche offenzulassen schienen, wirken heute veraltet und schwerfällig.

Die versprochene Informationsfülle rückt allerdings in weite Ferne, soald ein zeitgemäßes Analytics-Projekt konkret werden soll:

Technische Flexibilität erfordert große Präzision in den Requirements. 

Präzise Requirements erfordern klare und stabile Prozesse.

Das ist aber oft dann, wenn der Datenbedarf groß wird, nicht der Fall. Wo also anfangen, wenn sowohl das Ziel als auch die Ausgangslage unklar sind? Ausgedehnte Requirementsphasen sind aus der Mode gekommen, seit agile Methoden vorherrschen. Der Wunsch nach schnellen Ergebnissen lässt oft vergessen, dass die ersten Ergebnisse noch weit von der eigentlich gewünschten Ausbaustufe entfernt sind. Und große Ziele, denen gegenüber sich die ersten Ergebnisse mickrig ausnehmen, wirken entmutigend, wenn schon der Weg zu den ersten Zielen länger als ein paar Tage war.

Sind moderne Analytics-Tools also hehre Zukunftsvisionen, die noch länger nicht Realität werden? Oder wenden sie sich an ein Publikum, das schon einige Stufen auf dem Weg zu Data-Wissen und Data-Erfahrung hinter sich hat – und aufgrund dieser Anforderungen eben nicht zahlreich ist?

Die Fähigkeit, zeitgemäße Werkzeuge zur Datananalyse verstehen und einsetzen zu können, wird einen doppelten Unterschied ausmachen: Sie setzt einen zeitgemäßen Wissensstand voraus, der einen Vorsprung bedeutet – und sie verschafft einen weiteren Vorsprung, der den Unterschied zu jenen, die am Anfang stehen, vergrößern wird.

Vor einigen Jahren haben wir über Media Literacy und allgemeine digitale Skills diskutiert, in recht deformierter Gestalt ist diese Diskussion mittlerweile sogar in Schulen und Lehrplänen angekommen – dort wird Media Literacy in der Gestalt von digitaler Grundbildung gelehrt als wäre Medienkompetenz alles, was an Digitalknowhow notwendig wäre.

Digitale Media Literacy ist eine wichtige Fähigkeit, um in der Gegenwart nicht völlig intellektuell zu verwahrlosen. Manchmal, das ist ein Missverständnis, werden technische oder fachliche Skills dabei in den Vordergrund gestellt. Dass das ein Irrtum ist, lassen allein die verirrten Geister in diversen Telegram-Channels erkennen. Als Nutzer sind sie auf der Höhe der Zeit, aber als Bürger sind sie hoffnungslos verwirrt.

Diese Differenz markiert einen der Übergänge zu Data Literacy. Auch hier sind technische Skills relevant, im Gegensatz zu Media Literacy sind sie etwas komplexer und auch im engeren Sinne tatsächlich technisch, indem sie auch über reines Oberflächen-Knowhow für Anwender hinausgehen. Noch relevanter aber wird der Bezug zu Kontext, zu Details im Prozess und zur konkreten Anwendung. Denn Daten werden überschätzt: Daten stehen im Ruf, aussagekräftige Stellvertreter der Wahrheit zu sein, auf Umwegen wird ihnen eine besondere, direktere Verbindung zu Realität nachgesagt. Wer die richtigen Daten kennt, trifft bessere Entscheidungen – das ist beliebter Konsens unter Data Scientists, Analysten und Big Data-Trittbrettfahrern

Diese Einschätzung setzt mathematische, technische und statistische Skills voraus. Sie setzt auch großes Fachbereichswissen voraus. Und sie setzt, das ist die wichtigste und schwierigste Entscheidung, voraus, dass auch bekannt ist, wann es genug ist. Welche Daten und welche Abhängigkeiten spielen eine Rolle, welche Faktoren gelten als Einflüsse, also als systemexterne Komponenten, und welche als Ergebnisse, also als Systembestandteile? Welche beobachteten Inputs haben zwar räumlichen oder zeitlichen Zusammenhang, wirken sich aber weder auf das eigentlich beobachtete Geschehen aus und sind letztlich völlig beliebig?

Statistik kann viele dieser Fragen vermeiden. Eine bunte Menge an Eingaben liefert ein Ergebnis. Möglicherweise lassen sich Teile davon sogar reproduzieren. Welche der als Einflüsse betrachteten Faktoren welchen Anteil an der Wirkung hatten, bleibt dabei unbekannt. Die Ausgangslage und eventuelle besondere Konstellationen, die sie beeinflussen, sind unscharf umrissen. Und jede mögliche Erklärung wirft wieder neue Fragen über Systemgrenzen, Ursache und Wirkung auf.

Klare Entscheidungskriterien sind hier selbst wieder laufender Veränderung unterworfen. Das braucht Erfahrung, das braucht verschiedene Perspektiven. Das braucht den Vorsprung, der sich nur über Jahre und mit Arbeit erreichen lässt und der den Unterschied macht. 

Aus dieser Erfahrung kommen allerdings auch die wichtigsten Argumente gegen Daten und ihre effiziente kommerzielle Nutzung. 

Es gilt, nicht nur die Frage nach dem Nutzen, sondern auch die Frage nach dem Sinn durchgängig automatisierter und datenbasierter Abläufe zu schaffen. Gerade die Verlagsbranche, in der Daten schon seit langem das Thema der (langen) Stunde sind, muss sich diese Sinnfrage angesichts vieler sich verändernder Rahmenbedingungen stellen. 

Wem nutzt es, Usern maßgeschneidert personalisierten Inhalt anzubieten? Langweilt das Nutzer oder befriedigt es sie? Welchen Sinn machen detailierte Erkenntnisse aus der Vergangenheit mit daraus abgeleiteten Prognosen für die Zukunft, wenn die sich daraus ergebenden Empfehlungen den eigenen Intentionen widersprechen? Wenn die notwendigen Handlungen außerhalb des eigenen Spielraums liegen? Oder wenn die sich als notwendig ergebenden Veränderungen dort stattfinden müssten, wo man selbst keinen Einfluss hat?

In der Praxis: Warum sind datenreiche Branchen wie Banken, Versicherungen, Energie- und Telekomanbieter so schlecht darin, ihren Datenreichtum produktiv einzusetzen?

Diese Verwirrungen spiegeln im großen das kleine tägliche Dilemma, dem jeder Datenanalyst immer wieder ausgesetzt ist. Jede Erkenntnis, jeder Schluss ist zugleich gewagt, banal, auf dünnem Eis basiert und eine Selbstverständlichkeit, zu deren Erkenntnis es keiner Analysen bedurft hätte.

Letztlich, das lehrt zumindest der Rückblick, ist es dann aber doch die Summe dieser vorerst unscheinbaren Erkenntnisse, die den Unterschied ausmacht. Sofern alle Beteiligten durchhalten.

Michael Hafner

Michael Hafner

Technologiehistoriker, Comic-Verleger, Datenanalyst

Sonst noch neu

Oswald Wiener, Probleme der Künstlichen Intelligenz

Maschinen gelten möglicherweise nur als intelligent, weil wir uns selbst für intelligent halten. Vielleicht ist auch menschliche Intelligenz aber nur ein flacher Formalismus. Ein Ausweg kann die Konzentration auf Emergenz statt Intelligenz sein. Aber auch die Frage, ob in einem Prozess Neues entsteht, ist nicht trivial.

Onur Erdur, Schule des Südens

Biografische Wurzeln in Nordafrika als prägende Elemente postmoderner Theorie – und als Ausgangspunkt zu einer Verteidigung von Postmoderne und Dekonstruktion gegen mutwillige Missverständnisse und akrobatische Fehlinterpretationen.

Medienfinanzierung: Last Exit Non Profit

Non Profit-Journalismus entwickelt sich als neuer Sektor auch in Österreich, Stiftungen unterstützen in der Finanzierung. Hört man den Protagonisten zu, ist die Gefahr nicht von der Hand zu weisen, dass hier abgehobener, belehrender Journalismus gemacht wird, den man eben lieber macht, als ihn zu lesen.

Yuval Noah Harari, Nexus

Prinzip Wurstmaschine: Harari verarbeitet vieles in dem Bemühen, leichtfassliche und „originelle“ Einsichten zu formulieren und wirkt dabei fallweise wie ein geheimwissenschaftlicher Esoteriker. Auch bei Extrawurst weiß man nicht, was alles drin ist – aber das Ergebnis schmeckt vielen.

Meine Bücher