Ben Smith, Traffic

Das Ende des Aufstiegs von BuzzFeed war auch das Ende des Social Media-Siegeszugs. Die New York Times schreibt von Post-Social-Media – kleinen Medien-StartUps, die auf Qualität statt Masse setzen, auf Umsatz statt auf Reichweite. Jahresabos für Spezialisten-Newsletter beginnen teilweise über 1000 Dollar und mehr. Unvorstellbar für eine Zeit, in der man dachte, Traffic könne alle Probleme lösen. 

Diese Zeit beschreibt Ben Smith in „Traffic“. Smith baute den Nachrichtenbereich bei BuzzFeed auf und veröffentlichte als erster das Dossier über die angeblichen Pinkel-Orgien von Donald Trump in Moskau. Diese Veröffentlichung läutete auch das Ende der Strategie des uneingeschränkten Publizierens von allem bei BuzzFeed ein. Das Dossier verselbständigte sich und zeigte, dass Informationen auch Medien leben können. Zumindest ohne solche wie BuzzFeed, die wenig einordnen und großteils auf Hintergrund und Orientierung verzichten.

Kontrollverlagerung: Von Email-Verteilern zu Netzwerkplattformen  

Aber der Reihe nach. „Traffic“ beschreibt den Aufstieg einer neuen Generation von Onlinemedien ab den frühen Nuller Jahren, beginnend mit der damals neuen Huffington Post. Protagonist ist Jonah Peretti, Traffictreiber bei Huffington Post und Gründer von BuzzFeed, der zu Beginn des Buchs aber eine andere Entdeckung macht: Pranks, Memes und andere einfache Inhalte, die Menschen neugierig machen, unterhalten oder aufregen, können  Eigendynamik gewinnen und sich ungeahnt schnell und weit verbreiten.

Smiths Analyse dieser Entdeckungen ist eine Kulturgeschichte des Verhältnisses von Internet und Medien: In den frühen Stadien sorgten Email-Verteiler und Newsgroups für die Verbreitung von Inhalten. In einer nächsten Phase waren es Links und Backlinks. Das war die Hochphase der Blogs. Bald darauf waren Suchmaschinen, schnell allen voran Google, die wichtigsten Trafficquellen für Websites. Diese wurden von Social Networks, allen voran Facebook, abgelöst.

Mit jedem Entwicklungsschritt verlagerte sich die Kontrolle über Tempo und Ausmaß der Verbreitung weg von Sender und Publikum hin zu Zwischenhändlern. Das ist genau das Gegenteil der Entwicklung, die die Frühphase des Internet erwarten ließ. „Weg mit den Mittelsmännern“, ein lang gepflegter Kampfruf der Digitalisierung in Medien und Handel, fand seine Erfüllung nur ganz kurz. Im Zeitalter der Mailverteiler wurde das Publikum selbst zum Sender – oder eben nicht. Später übten Blogs damit Macht aus, wen sie verlinkten und wen nicht. Die Aufnahme in Blogrolls erfolgreicher Blogger war ein Ritterschlag für Newcomer. Manche Seiten bestanden überhaupt großteils nur aus kommentierten Linksammlungen, etwa der berüchtigte Drudge Report, der die Lewinsky-Affäre veröffentlichte. Frühe Suchmaschinen waren eine Goldgrube für Clickbaiter. Sie ließen sich leicht austricksen, mit Schlagwortsammlungen auf den Seiten in die Irre führen und machten neue Seiten so von den Verlinkungen der großen Blogger unabhängig. Qualitätskriterien, verbesserte und geheimere Priorisierungen, ständig neue Rankingkriterien drehten die Verhältnisse allerdings bald um. Jetzt kontrollierten Suchmaschinen, welche Art von Inhalten erfolgreich war. Als Internet-Pionier galt, wer Google verstand.

Vokuhila-Strategie

Social Media und Facebook verhießen anfangs einen Schritt zurück in die Zeit, in der das Publikum bestimmte. Groß wurden jene, über die geredet wurde, so wie in der Zeit der Mailverteiler. Durch die Sichtbarkeit der Interaktion – alle sahen, was die Freunde ihrer Freunde teilten – vervielfachten sich Reichweiten und Wachstumsgeschwindigkeiten. Facebook war so lange relevante Trafficquelle für Medien, bis Facebook den Traffic selbst auf der Plattform behalten und nicht mehr durch ausgehende Links verlieren wollte. Heute sollen User mit Inhalten interagieren – egal ob sie sie mögen oder sich ärgern, und egal was die Inhalte sind.

Mit diesen Phasen wechselten die jeweils erfolgreichsten Medien ihrer Zeit. Die ersten Phasen dominierte Drudge oder Gawker. Smith beschreibt die Gründung der Huffington Post als Versuch, Drudges Erfolg ein liberales Gegengwicht entgegenzusetzen. Lustigerweise damals mit an Bord der Huffington Post: Andrew Breitbart, späterer Gründer des Rechtsaußen-Portals breitbart.com und früherer Mitarbeiter bei Drudge. Breitbart kehrte bald zu Drudge zurück, bevor er breitbart.com aus der Taufe hob und behauptete später,  er habe bei der Post nur spioniert. 

Die Huffington Post bemühte sich um liberale aufgeklärte Politik – also um Inhalte, wie sie niemanden interessierten. Der gewünschte Traffic, um geschäftlich erfolgreich zu sein, musste von anderswo kommen. Peretti beschreibt das als mullet strategy (Vokuhila-Strategie): vorne Business, hinten Party. Listicles, Howtow, identitätsorientierte Personalitystorys brachten den eigentlichen Traffic.

BuzzFeed war eigentlich nur das Experimentierlabor nebenbei, in dem veröffentlicht wurde, was für die um Seriosität bemühte Huffington Post zu abgedreht war. Damit überflügelte BuzzFeed allerdings bald die Post. 

Die wesentlichen Entwicklungen für beide Portale kamen rund um 2005 in Gang. In Österreich haben wir damals an oe24.at gearbeitet. SEO war ein Thema, Facebook war noch sehr neu und zu persönlich, um für Medien relevant zu sein. Traffic kam von Google oder über starke Marken. Die Pläne waren groß; kurz nach dem Start, als es ums Geldverdienen ging und die Printausgabe funktionieren musste, wurden sie sehr schnell wieder sehr klein.

Die Mitarbeiter der ersten Phase bei Huffington Post und BuzzFeed gehörten zu den prägenden Figuren der Onlinemedienbranche, hatten allerdings wenig journalistische Vorerfahrung. Credo der Redaktion war, wie bei vielen späteren Neugründungen, die Idee, alles zu veröffentlichen, was relevant ist – ohne Rücksicht auf Verluste und ohne Rücksicht auf die Betroffenen. Für Gawker führte das auch bald zum Ende. Nach einigen umstrittenen Publikationen hatte das Portal auch ein privates Sextape des Wrestlers Hulk Hogan veröffentlicht. Nach einem langen Rechtsstreit wurden Strafzahlungen von 140 Millionen Dollar rechtskräftig, die Seite musste schließen. Der Prozess war von Peter Thiel finanziert worden – manche meinen, aus persönlicher Abneigung gegen Gawker-Betreiber Nick Denton und weil dieser Thiel als homosexuell geoutet und als seltsam bezeichnet haben soll.

Und man musste doch über Journalismus reden

Die Relevanz der Huffington Post nahm über die Jahre ab, übrig blieb BuzzFeed. Einige der viralsten BuzzFeed-Storys sind wohl noch allen im Gedächtnis. Ist das Kleid schwarz und blau oder gold und weiß? Wieviele Gummiringe können um eine Wassermelone gespannt werden, bis die zerplatzt? Und woher kam das Dossier zu Trumps Eskapaden in Moskau? Während die frühen Phasen von BuzzFeed noch gar nicht als Alternative zu Nachrichtenmedien geplant waren, erwachte später durchaus der Wunsch, auch News zu machen – und das veränderte das Medium, die Branche, und die Art und Weise, wie Traffic erzielt wird.

Ein erster großer Facebook-Erfolg für BuzzFeed war ein schlecht programmiertes Quiz. Hundertausende Facebook-User wunderten sich über ihre Ergebnisse – und brachten mit ihrer Interaktion Traffic. Dieser Erfolg war ähnlich weit weg von Nachrichten und Politik wie das Kleid oder die Melone. Liberale Ideale waren gar nicht Thema. Politik blieb aber nicht immer langweilig. Im Gegenteil. Mit der Zeit hatten Rechte gelernt, wie das neue Internet funktionierte, und ihnen fiel es noch leichter, auf Inhalte zu verzichten, Erregung hochzuhalten – und damit Politik machen. Spätestens mit Trump gab es dann auch jemanden, der an der Politik vorbei Politik machen und aus den neuen Erregungs- und Verbreitungsmechanismen Kapital schlagen konnte. Versuche, etwas daran zu ändern, etwa durch Enthüllungen, Skandale oder die Moskau-Leaks, halfen wenig. Sie lieferten im Gegenteil Material, neue Feindbilder aufzubauen und Verschwörungs- und Dolchstoßlegenden zu konstruieren. Die Sache lief sich tot. Und noch fataler: User langweilten sich. Aufregung brachte keinen Traffic mehr. Sie blieb auf Facebook oder wurde dort absorbiert. später schwappte sie vielleicht nich in Telegram-Gruppen über.

Vom hippen Neuland zum noch lauteren Stammtisch

Smith beschreibt diese Entwicklung als Generationenfrage. Coole Internetpioniere hatten Netzwerke, Suchmaschinen und Interaktion erfunden. Dann hatten ihre Eltern verstanden, wie das funktioniert, und ihren alten Zorn in diese Netzwerke mitgebracht. Aus Ironie, Hyperaktivität und der Suche nach dem nächsten heißen Ding war Ernst geworden. Und das Internet war nichts Neues, Außergewöhnliches, Fremdes mehr – nichts, dessen neue Regeln man lernen musste oder konnte, um dann einen Vorsprung vor anderen zu haben. Das Internet war, schreibt Smith, im Verlauf dieser zehn bis fünfzehn Jahre, zu einem Teil der Gesellschaft geworden, in dem sich abspielte, was sich auch sonst im der Gesellschaft abspielte. Im Internet waren alle – Rednecks, Stammtischbesucher und alle anderen, für die die liberalen Visionen der frühen Onlinemediengründer keinen Platz gelassen hatten.

Ein anderer Nebenstrang im Buch ist das Verhältnis von BuzzFeed und Disney oder der New York Times. BuzzFeed lehnte Übernahmeangebote im Höhe von hunderten Millionen, eine Bewertung summierte sich gar auf 1,7 Milliarden Dollar, immer wieder ab. Heute ist BuzzFeed wenig relevant, Disney ist eine der größten Nummern im Geschäft. Die New York Times war ein schüchterner Dinosaurier, der lernen wollte, und es schien, als könnte das alte Flaggschiff nie zu den coolen Leuten aufschliessen. Erst war die NYT nur alt und langsam, dann hatte BuzzFeed auch noch dazu die großen Scoops. Gerade diese brachten allerdings die Wendepunkte. BuzzFeed veröffentlichte – und überließ den Dingen ihren Lauf. Alle machten aus der Story, was sie wollten. Und alle machten auch aus ihrer Wahrnehmung von BuzzFeed, was sie wollten. Die Seite hatte kein Profil mehr – Interaktion fand auf Facebook statt, Nachrichten auf den alten Plattformen, und BuzzFeed hatte es mehr und mehr geschafft, obsolet zu werden. Heute ist BuzzFeed Vergangenheit, die New York Times ist die stärkste Medienmarke der Welt und ein Synonym für den Erfolg mit digitalen Abomodellen. 

Traffic verliert an Wert

Sind das gute oder schlechte Neuigkeiten für jemanden, der digitale Medien weiterentwickeln will? Die Zeiten der viralen Trafficwunder für Medien dürften vorbei sein. Nicht weil es weniger Traffic gäbe. Es gibt so viel Traffic überall, dass dieses ehemalige Gut immer wertloser wird. Es ist schwerer zu monetarisieren, schwerer zu behalten und zu steuern; User haben Ausweichmöglichkeiten. Umso wichtiger wird nachhaltiger Traffic von Usern, die häufiger wiederkommen, die bei einem bestimmten Medium bleiben und vielleicht sogar bereit sind, für dessen Nutzung zu zahlen. Das erfordert Content, die Ansprache passender Usergruppen, den richtigen Draht zwischen Usern und Content – und all das sind Anforderungen, für die sich noch nirgends die idealen Wege abzeichnen. Medien wie die NYT schaffen es mit Breite, andere mit Tiefe, alle die es schaffen, mit bestimmten Formen von Qualität. Kritisch beim breitenorientierten Zugang ist die potenzielle Reichweite: Welche Medien und ihre Märkte sind schon groß genug, um in all der Breite auch die relevanten Nischen bedienen zu können, die User dann wirklich schätzen und deretwegen sie auch bei diesem Medium bleiben? Kritisch beim spezialisierten tiefenorientierten Zugang ist die Frage, wie lange es noch funktionierende und ausreichend breite Netzwerke gibt, in denen sich solche Inhalte verbreiten können. Wer spezialisierte Inhalte erstellt verkauft, ist darauf angewiesen, dass es auch breitenorientierte Inhalte gibt, die Themen setzen, Aufmerksamkeit steuern und den Bedarf an tieferer Information wecken. Newsletter oder Podcasts, die vermeintlich Overhead einsparen und direkt zur Sache kommen, können nur solange funktionieren, wie andere den Overhead in Kauf nehmen und versuchen, damit Geschäft zu machen.

Wer kann überleben? 

Notwendige Zutaten für eine funktionierende zeitgemäße Medienlandschaft sind breitenwirksame Medien, die Themen setzen können und die für ihre Inhalte verantwortlich gemacht werden können. Es sind Netzwerke oder Suchmaschinen, mit denen Menschen Neues entdecken können. Es sind Spezialangebote und tiefgehende Inhalte, die fesseln, binden und User zurückbringen. Es ist ein Anspruch, etwas zu vermitteln – im Idealfall Orientierung, Aufklärung, Transparenz, Informationsfreiheit -, der in ein Markenversprechen gepackt werden kann und dazu beiträgt, dass User verstehen, warum sie dieses oder jenes Medium nutzen sollten. 

Überlebensfähig sind Medien, die in unterschiedlichen Ausprägungen von allem etwas bieten können. Die Bandbreite ist notwendig, weil immer auch alles schnell anders werden kann.  

Werner Heisenberg, Physics and Philosophy

Es ist eines der relevantesten Wissenschafts-Erklärbücher überhaupt. Schließlich wirkt Quantentheorie auch für jemanden, der gleich zwei Mal Philosophie studiert hat, wie ein Elitenrätsel esoterischer Geheimbündler – und wird leider oft auch so diskutiert und vermittelt. Heisenbergs Buch ist da ganz anders. Jeder Satz ist präzise und verständlich – und ganz nebenbei erklärt Heisenberg auch noch 2500 Jahre Philosophiegeschichte im Überblick.

Eine der zentralen Thesen für das Verständnis von Quantenmechanik: Alltagsbegriffe verlieren ihre Bedeutung, wenn sie auf Konzepte außerhalb der Alltagserfahrungen angewendet werden. Dann liefern sie keine zufriedenstellenden Erklärungen mehr. Umgekehrt sind präzise wissenschaftliche Begriffe nicht besonders gut darin, Bedeutung zu vermitteln. Sie bezeichnen etwas und machen es damit eindeutig – aber damit ist es noch nicht erklärt (das ist auch ein systemisches Problem von Definitionen. Begriffe sind nie ganz klar und werden durch Vernunft und Analyse auch nie restlos geklärt werden können. Aber manche, meint Heisenberg ganz pragmatisch, sind eben notwendig, um Wissenschaft betreiben zu können. Heisenberg kommt übrigens auf dem Umweg über Kant zu diesem Entschluss. Kants Kategorien von Raum und Zeit, in denen Erfahrung stattfinden kann, sind solche notwendigen Begriffe. Sie müssen als gesetzt angenommen werden (bei Kant heißt das a priori); der Versuch, sie restlos logisch zu klären, würde Wissenschaft unmöglich machen.

Eine weitere von Heisenbergs womöglich in den 50er Jahren noch aufregenderen Thesen: Wir sind nicht, weder als Menschen noch als Wissenschaftler, von einer zu beobachtenden und zu erkennenden Welt getrennt, wir sind Teil dieser Welt, Teil unserer Beobachtung, und unsere Beobachtung ist ein wesentlicher Prozess bei dem Vorgang, diese Welt zu erkennen.

Das heißt letztlich: Realität ist ein Ergebnis und eine Eigenschaft der Beobachtung. Sie ist weniger Eigenschaft des Beobachteten. Quantenmechanik ist eine statistische Theorie, in der Wahrscheinlichkeiten eine zentrale Rolle spielen. In diesem Licht bedeutet das: Wahrscheinlichkeiten repräsentieren einen Fakt und das Wissen über diesen Fakt.

Mit diesen Vorbedingungen werden bekannte Interpretationen der Quantenphysik um einiges leichter verdaulich. Beobachtungen und damit auch die Bedingungen eins Experiments stehen in Wechselwirkung mit Ergebnissen. Wenn wir nicht gleichzeitig genau sagen können, wo ein Teilchen ist und wohin es sich bewegt, liegt das nicht nur an Eigenschaften dieses Teilchens, sondern auch daran, dass der Raum, in dem sich das Teilchen innerhalb einer bestimmten Zeit verändert und dadurch eine Bewegung vollzieht, so wie die Zeit eine notwendige Voraussetzung der Vorstellung von Bewegung ist. Immer weitere Erkenntnisse zu neuen Erscheinungsformen von Elementarteilchen, die sich in unterschiedlichen Anwendungen weiter zerlegen, anders zusammensetzen oder neues bilden, tragen mit dazu bei.

Von diesem letzten Punkt – der Einheit von Materie – zieht Heisenberg einen langen Bogen zurück zu den frühesten Vorsokratikern. Nach ersten Konzepten über Mächte und Energien tauchten bei den Materialisten Ideen unteilbarer Elementarteilchen auf, aus denen alles zusammengestetzt werden kann. Eine Idee, die sich bis in ausgereifte moderne Atommodelle durchzog, bis immer genauere Experimente und neue Teilchenkonzepte Energie als treibende Kraft zurück ins Spiel brachte. Ist Bewegung und daraus resultierende Energie das Verbindende in Materie? – Oder werden deshalb die alten Konzepte scheinbar wieder relevant, weil das die Erklärungen sind, zu denen wir als Menschen eben immer wieder angesichts dieser Fragestellungen kommen?

Für Sozialwissenschaftler sind Heisenbergs Konzepte leichter zu nehmen als für Naturwissenschaftler oder Techniker. Der Forscher ist hier immer Teil des Systems, Methoden haben Einfluss auf Ergebnisse und Ergebnisse unterliegen Interpretationen. 

Dennoch sind manche von Heisenbergs Schlüssen auch aus dieser Perspektive überraschend. Zeitgeist, meint Heisenberg etwa, ist ein ebenso objektiver wissenschaftlicher Fakt wie andere Fakten in den Naturwissenschaften. Das klingt nach einer steilen These. Allerdings ist es nur eine konsequente Fortsetzung des Gedankens, dass Fakten vorläufige Ergebnisse komplexer Prozesse, eigentlich selbst Prozesse und in ihrer Bewertung  und Bedeutung veränderlich sind. All das trifft auch auf vage Konstrukte wie Zeitgeist zu – der allerdings ist für die Auswahl von Fragestellungen und die Interpretation von Ergebnissen immens bedeutend.

Immer wieder stellt man sich bei Heisenbergs Argumenten die Frage, was davon jetzt Analogie, Allegorie und was Beschreibung von Experimenten und Ergebnissen. Wo sind die Begriffe unscharf und wo die Teilchen?

Heisenberg beschäftigt sich mit Physik und Naturwissenschaft und lenkt gerade damit, mit dieser scheinbar neutralsten und objektivsten Art der Wissenssammlung, die sich geradewegs an nachvollziehbaren Fakten orientiert, dazu auf, sich mit den Grundlagen des Denkens, der Sprache, der Wahrnehmung, kurz: mit sich selbst zu beschäftigen. 

Physik nimmt eine subjektive Wende und stellt damit die traditionellen Grenzen zwischen Subjektivität und Objektvitiät zur Disposition. Von hier aus kann man zu esoterischen Auswüchsen starten. Heisenbergs kann aber auch als eine Art Programm zur Einordnung anderer Wissenschaften gelesen werden, die einer Neupositionierung bedürfen, um vom Fleck zu kommen. Data Science etwa gilt den einen als Königsweg zur besseren, mathematisch faktengestützten Entscheidung, anderen als durch Bias verdorbene Reproduktion herrschender Verhältnisse, denn Algorithmen reproduzieren nur, womit sie gefüttert werden.

Auch hier hilft die Perspektivenverschiebung, die sich von der Trennung von Beobachter und Beobachtetem loslöst und den Beobachter als Teil des Systems begreift. Datenorientierte Fragestellungen und Antworten müssen im Licht von Zwecken und Zielen betrachtet werden, um sinnvolle Antworten geben zu können.

Ähnliches gilt für die Beschäftigung mit KI. Ehrfürchtige oder panische Beschwörungen gegenüber einer irgendwo dort draußen zu findenden KI sind Verkürzungen, die das Problem, das sie angeblich beschreiben, erst schaffen. Diskussionen zur Regulierung, Beschränkung oder Nutzung von KI, die deren Prozesse nicht in ihren Einzelteilen betrachten und behandeln können, produzieren leere Begriffswelten, die mehr über die Geisteswelt ihres Produzenten aussagen als über ihr angebliches Objekt.

Heisenbergs Text ist ein Aufruf, sich mit Unklarheiten zu beschäftigen. Unübersichtliche Stellen in der Wissenschaft sind oft nicht nur eine Frage des Fortschritts, sie werden nicht mit fortschreitender Erkenntnis oder verbesserten Werkzeugen verschwinden. Sie begleiten Forschende manchmal seit über 2500 Jahren, egal ob Vorsokratiker in den Himmel sagen oder Physiker der Gegenwart auf den Teilchenbeschleuniger.

Diese Unübersichtlichkeiten sind oft Teil und Ergebnis von Sprache, Versuchsanordnung, Welterklärungskonzepten, manche werden reduziert oder durch andere ersetzt, manche bleiben erhalten. Und diese Unübersichtlichkeiten stellen nicht das infrage, was wir so weit gesichert wissen, als es funktioniert. Denn was funktioniert, ist aus einer pragmatischen Perspektive grundsätzlich einmal richtig.

Auch das ist eine wichtige Funktion, die die Rumpelkammer der Wissenschaft erfüllt: Dort können Unübersichtlichkeiten und Anomalien gelagert werden, ohne andere Bereiche, für die sie weniger relevant sind, zu stören. Sie können jederzeit hervorgeholt werden, wenn es sinnvoll erscheint. Aber jede Fragestellung, jede Aufgabe hat ihre Sprache und ihre angemessenen Methoden, wie Heisenberg schreibt. Und keine davon schließt die anderen aus – außer vielleicht für diesen einen konkreten Zweck.

AI und Medien: Zurück in die Zukunft der kleinen LLMs

Der Tech-Manager des großen Medienhauses war zufrieden. Er hatte den unmotivierten Teilzeit-Redakteur des lieblos gewarteten Society-Portals durch eine KI ersetzt – und nichts hatte sich verändert. Die schlechten Nutzungszahlen der belanglosen Storys blieben schlecht. „Ich sehe das als Erfolg“, sagte er. „Wir haben eine Redaktion für Künstliche Intelligenz ersetzt und die Nutzungszahlen sind die gleichen – als ob echte Redakteure an den Tastaturen sitzen würden.“

Der Mann arbeitet nicht mehr in der Medienbranche und ist aktuell wieder bei einem IT-Unternehmen, das uninspirierte Prozesssoftware vermarktet.

Über Journalismus und generative AI wird seit Monaten viel geredet. Wer das Generative an AI für den relevantesten Punkt in der gemeinsamen Zukunft von Medien und AI sieht, sollte jedenfalls keine Zukunft im Journalismus anstreben. In der AI-Branche vermutlich auch nicht.

Journalisten sind Menschen, die leicht und gerne formulieren. Ein Textgenerator ist ihnen keine Erleichterung. Es ist die Kernkompetenz von Journalisten, in Texten und Sachverhalten Neues, Ungewohntes und Relevantes zu entdecken und in Worte zu fassen. Als Schreibkonkurrent wird AI im Journalismus wenig erfolgreich sein. Was nicht bedeutet, dass schreibende AI nicht sehr viel dazu beitragen könnte, die Medienbranche weiter an den Rand des Abgrunds zu drängen. 

Mangelnde Präzision und Effizienz bei großen LLMs

Populäre generative AI beruht auf sehr großen Large Language Models. Diese kennen das Internet und mehr – und dementsprechend kreativ sind oft auch ihre Ideen. Gerade im Journalismus, wo präzise Formulierungen und klarer Umgang mit Information relevant sind, ist das ein Problem. Eine Intelligenz, die fabuliert wie der Betrunkene kurz vor der Sperrstunde in seiner Bar, ist dabei wenig hilfreich. Für den Großteil journalistischer Anwendungen wäre ein Bruchteil des Trainingsmaterials, der in LLMs steckt, ausreichend.

Das ist eine Entwicklung, die sich überall dort abzeichnet, wo sich Medienprofis mit technischem Verständnis sinnvoll mit AI-Anwendungen beschäftigt haben. Diese Beschäftigung macht die Nachteile von sehr großen LLMs offenbar. Sie eignen sich gut für Partytricks – aber sie schweifen ab. Halluzinationen sind das eine Problem. Noch unangenehmer ist die mangelnde Reproduzierbarkeit von Ergebnissen bei großen LLMs. Noch einmal unangenehmer wird dieses Problem mit der mangelnden Transparenz vieler Modelle. Die Folge: Endlich hat man einen sinnvollen Prompt, der im Testdurchlauf auf mit großen und schwierigen Datensätzen die richtigen Ergebnisse bringt – und beim nächsten Durchlauf ist alles anders. Railguards wie verpflichtende Erklärungen der Entscheidung nützen hier auch wenig. Fabulierfreudige AIs können jede ihrer Entscheidungen erklären und wirken dabei überzeugend. Der ultimative Prompt, der alle Optionen abfängt, ist etwa so weit weg wie das ultimative statistische Modell, dass ohne jede Wahrscheinlichkeitsschwankung rechnen kann, weil es schlicht alles berücksichtigt.

Ein weiteres Problem sind Zeit und Kosten. Beim spielerischen Austesten ist es ganz süß, wenn sich die KI mit einem Problem nachdenklich zurückzieht, um dann von einer Lösung zu erzählen. In der Praxis ist das oft ein KO-Kriterium für effiziente Prozesse. Ein paar Sekunden Verzögerung stellen Workflows in Frage: Soll das Ergebnis abgewartet werden, um eventuell kurze Qualitätsprüfungen durchzuführen? Soll der Prozess sofort weiterlaufen, ungeachtet des Risikos, dass eventuell gar kein Ergebnis oder ein unpassendes zurückgeliefert wurde? Im besten Fall entstehen so unkontrollierte Artefakte, deren Sinnhaftigkeit nachträglich nur aufwendig überprüft werden kann. Im schlechtesten Fall werden Prozesse ausgebremst, Redakteure können nicht weiterarbeiten oder müssen sich nach dem Arbeitsrhythmus der KI richten statt nach ihrem eigenen. Zusätzlich entstehen durch Abfragen in großen Modellen höhere Kosten, unabhängig davon, ob die Größe des Modells für die Antwortfindung überhaupt nützlich ist.

Chance für Risikosteuerung und Transparenz

Das sind nur einige Beispiele, warum gerade viele Medienhäuser mehr und mehr Abstand davon nehmen, allgemeine Multi-Purpose-LLMs zu verwenden. Stattdessen gehen sie wieder zu kleineren, eigenen und kontrollierten Modellen über. Vielschichtige KI wird eher wieder zu einfachen Machine Learning-Anwendungen reduziert. Das ist effizienter, günstiger und kontrollierbarer.

Und das ist auch eine Chance für Risikoabschätzung und Kontrolle rund um AI. Viele Medienunternehmen, viele Plattformen überarbeiten jetzt ihre KI-Projekte der ersten und zweiten Stunde. Umfassende Gesetzgebungsanstrengungen wie der EU AI Act, die auf Risikoklassifizierung setzen, können jetzt mit Transparenzanforderungen punkten und Dokumentationspflichten durchsetzen. Statt auf inhaltliche Kontrolle von Netzwerken und Plattformen zu setzen, können Transparenz und Model Risk Management als effizientere Regulierungsansätze durchgesetzt werden. Und statt Unsinnigkeiten wie Klarnamenpflicht oder KI-Kennzeichnungspflicht zu fordern, können mit technischer Transparenz Problemlösungen tatsächlich vorbereitet werden.

Für Unternehmen ist das auf jeden Fall das Gebot der Stunde. Kostenreduktion, Effizienz, Kontrollierbarkeit sind zentrale Themen für die nächste Welle von sinnvollen KI-Projekten nach ersten euphorischen Testrunden. Diese Chance kommt allerdings mit zwei Bedingungen: Erstens sind konkrete Erfahrungen und technisches Knowhow notwendig. Wir binden nicht mehr einfach Open AI ein, wir arbeiten mit konkreteren Modellen oder erstellen unsere eigenen. Zweitens müssen wir es ernst meinen. Ein paar Tests hier, ein paar zusammengestoppelte Abrufe da – das ist nicht mehr ausreichend. Wer seinen KI-Einsatz kontrollieren und damit zu nachvollziehbaren, wiederholbaren und verlässlichen Ergebnissen kommen will, muss eben auch Geld in die Hand nahmen und Personal freigeben. Solche KI-Initiativen funktionieren nicht mehr nur als Bottom Up-Ansätze. KI kann man ebenso wenig delegieren wie andere Digitalisierungs-Initiativen.

Ein A****bombencontest ist auch ein Verdrängungswettbewerb

Der ORF gibt ein Gutachten über die Auswirkungen seiner Digitalpräsenz auf andere Medien in Auftrag. Die Autoren des Gutachtens verlaufen sich. Ihre Kernaussage ist: „Wir wissen es auch nicht.“ Der ORF feiert.

Was ist passiert? Seit zwei Jahren muss sich der ORF vermehrt der Frage stellen, wie sehr das öffentlich finanzierte Medium alle anderen Medien auf dem kleinen Markt Österreich dank seiner öffentlich gut gefüllten Taschen kommerziell an die Wand spielt. Umso mehr, seit dank Haushaltsgabe und ORF-Gesetz noch mehr Geld in die Kassen des Medienriesen gespielt wird und dem ORF noch mehr Möglichkeiten online offenstehen. Andere Medien sehen sich währenddessen multiplen Krisen ausgesetzt und experimentieren mit der Monetarisierung von Digitalinhalten – eine Herausforderung, der sich der öffentlich rechtliche Riese nie stellen musste. 

Trotzdem meint man, hier mitreden zu müssen. ORF-Vertreter richten anderen Medien gern aus, niemand hindere sie daran, so erfolgreich zu sein wie sie selbst. Jedes Medium hätte die gleichen Reichweiten und ähnliche Marktpositionen erzielen können (da ist anzumerken: Nein. Wer sich mit Monetarisierung beschäftigen musste, konnte sich nicht vollends auf Reichweite konzentrieren. Und umgekehrt). Dazu kommt: Auch in der ÖWA (Österreichichische Web Analyse) ist der ORF nicht zuletzt deshalb aus Platz 1, weil er meint, dass für öffentlich rechtliche Angebote andere Zählregeln gelten. Eine umstrittene Einstellung, die in absehbarer Zeit zum Ausschluss von orf.at führen kann.  

Um die vermeintliche Digital-Vormachtstellung zu untermauern, ließ man eben jetzt ein Gutachten erstellen. Eine erste, vor einem Jahr erstellte Umfrage, die hätte untermauern sollen, wie sehr User den ORF gegenüber anderen Medien bevorzugten, wurde nie veröffentlicht. Der sehr einfache Grund: User bevorzugten den ORF im Internet nicht aus inhaltlichen oder qualitätsorientierten Gründen gegenüber anderen Medien. Sein vorrangiger USP war schlicht: Er kostetet nichts. Wobei auch das falsch ist. Korrekt muss es heißen: Der ORF im Internet kostet nichts zusätzlich zu dem, was sie ohnehin an ORF-Gebühren zahlen müssen.

Deshalb jetzt eben Wissenschaft. 

Allerdings auch hier bleibt das einzig eindeutige Ergebnis: Nachrichtenkonsumenten sind in erster Linie preissensibel. Für über 60% der LeserInnen und Leser ist es das ausschlaggebende Argument, dass eine Nachrichtenseite nichts kostet. 

Das ist nun tatsächlich ein großer Verdienst, den sich öffentlich rechtliche, Corporate Newsrooms, Social Networks und auch ratlose Digitalnachrichtenseiten teilen können

Der Rest des Gutachtens ist recht spekulativ auf wackligen Stelzen unterwegs. Viele Annahmen und Voraussetzungen stimmen nicht: Weitaus mehr Seiten (als die Autoren annehmen) setzen auf Digitalabos. Digitalabos enthalten anderes als online verfügbar gemachte Zeitungsinhalte. Digitalmedien als ganzes konkurrieren nicht mit einer einzelnen Seite des ORF (der sogenannten Blauen Seite), sondern mit dem ganzen ORF Online-Universum von Sport über Lokalnachrichten bis zu Wetter und Kulturmagazinen. Die in der ÖAK (Österreichische Auflagenkontrolle) veröffentlichten Paid Content-Zahlen verhalten sich zu echten Digitalabozahlen so wie FTE-Kennzahlen zu Menschen – abgesehen davon, dass viele große Verlage nach wie vor ihre Digitalzahlen nicht an die ÖAK melden.

Für Weltnachrichten (die es vermeintlich überall gibt – solange es sie gibt) nutzen immer weniger Menschen Nachrichtenseiten von Medienhäusern, das ist richtig. Umso mehr sind Medienhäuser zusätzlich auf Diversifizierung und Spezialisierung angewiesen. Umso dynamischer ist der Markt. User reagieren sensibel auf Veränderungen, aber langsam. 

Die Gutachter interpretieren ihre Arbeit so, dass eine eventuelle Einstellung der Blauen Seite kaum Auswirkung auf den Digitalabo-Absatz anderer Medien hätte. Die gleichen Zahlen des gleichen Gutachtens können auch so interpretiert werden, dass eine umfassende Einschränkung des ORF im Internet zu einer Vervielfachung des Digitalabo-Marktes führen würde. 

Solche wackeligen Konstrukte sind wenig hilfreich. Schade, dass sich ORF-MacherInnen hinter so dünner Spekulation verstecken statt sich mit ihrer Rolle im Medienmarkt zu beschäftigen. 

Mustafa Suleyman, The Coming Wave

Es wird wild, meint Mustafa Suleyman. Das breitet er auf 300 Seiten aus und das ist in Summe dann schon ein wenig enttäuschend. Die Erwartungshaltung – jemand weiß so viel über AI und synthetische Biologie, dass er einen 300seitigen Bestseller darüber schreiben kann – ist deutlich zu spezifisch. Suleyman schreibt über alle möglichen Innovations- und Disruptionsthemen und streift seine eigentlichen Kernthemen jeweils an den Kapitelenden.

Seine zwei Kernthesen dabei:

  • Containment, also die Begrenzung und Kontrolle von Technologie, ist nicht möglich.
  • Containment ist lebensnotwendig.

Das sind natürlich Widersprüche, mit denen Suleyman in der Folge immer wieder spielt. Technologie ist als unaufhaltsame Welle beschrieben, die über die Zivilisation hereinbricht und alles verändert. Das ist eine deterministische Perspektive, die Menschen wenig Spielraum lässt. Technologie treibt und entscheidet und verändert. Mensch und Gesellschaft sind passive Objekte dieser Veränderungen. – Dass Menschen Technologie entwickeln, Gesellschaften Technologien nützen und verändern, um Probleme zu lösen, das sind wechselseitige Abhängigkeiten, die Deterministen noch nie Kopfschmerzen bereitet haben. Determinismus braucht Schwarzweiß-Kontraste. 

Natürlich ist Suleyman, Co-Founder von DeepMind, dem Entwickler von AlphaGo, kein Technologie-Gegner. In Kombination mit Biologie und DNA-Synthetisierungsmaßnahmen eröffnen KI und verbesserte Rechenleistung neue Möglichkeiten, die erstens ungeahnte Veränderungen mit sich bringen und zweitens jedem offenstehen. Das birgt ungeheures Potenzial. Fraglich ist allerdings, ob Menschen damit umgehen können. Und diese Frage stellt sich nicht nur in Hinblick auf die Konsequenzen potenzieller überwältigender Entwicklungen, sondern auch in Hinblick auf die produktive Nutzung. KI kann viele Probleme lösen, Rechenleistung kann viele Probleme lösen, in Verbindung mit synthetischer Biologie können sich diese Möglichkeiten potenzieren und zu Verbesserungen oder zur absoluten Katastrophe führen. KI kann Medikamentierung finetunen oder bei der Entdeckung der tödlichsten Bio-Kampfstoffe helfen. Für die Technik macht das wenig Unterschied; die notwendigen Geräte, meint Suleyman, kann sich bald jeder leisten und in Küche oder Garage unterbringen.

Warum tut sich auf diesen Gebieten dann noch nicht mehr? Möglicherweise liegt das auch daran, dass KI und Technologie zwar viele Probleme lösen können, viele Menschen aber weder vor noch nach der Problemlösung wissen, dass es diese Probleme gibt. Noch weniger wissen sie, was man mit ihrer Lösung anfangen kann oder welche Bedrohung dahintersteckt. Cyberrisiken bleiben abstrakt, mit Ki manipulierte DNA noch viel mehr.

Diese Kluft zwischen Potenzial, Realität und Erwartung bremst das Buch öfters aus. Die Wiederholung von Superlativen ermüdet, es gibt eben keine Steigerung mehr zur Vielzahl finaler Krisen, ultimativer Fehler und überwältigender Veränderungen (von denen überdies – Druckerpresse, Dampfmaschine, Internet – doch einige schon in den letzten mehreren hundert Jahren in Gang gesetzt wurden), die den Leser abstumpfen, noch bevor das letzte Drittel des Buchs erreicht ist.

Zu dieser Kluft passt auch, dass eine der letzten großen Cyberattacken, die FBI und andere Geheimdienste aus aller Welt auf den Plan rief und die größten Streaming- und Social Network-Plattformen für längere Zeit lahmgelegt hatte, dann doch nicht das Meisterwerk einer bösartigen Strategie, sondern das Produkt gelangweilter Teenies und ihrer zwielichtigen Marketingideen war.

Weil Containment aber trotz allem notwendig ist, kommt Suleyman dann doch auf den Punkt. Technologie kann nicht mit Vorschriften und inhaltlichen Regulierungen beschränkt werden. Wer Technologie in den Griff bekommen will, muss sich mit Technologie und ihrer Natur beschäftigen, statt alte Kontrollidee auszugraben.

Technischen Problemen muss mit technischen Lösungen begegnet werden, dafür ist technisches Verständnis notwendig. Suleymans Regeln, die Chancen auf Containment gefährlicher Technologien erhalten sollen, gehen über das Beschwören von Gefahren, das Äußern kulturpessimistischer Positionen oder die Aufrufe zu politischem Handeln hinaus. Wer sich sinnvoll mit Technologie beschäftigen will, muss lernen, damit umzugehen, muss die grundlegenden Funktionsweisen verstehen und muss sich die Hände schmutzig machen.

Reflektierende Positionen sind wichtig, die Chance auf Lösungen lebt aber in Erfahrung, Anwendungen, selbstgeschriebenen Codezeilen und eigenen Experimenten. Daraus können Lösungen und Perspektiven entwickelt werden. Der Rest der Beiträge in Technologiedebatten sind hehre Prinzipien aus heißer Luft.

Damit kommt Suleyman letztlich doch zu erstaunlich konkreten Punkten – leider erst auf den letzten zwanzig Seiten seines Buchs. Es ist zu wünschen, dass viele der Prediger, Visionäre und Feuilletontechnologen auch so weit kommen. Und dann auch in Betracht ziehen, diese Empfehlungen ernstzunehmen.

Es wäre wünschenswert. 

Der Stand aktueller Diskussionen rund um Klarnamenpflicht, KIRegulierungen oder Daten und Machine Learning lässt anderes befürchten. Das ist schade. Denn Entwicklung wird dort möglich, wo Augenmerk auf scheinbar Selbstverständlichkeiten gelegt wird, wo Blackboxen geöffnet werden und normalerweise Unhinterfragtes im Detail analysiert wird. Damit wächst die Chance, Dinge in den Griff zu bekommen. Durch den Wettlauf um möglichst spitze Takes und aufrüttelnde Schreckensvisionen sinkt sie eher. Das ist eines der zentralen Argumente, die man aus Sulyemans Buch mitnehmen kann.

Klarnamenbeschwörer und andere Distinktionsspießer

Sie treten in Wellen auf und kehren immer wieder, als wären sie in einem langsamen aber unaufhaltsamen Strudel der Gezeiten gefangen, der sie in unregelmäßigen Intervallen immer wieder an Land spült: Klarnamenbeschwörer, empörte Cancel Culture-Diagnosten und Diskursschönheitstrauerredner sind, ohne es sehen zu wollen, Alter Egos der gleichen Kulturkritikschablonen.

Anonymität zerstört den Diskurs, unqualifizierter Widerspruch zerstört den Diskus, Formmängel zerstören den Diskurs.

Hinter diesen Einwänden steckt, das Adrian Daub in seinen Cancel Culture-Forschungen herausgearbeitet, oft der bloße Unwille, sich damit auseinanderzusetzen, dass da jemand mitredet, für den kein Platz am Tisch vorgesehen war. Oft ist es ehrliche – aber trotzdem ungerechtfertigte – Empörung darüber, dass jemand Gehör bekommt, den man gern ingoriert hätte. Sie widersprechen? Cancel Culture! Sie haben lustige Nicknames? Klarnamenpflicht! Sie verstoßen gehen unsere Rituale? Diskurszerstörer!

Die Klarnamenpflichttforderer fordern oft auch inhaltliche Regulierung von Social Network-Plattformen und Beichtpflicht für die Verwendung von KI. Das ist alles nachvollziehbar. Es ist nicht einmal falsch. Allein, es ist müßige Beschäftigungstherapie. Es ist das Dreschen von Phrasen und frommen Wünschen, die teils eine bald 300 Jahre zurückreichende Geschichte haben. In diesen 300 Jahren hätte den Beschwörern auch mal dämmern können, dass jene Lösungen, die man seit 300 Jahren beschwört, vielleicht keine Lösungen sind? Sonst hätten sie viellleicht etwas gelöst?

Aber Diagnosen allein sind auch ein liebgewonnenes Spiel. Es sind liebgewonnene und gut eingeübte Rituale, die man nicht einfach durch von der Tradition abweichende Fragestellungen über Bord werfen darf.

So trat heute in Österreich der Digitalstaatssekretär, der eben erst mit seiner KI-Behörde die Digitalzukunft des Landes gesichert hatte, vor die Presse und verkündete Klarnamenpflicht ohne Konzept, um Wirtshäuser vor ungerechten Bewertungen zu schützen. Und prompt packten bewährte Klarnamenbeschwörer und angehende KI-Dompteure ihre Essays aus den vergangenen Jahrzehnten aus. Nachdem sie gestern von totaler Disruption und alles verändernden Tsunamis gepredigt haben, wollen sie heute weiter Probleme mit schlechten Ideen von vorgestern lösen. Danke.

Henry Kissinger, Eric Schmidt: The Age of AI

Viel mehr an Flughöhe geht nicht für einen Text. Das ist aber auch nicht zu erwarten, wenn Henry Kissinger und Eric Schmidt, ehemaliger Google CEO, gemeinsam an einem Text zu KI arbeiten. Da werden schnell mal die letzten 2500 Jahre Geistesgeschichte gestreift und dann noch die Kriege der Zukunft verhandelt, um einem Thema wie dem KI-Zeitalter gerecht zu werden.

Der Bogen in die Vergangenheit stellt AI in den Kontext von Theorien über Wahrnehmung und Erkenntnis. In Kurzfassung: Platons Ideen blieben unerkennbar, der Wahrnehmung sind nur Phänomene zugänglich. Hume macht auf den Unterschied zwischen Wiederholung und Kausalität aufmerksam: Nur weil Dinge öfter in der gleichen Reihenfolge geschehen, ist das noch lange kein Hinweis auf kausale Zusammenhänge zwischen diesen Ereignissen. Kant schob das Ding an sich in den Bereich des Unerkennbaren und legte die Kategorien des Verstandes als Möglichkeiten und zugleich Grenzen des von diesem Verstand Erkennbaren fest. Heisenberg schließlich postulierte, dass der Weg eines Teilchens überhaupt erst dadurch entsteht, dass wir ihn beobachten und als solchen beschreiben. 

Kurzfassung: Da sind eine ganze Menge am Komplikationen im Spiel, die auch die fortgeschrittensten Erkenntnistheorien nicht zu lösen vermochten. Komplexere und raffiniertere Instrumente und Versuchsanordnungen haben erst dazu angesetzt, ein wenig mehr Klarheit zu schaffen, letztlich aber noch mehr Unschärfen offenbar gemacht.

Ist KI jetzt ein neues Instrument, mit dem wir Dinge erkennen können, die uns zuvor nicht zugänglich waren? Das ist möglich. Schafft KI noch mehr von diesen Unschärfen, mit denen wir zwar etwas erkennen, aber nicht verstehen, warum wir es erkennen? Das ist wahrscheinlich. Komplexe und oft schlecht dokumentierte oder geheim gehaltene Machine Learning Modelle funktionieren, aber der Wert der durch sie gewonnenen Erkenntnis ist fragwürdig – sobald man über die unmittelbare Auflösung zuvor formulierter Problemstellungen hinausgehen möchte. Das Problem ist gelöst, man darf aber nicht hinterfragen, wie und warum. Maschinen als Kandidaten von Turing-Tests sind so gesehen Vorreiter des Behaviorismus: Denn zur Disposition steht nur ihr sicht- und messbares Verhalten, nicht ihr innerer Mechanismus. Gemessen wird bei Turing-Tests nicht, ob eine Maschine mit einem Menschen mithalten kann, sondern ob der Mensch sich von der Maschine täuschen lässt. Das sind grundverschiedene Fragen.

In Bezug auf sinnvolle Positionen zu KI ist es sehr wichtig, den Unterschied zwischen diesen Fragestellungen verstehen zu können. 

Künstliche Intelligenz ist vor allem effizient. Sie prüft Alternativen schneller als Menschen und kommt auch in der Evaluierung der Folgen einzelner Entscheidungen schneller voran. Dabei ist der vorgegebene Rahmen relevant: Welches Problem soll KI lösen? Noch relevanter ist aber die Einschätzung der Umgebung, in der KI arbeitet: Welcher Stellenwert wird den Ergebnissen einer KI zugestanden? Wie weit ist diese Frage noch relevant oder wie weit wurde sie durch Prozesse bereits übergangen, das heißt wie umfassend ist eine KI an weitere Anwendungen angebunden, die ihr nicht nur algorithmische Entscheidungen, sondern auch so etwas wie Handlungen erlauben? Das ist der Punkt, an dem aus gewöhnlicher KI allgemeine KI oder AGI wird – Artificial General Intelligence. AGI bleibt nicht auf auf einem Bildschirm angezeigte Ergebnisse beschränkt, sie kann darüber hinaus Prozesse in Gang setzen und über Systemgrenzen hinweg Handlungen anstoßen. KI beschreibt, wie etwas gemacht werden könnte, AGI setzt das gleich um. – Noch ist AGI eine Vision.  

Weil KI vor allem effizient ist, ist die Frage, wie KI lernen soll, weniger drängend als die Frage, was KI lernen soll. Das Wie ist seit langem in Gang gesetzt, das Was kann noch gesteuert werden. Aus philosophischer Perspektive sind Wie und Was aber durchaus Begriffe, die ineinander übergehen können. Am Beispiel des KI-Trainings: Menschen können entscheiden, in welche Themengebiete sich KI einarbeitet (das ist das Was), im Detail eröffnet sich damit aber noch sehr viel Spielraum beim Wie des Lernens: supervised machine learning arbeitet Vorgaben ab und versucht Dinge nachzuvollziehen. Beispiele sind etwa klassische Sortieraufgaben. Unsupervised machine learning schlägt selbständig gefundene Muster vor, es bleibt allerdings dem Anwender – oder den weiteren Rechenschritten – vorbehalten, ob diese Muster als nützlich empfunden werden. Reinforcement learning schließlich integriert dieses Anwenderfeedback direkter in den Lernprozess. Zwischenstufen im Prozess nehmen Information darüber auf, ob ein Lernergebnis erwünscht ist oder nicht. Praktische Anwendungen dafür sind etwa Ethikregeln im machine learning: Modelle können schnell Strategien entwickeln, Probleme auf unethische oder illegale Weise zu lösen, Reinforcement greift ein und lässt solche Lösungen nicht als Lösungen gelten. Das ist ein Beispiel dafür, wie Was und Wie ineinandergreifen. Die Methode des Lernens, das Wie, beeinflusst auch das Was, indem auch bei vorerst weniger ethisch relevanten Fragestellungen ethische Dimensionen eine Rolle spielen.

Abstraktes machine learning wird so zu einer pragmatischen Angelegenheit, in der Kompromisse eine Rolle spielen. KI entdeckt nichts, KI schafft nichts Neues, KI arbeitet Regeln ab und geht manchmal trotzdem undurchsichtige Wege. Das sind mitunter gefährliche Momente, das sind Punkte, an denen man hartnäckig bleiben und versuchen müsste, zu entschlüsseln, was genau passiert ist.

Das stellt allerdings vor zwei Probleme: Zum einen arbeitet KI so schnell so viele Möglichkeiten ab, dass das Nachvollziehen solcher Prozesse menschliche Möglichkeiten übersteigt. Ein Beispiel dafür sind die zur Genüge nacherzählten Lerneffekte von Deep Mind beim Go-Spielen, als plötzlich neue Spielzüge im Raum standen. Zum anderen sind auch menschliche Erkenntnis und rationale Systeme nicht immer so rational und transparent, wie wir es für uns beanspruchen. Viele Wissenschaftstheorien, viele Welterklärungssysteme sind rund um dunkle Flecken gebaut, die sich mit diesen Systemen selbst nicht ausreichend erklären lassen. Vielleicht ist diese Gemeinsamkeit der intelligenteste und menschlichste Aspekt von KI.

Es kann aber ebenso der unangenehmste Aspekt sein. Am Beispiel von KI-gesteuerten Waffensystemen erklären Kissinger und Schmidt, dass es ebendiese dunklen Flecken sind, die den Umgang mit KI besonders riskant machen können. KI in Waffensystemen weiß mehr, hat mehr Informationen verarbeitet und Entscheidungen abgewogen, als Menschen es je können. Und KI taktiert nicht, hat keine Gewissensbisse und kennt keine psychologischen Spiele. Ob das ein Vorteil oder Nachteil für ihr Gegenüber ist – egal ob von menschlicher oder künstlicher Intelligenz – muss offen bleiben, betonen Schmidt und Kissinger. Auch das bedeutet letztlich: Der Umgang mit KI ist eine pragmatische Angelegenheit, in der man sich schrittweise vorantasten muss. In manchen Fällen geht das leichter, in anderen, wie dem Kriegsbeispiel, ist das riskanter.

Der Umgang mit KI ist für Kissinger und Schmidt ein derart breites Feld, dass sie KI als ein großes Paradigma des Welterfassens betrachten. KI steht für sie auf einer Stufe mit Glauben – einige Jahrhunderte war Glaube der vorherrschende Weg der Welterklärung, Welterklärungen mussten im Einklang mit Religionen sein – und Vernunft. Vernunft als dominierender Zugang zur Welt weckt die Erwartung, alles müsste erklärbar und begründbar sein. Eine Hoffnung, die sich gerade in den letzten Jahrzehnten auch als Täuschung erwiesen hat. Nicht etwa, weil sich Esoterik und Übernatürliches durchgesetzt hätten, sondern weil Physik und Logik bei Unschärfen, Unentscheidbarkeiten und Wahrscheinlichkeiten gelandet sind.

Es bleibt also offen, was dieses neue Prinzip des Weltzugangs über KI bedeutet wird. 

Generell geben Kissinger und Schmidt weniger Antworten. Ihr Anliegen ist es eher, die Dimension aktueller Fragestellungen erkennbar zu machen. Dem kann man entgegenhalten, dass das mitunter wenig ist. Man kann auch infrage stellen, ob KI als Instrument zwischen uns und der Welt einen so viel größeren Unterschied machen wird als Mikroskope, Teleskope oder Film und Fotografie. Auch das sind Techniken, die die ehemaligen Grenzen des Wahrnehmbaren gesprengt haben. Eine andere Art skeptischer Fragen ist bei all den Anleihen an Druckerpresse und Dampfmaschine, ob wir tatsächlich von diesen Innovationen der Vergangenheit aus in die Zukunft rechnen wollen. Und wo, wenn das möglich wäre, die bahnbrechende Disruption von KI angesiedelt wäre? Was hat man sich bei der Erfindung des Rades gedacht, bei der Instrumentalisierung des Feuers? Oder waren auch diese Ereignisse möglicherweise keine Ereignisse, sondern schleichende Entwicklungen, aus denen nachträglich einschneidende Wendepunkte herausdestilliert wurden? (Zur Frage, wann ein Ereignis ein Ereignis ist, hat Žižek eines seiner wenigen präzisen Argumente entwickelt).

All das führt zu einigen wenigen jedenfalls festzuhaltenden Punkten: Mit KI muss man arbeiten. KI muss man anwenden, einsetzen, testen. Man kann sie natürlich auch verweigern oder ignorieren. Aber KI ist kein Ereignis, dass sich mit eigenem Antrieb über die Welt verbreiten wird. KI wird sich verbreiten, aber jemand wird diese Verbreitung mitgestalten. Dem können wir uns ausliefern – wenn wir uns gern mit halluzinogenem Determinismus, Visionen und Dystopien beschäftigen. Oder wir können selbst mitgestalten – wenn wir uns mit einem pragmatischen Zugang anfreunden können. Und damit, dass Ergebnisse offen bleiben. Wir werden nicht die großen Weichen stellen. Die findet vielleicht später jemand. 

Die Lust an der KI-Angst

Es wird ein Wahlkampfjahr. Man merkt das unter anderem daran, wie viele neue Glücksritter sich als Experten und künftige KandidatInnen zu platzieren versuchen. Es wird ein EU-Wahlkampfjahr – das verschärft die Situation insofern, als Glücksritter aller Arten herausgefordert sind, sich Themen zu widmen, denen sie nicht gewachsen sind. das wäre nicht schlimm – vielen auf europäischer oder internationaler Ebene zu verhandelnden Themen ist niemand allein gewachsen. Schlimm wird es aber dann, wenn Menschen in ihren Ambitionen so tun, als wären sie diesen Themen gewachsen und simple Handlungen, man kann es nicht Lösungen nennen, für komplexe Themen vorschlagen. Noch schlimmer ist das nur, wenn die handelnden Personen sich für differenziert, weitsichtig, populismuskritisch und zukunftsorientiert halten. 

Technologie und Politik sind eine Glatteiskombination, auf der man nur schwer ein gutes Bild abgeben kann. Alle reden über Technologie, wenige haben Expertise oder Erfahrung. Technologie ist relevant, prägt viele Lebensbereiche und wird damit für alle zum Themen. Social, Data, KI – die Trendthemen der letzten Jahre haben einander überholt, bevor noch irgendwas ansatzweise geregelt gewesen wäre.

Der EU AI Act ist zwar fixiert, aber noch immer recht ungreifbar. Und in seiner gezielt technikfernen Risikoklassifikation sehr abstrakt, abstrakter als ein technikorientierter Spezialistenzugang sein könnte.

Der Digital Services Act (DSA) ist ein greifbareres Thema. Der DSA soll auf internationaler Ebene diverse Schattenseiten von Internet und Onlinemedien regeln und unter anderem vor Mobbing und Desinformation schützen. 

Und damit sind wir beim Thema. Geht es um Wahlen, geht es um Demokratie, geht es um das Gute – dann geht es um den Ruf nach Verboten und Regulierung. 

Es steht außer Frage, dass digitale Plattformen und Social Networks Probleme verursachen. Aber es ist eine bestürzende Themenverfehlung nach inhaltlicher Regulierung zu rufen und die Anwendung von Mediengesetzen, wie sie für Zeitungen, Onlinemedien oder Fernsehsender gelten, zu fordern.

Plattformen und Netzwerke erstellen keine Inhalte. Inhalte sind ihnen egal. Es würde nichts an der zugrundeliegenden Problematik ändern, wenn bestimmte Inhalte – sofern es dafür jemals eine sinnstiftende Klassifikation geben würde – entfernt würden. Manche Menschen könnten vielleicht, mit dem Gefühl, etwas erreicht zu haben, besser und selbstzufriedener schlafen. Aber es ist eine Diskussion, wie wir sie in Wien schon Ende der 90er Jahre geführt haben – etwas als Helene Partik-Pablé, damals FPÖ-Politikerin und Staatsanwältin, Hausdurchsuchungen bei einem Provider durchführte, weil jemand im Internet verbotene Bilder aus dem Internet über die Server des Providers angesehen hatte. Technik hat seither Lichtjahre an Entwicklungssprüngen zurückgelegt. Die Qualität technologiepolitischer Debatten eher nicht. 

Manche Inhalte sind gefährlich und bedrohlich. Aber können sie moderiert werden, zumal wenn sie in Sprachen verhandelt werden, von denen die betroffenen Konzerne nicht einmal wussten, dass es sie gibt?

Überdies: Gesetze gelten. Probleme liegen in ihrer Anwendung, und darin, dass sie den Kern des Problems nicht treffen.

Es ist erschreckend, wie schnell Menschen nach Einschränkungen und Verboten rufen, ohne sich bewusst zu sein, dass sie damit Infrastrukturen fordern, die im Handumdrehen gegen selbst gerichtet werden können. Verbot von Verschlüsselungssoftware? Her mit dem gläsernen Menschen. Einschränkungen beim Einsatz von KI-Methoden? Dann rekonstruiert in Handarbeit, was andere automatisiert gefälscht haben. Kennzeichnungspflicht für technische Manipulationen? Muss dann auch angegeben werden, welcher Instagram-Filter verwendet wurde, welche Bildbearbeitungsapp, deren Namen man gar nicht mehr weiß? Oder welche Brennweite bei Fotos verwendet wurde? Weitwinkelobjektive machen schließlich große Nasen.

Sinnvollere und härtere Regulierungen als Inhaltskontrolle sollten an Transparenz ansetzen. Der Schatz und das Geheimnis von Plattformen und Social Networks sind nicht Inhalte und Redaktionen, es sind Daten, Machine Learning Modelle und andere Algorithmen. Jede Verpflichtung zur Transparenz auf dieser Ebene bietet viel mehr Möglichkeiten zum Risikomanagement als jeder Eingriff in Inhalte. Model Risk Management im Machine Learning ist ein sich etablierendes Feld – Modelle können daraufhin geprüft werden, welchen Schaden sie in welchem Umfeld anrichten können und wie sie zu bändigen sind. Intransparente Modelle funktionieren nach einiger Zeit nur noch als bloße Verstärker, die mehr vom gleichen hervorbringen, ohne verständlich zu sein – das macht es schwer, ihren Lauf zu verändern oder Regeln für sie zu etablieren.

Genau das sind aber sinnvolle Möglichkeiten. 

Ein Beispiel: Die meisten Plattform-Modelle zielen darauf ab, Menschen länger online zu halten, indem ihnen Dinge gezeigt werden, die sie binden – egal was es ist. Man klickt oder wischt weiter und hat nach wenigen Minuten keinen Überblick mehr, wo man ist, wie man dorthin kam, wer gerade spricht und wie diese Information einzuschätzen ist. Intransparente Modelle machen hier einfach weiter. Transparente Modelle können angehalten werden, nach x dem Modell folgenden Inhalten das Muster zu brechen und etwa passende Hinweise anzuzeigen – oder Inhalte aus Medien, die Public Value Content produzieren. 

Datentransparenz ist eine andere mögliche Regelung, die in Ansätzen auch bereits im EU Data Act angesprochen wird. Eine ausführlichere und tiefergreifende Idee dazu stellen Thomas Ramge und Viktor Mayer Schönberger in „Das Digital“ vor. Datenintensive Unternehmen könnten zu Datentransparenz verpflichtet werden – oder auch Teile ihrer Abgaben in Form von Daten leisten. In vielen Punkten sehen Ramge und Mayer-Schönberger in Daten zu aktive und mächtige Akteure, als Regulierungsansatz taugt diese Idee aber allemal.

Transparenz ist die wichtigste verletzliche Stelle von Tech-Konzernen. Einen weiteren Hinweis dafür liefert Open AI: Die vermeintlich Guten, die als transparente Alternative zu kommerziellen Problembären gestartet sind, verweigerten unlängst die Veröffentlichung versprochener Dokumente. Erstaunlicherweise sind es jetzt sogar chinesiche AI-Entwickler, die auf Transparenz setzen. Die chinesische 01.AI soll Metas Llama übertreffen – und setzt außerdem dazu an, vielleicht auch den Boden für Transparenz in China zu bereiten. Denn um besser zu werden, braucht das Modell mehr Information, so wie sie etwa in Open Data zu finden wären.

Alles Ansätze dazu, problematische Technologie zu verändern. Der Ruf nach inhaltlicher Regulierung wird demgegenüber genau wie das, was er ist: Eine Idee von vor 30 Jahren, die damals schon eine wenig erfolgreiche jahrhundertealte Geschichte hatte.