Mark Coeckelbergh, Why AI undermines democracy and what to do about it

Für einen Philosophen ist das Urteil überaus eindeutig – und vor allem kommt es schnell: Mark Coeckelbergh legt sich früh fest, Künstliche Intelligenz ist seines Erachtens schlecht für die Demokratie. In dieser Feststellung stecken gleich mehrere Urteile: Technologie ist also nicht grundlegend gut. Sie ist auch nicht neutral: Technologie ist kein offenes Instrument, dessen Konsequenzen und Potenziale erst in der Anwendung offenbar werden. Technologie bringt schon in ihren Grundzügen positive oder negative Tendenzen mit, sie kann aufgrund ihrer fundamentalen Prinzipien leichter oder weniger leicht missbraucht werden. Und Technologie steht in Wechselwirkung mit Sozialem und Kultur, Technologie beschleunigt, priorisiert, ist ein viel beachtetes Themengebiet voller Chancen und Risiken und daher ein wichtiger Faktor der Gegenwart.

Technologie ist also wichtig, aber warum ist Künstliche Intelligenz schlecht für die Demokratie? 

Coeckelberghs Argument setzt an der Bedeutung von öffentlichem Raum und öffentlicher Meinung an. Demokratisch ist, was in einem ausgewogenen Prozess nach Abwägung unterschiedlicher Meinungen, Prioritäten, Werte und Bedürfnisse entschieden wurde. Dieser Prozess sollte unbeeinflusst, frei und nach klaren Regeln stattfinden.

Genau das gefährdet künstliche Intelligenz. KI-vermittelte Prozesse sind intransparent, folgen Regeln, die nicht demokratischen Prinzipien folgen, räumen den Prioritäten jener, die besser mit Technologie umgehen können, unverhältnismäßig höheren Stellenwert ein und verfälschen so sowohl Prozess als auch Ergebnis.

Allerdings, räumt Coeckelbergh ein, hat es den idealtypischen demokratischen Prozess in seiner reinen Form noch nie gegeben. Demokratie ist eben auch nur real existierende Demokratie, die auch hinter ihren eigenen Idealen zurück ist. 

Künstliche Intelligenz könnte allerdings dabei helfen, demokratische Ideale zu verwirklichen. Coeckelberghs Vision dafür ist Demokratische Künstliche Intelligenz, also eine transparente, nachvollziehbare und weitgehend auch kontrollier- und gestaltbare Form von KI, ähnlich wie sie auch in den Grundzügen des EU AI Act beschrieben wird.

Das hat technische Implikationen. Können große LLMs, wie sie in Generative AI eingesetzt werden, diesen Anforderungen genügen? Können und kleinere und konkretere Modelle diesen Transparenzanforderungen gerecht werden? Ist es nicht im Gegenteil das Wesen von KI, sich zumindest teilweise diesen Ansprüchen auf Nachvollziehbarkeit und Kontrollierbarkeit zu entziehen? Oder ist genau diese Eigendynamik von KI eine Nebelgranate, die die Verantwortung von Technik verwässern soll?

Andere Implikationen sind sozialer Natur. Damit Meinungsbildung idealtypischen Vorgaben folgen kann, ist Bildung notwendig. Die politische Mär von Bildung als Allheilmittel predigt allerdings oft bloße Besserwisserei und unterscheidet sich damit nicht grundlegend vom Versuch, relevante Fragen über KI entscheiden zu lassen. Bildung und Besserwisserei – beide präsentieren Pointen und Anekdoten, denen häufig jene relevanten Informationen fehlen, anhand derer über Richtigkeit oder Sinnhaftigkeit entschieden werden kann. In der Politik, das kommt noch erschwerend hinzu, sind nicht nur Wahrheit, Richtigkeit oder SInnhaftigkeit relevante Kriterien. Alles steht und fällt mit Zustimmung. 

Zustimmung lässt sich weder mit Logik, Evidenz und andere Formen der Überstrapazierung von Wissenschaft und Rationalität, die über Fragestellungen entscheiden sollen, für die sie nicht geeignet sind, erreichen. Zustimmung ergibt sich in einer Phase öffentlicher Diskussion auf gemeinsamen Grundlagen, in der Gegenargumente respektiert, gewürdigt und abgelehnt werden können. Diese gemeinsamen Grundlagen sind durch KI in Gefahr, meint Coeckelbergh. Grund dafür sind nicht nur künstlich erzeugte Falschinformationen oder KI-vermittelte Argumente und Recherchen, die unreflektiert übernommen werden, sondern auch die mittlerweile üblichen Prozesse der Verbreitung und Bewertung von Information. Tempo, Lautstärke und Auffälligkeit sind wichtiger als inhaltliche Relevanz oder Richtigkeit und werden in der Verbreitung höher priorisiert. Aufmerksamkeitssurrogate wie Interaktionen sind deutlich effizienter für die schnelle Verbreitung als die Auseinandersetzung mit Inhalten, die die Verbreitung nur lähmt. Das schafft Scheinwelten weit weg von der Realität, über die eigentlich entschieden werden soll – aber sie gelten als maßgeblich für das, was zur Diskussion steht. – Fragen des guten Lebens werden in Influencer-Reels und in politischen Grundsatzprogrammen behandelt. Den einen liegen Abstimmungen, Machtfragen und Zielsetzungen zugrunde, den anderen intransparente eindimensionale Algorithmen. 

Wo gemeinsame Grundlagen der Diskussion fehlen, fehlt die Möglichkeit, nachvollziehbare Entscheidungen zu treffen, denen alle zustimmen können, auch wenn sie sie nicht teilen. Coeckelbergh sieht darin eine grundlegende Gefahr für Demokratie und Zusammenleben. Ein kurzer Hinweis auf Hannah Arendt verdeutlicht die Dimension des Problems: Arendt sah im Fehlen oder in der Verweigerung dieses gemeinsamen Rahmens die Grundlagen des Bösen. Erstaunlich pathetisch für die klassisch nüchterne Denkerin, in ihrer Argumentation aber sehr überzeugend und nachvollziehbar. 

Einen weiteren kritischen Punkt sieht Coeckelbergh in Meinungen und Meinungsfreiheit. Meinungen können schnell geäußert, publiziert und verbreitet werden, kaum eine Infrastruktur ist aber auf deren Diskussion ausgelegt. Meinungen sollen geäußert werden können – damit endet häufig die Relevanz, die ihnen beigemessen wird. Diskussion wird Zensur verwechselt, Kritik mit Cancel Culture – und beides kann aber nur vor dem Hintergrund gemeinsamer Grundlagen funktionieren. Diese müssen nicht gegeben sein. – Das Beharren auf Bildung und Gemeinsamkeiten kann in Elitarismus und konservativen Traditionalismus abdriften. Coeckelbergh ist sich dieser Fallen bewusst.

Wie soll dann demokratische KI funktionieren? Die gute Seite des immer offensichtlicher werdenden Problems, meint Coeckelbergh: Wir müssen uns neu mit gemeinsamen Werten, Grundlagen und Zielsetzungen beschäftigen. Vor einer Fülle von Möglichkeiten und einem einzelne Entscheidungen überdeckenden steigenden Tempo ist nichts mehr selbstverständlich. Das schafft Missverständnisse – und Gelegenheiten und Notwendigkeiten, Klarheit zu schaffen. Coecklbergh wünscht sich eine neue Renaissance: eine Zeit, in der viel mit Technologie experimentiert wurde, in der Technik vom Mysterium zu etwas Praktischem wurde und in der Traditionen und Denkgebäude über den Haufen geworfen wurden. Demokratisch ist KI, die solche Prozesse unterstützt, die hilft, Verbindungen herzustellen, die kontextualisieren und Gedankenexperimente durchführen kann.

Dennoch wird Technik allein keine demokratische KI schaffen können. Dazu, betont Coeckelbergh, sind demokratische Institutionen notwendig, die Nachdenklichkeit und soziotechnischem Experimentieren Raum geben. Das ist ein Programm. Offen bleibt ein wenig, an wen es sich richtet. Demokratische AI ist ein emanzipatorisches Programm – als solches bedeutet es für die, die jetzt die Spielregeln im Griff haben, Verzicht und Zurückhaltung, für die anderen anstrengend zu erarbeitendes Neuland. Das sind nicht die besten Startvoraussetzungen.

Christine Lagorio-Chafkin, We are the Nerds

Medium, Plattform, Publisher oder Free Speech-Protagonisten – Reddit war eine der ersten großen Plattformen, die einen Exit hinlegten. Für bescheidene, damals aber angemessene zehn Millionen Dollar kaufte Condé Nast 2006 die neuartige Plattform. Eine Tech-Plattform als Teil eines Medienhauses, das machte die Fragestellungen zur eigenen Identität zwischen reinem Kanal und für Inhalte verantwortlicher Plattform umso drängender. Sie sind aber bis heute offen. 

Lagorio-Chefkins Reddit-Buch, auch schon wieder sechs Jahre alt, ist ein schöner Streifzug durch Startup-Geschichte: Reddit war eines der ersten Projekte des damals neu gegründeten Y Combinator-Inkubators. Ebenfalls im ersten Jahrgang unter anderem: Sam Altman, späterer Open AI-Mitbegründer, oder Justin Kan, der mit seltsamen Liveübertragungen experimentierte, woraus später Twitch wurde. 

Plattformen in Abhängigkeit von Usern

Condé Nast war damals so ratlos, was mit der Übernahme anzufangen wäre, wie es Medien gegenüber Plattformen großteils heute noch sind. Zwei Jahre nach der Übernahm wuchs der Druck, zumindest eine Million Dollar Einnahmen zu erwirtschaften. Vergangenes Jahr hat Reddit das selbst gesetzte Ziel, eine Milliarde Dollar zu erwirtschaften, deutlich verfehlt, aber trotzdem über 800 Millionen Umsatz erzielt. Schon früh waren die Moderatoren einzelner Subreddits relevante Pressure Groups, die großen Einfluss auf Wachstum und Ausrichtung des Unternehmens ausüben konnten. Und auch heute noch wird in Hinblick auf den bevorstehenden Börsegang von Reddit viel darüber diskutiert, welchen Einfluss renitente Moderatoren und deren Ankündigungen, den IPO zu boykottieren, auf die ersten Börsewochen haben werden

Wichtigste Entwicklung in der Geschichte von Reddit ist aber die Verschiebung der politisch relevanten Strömungen bei den maßgeblichen Inhalten und Benutzergruppen. Ähnlich wie bei der Entwicklung von BuzzFeed, die im gleichen Zeitraum ab 2005 stattfand, haben anfangs liberale Strömungen sowohl die konkrete Plattform als auch das neue soziale Internet geprägt. Fast wie zu Zeiten der 68er-Autoritätskritik waren neue Onlinemedien Kanäle, die neuen anderen Inhalten Publikum brachten, die traditionelle Mittelsmänner ausschalteten und Chancen zu vervielfachen schienen. Was traditionelle Medien konnten, konnte das Internet hundert Mal.

Zwischen Free Speech und Verantwortung

Erste Gegenreaktionen waren drohende Regulierungen zu Copyrightverletzungen und Fragen der Haftbarkeit. Das grundlegende Problem dieser ersten Welle an Einwänden blieb allerdings auf dem Niveau von „Dürfen die das denn?“. Nebenfronten, die sich daraus entwickelten, war etwas die Open Access Bewegung für wissenschaftliche Publikationen, oder frühe Transparenz- und Informationsfreiheitsbewegungen. Zentrale – tragische – Figur  dieser Themen war Aaron Swartz, der über Y Combinator in der Frühphase zu Reddit stieß, bald nach dem Exit verabschiedet wurde und nach einem groß angelegten Open Access-Hack in Konflikt mit FBI und Justiz geriet. Swartz, der auch in diesem Buch als schwieriger Charakter porträtiert wird, erhängte sich noch vor Prozessbeginn. 

Nächstes großes Konfliktpotenzial waren früh schon Fake News und Desinformation – einige Jahre, bevor das so hieß. Ersten Anlass dazu gaben die Anschläge beim Boston Marathon. Reddit User beschäftigten sich mit einer Reihe falscher Fährten, identifizierten zwei falsche Verdächtige, die in der Folge sogar die Titelblätter von Zeitungen zierten und ließen sich auch nicht durch Aufrufe der Behörden, keine Spekulationen zu verbreiten, von ihren Aktivitäten abbringen. Neues Ziel war ein vermisster Student, dessen muslimischer Familienhintergrund zum Täterprofil passte. Der Student wurde einige Zeit später tot aufgefunden, er hatte sich schon vor dem Anschlag, mit dem er in keinerlei Zusammenhang stand, selbst getötet. Die Desinformationswelle verbreitete falsche Informationen, Verschwörungstheorien und vermeintliche Enthüllungen über durch Behörden unterdrückte Beweismittel und kam dabei ganz ohne den Input russischer oder chinesischer Trollfarmen oder KI-generierte Manipulationen aus. 

Hatespeech, Rassismus, Doxing, Frauenfeindlichkeit und die üblichen Katz- und Maus-Spiele mit Usern und Moderatoren waren immer wieder die Grundlage für Machtspiele entlang der Grenzen des Sagbaren und für die Frage, wieviel Freiheit man online gewähren kann, ohne selbst die schlagendsten Argumente für die Einschränkung dieser Freiheiten zu liefern

Der Endgegner einer noch immer andauernden Auseinandersetzung aber sollte Donald Trump sein. Der Subreddit r/The_Donald wurde zu einer der am schnellsten wachsenden Gruppen, die sehr oft die Grenzen dessen überschritt, was als sagbar gelten konnte. Bislang hat sich Reddit möglichst dagegen entschieden, solche Gruppen aufzulösen – auch, um sie im Tageslicht zu behalten. Heute sind große Plattformen bequem, aber sie sind nicht mehr notwendig. Messengerdienste und ihre Gruppenfunktionen sind passende Alternativen. Wichtig war allerdings die erste Phase der Vernetzung und der Schaffung von Sichtbarkeit.

Das knüpft am Anfang der Geschichte von Reddit und den anderen Plattformen an. In der Frühphase gehörten sie Nerds und waren Orte liberalen Experimentierens. Dort geschahen seltsame Dinge, das Internet war etwas anderes. Dort musste man „hinein“, es war nicht selbstverständlich und es war etwas neben der Gesellschaft. 

Spätestens mit Obama wurde das Neue normal. Obama war ein Zeichen dafür, dass sich das Neue möglicherweise durchsetzen könnte. Einige Huffington Post-Investoren, schreibt Ben Smith, machten ihr Investment davon abhängig, ob Obama die Wahl gewinnen würde, denn dann witterten sie Chancen. Obama hatte Facebook- und Twitter-Accounts und absolvierte einen „I am … – Ask me Anything“-Chat auf Reddit. 

Was liberale (im amerikanischen Sinn) konnten, konnte Konservative allerdings auch. Ben Smith beschreit, wie es zum Problem für BuzzFeed wurde, als Facebook erwachsen geworden war und mehr konservative Selbstbestätigung als Experimentierfreude bediente. Facebook und das Internet waren kein spezieller Teil der Gesellschaft mehr, sie bildeten ab, was die Gesellschaft beschäftigte. 

Radikalisierung mit Businessplan

Reddit erlebte das gleiche Schicksal. Jene, die vor ein paar Jahren Plattformen gern noch zensuriert hätten, erkannten nun das Potenzial zur Durchsetzung ihrer eigenen Interessen. Hat Reddit zu Trumps Wahlsieg beigetragen? Hätte es noch mehr zu dessen Popularität beigetragen, seine Anhänger von der Plattform zu verbannen?

Digitale Plattformen machen Aktivität sichtbar uns tragen zu Vernetzung bei. Das gilt für Teenies auf der Suche nach ihrem Platz in der Welt ebenso wie für Rassisten auf der Suche nach Beifall und Gruppendynamik. Damit haben sich Netzwerkplattformen von Soziallaboren über Zensurkandidaten zu den Lieblingswerkzeugen aller möglichen Extreme gemausert. Mittlerweile haben auch eigene Plattformen, in denen man noch sicherer noch schneller Gleichgesinnte findet, das Potenzial, ausreichend schnell ausreichende Größenordnungen zu erreichen. 

Plattformen selbst kämpfen nach wie vor mit Business-Zielen. Andere Geschäftsmodelle als Werbung haben sich noch nicht etabliert, und auch Werbung ist oft nicht ausreichend. Es besteht durchaus die Gefahr, dass Plattformen traditionellen Medien Einnahmen absaugen – aber dennoch nicht genug zum Leben haben. Alternative Plattformen und ihre User sind da manchmal einen Schritt voraus. Wer eine lukrative Agenda hat, hat eben mehr von Reichweite und Netzeffekten. Das zeigt sich in der Politik-Finanzierung (wenn Kirchen und konservative Stiftungen für ihre Interessen lobbyieren), und das zeigt sich im Ausbau digitaler Netzwerkplattformen. Aufklärung kann man nicht verkaufen, um Spenden kann man in funktionierenden Demokratien, die ihre Politik gut finanzieren, nicht ewig bitten, ohne an Glaubwürdigkeit zu verlieren. 

Aber man kann guten Gewissens unverschämt sein. Eine solide Datenbasis ist durchaus etwas Nettes, allerdings ist sie nur eingeschränkt effizient, wenn ihr nicht die entsprechende Produktpalette gegenübersteht. PolitikerInnen einer Partei sind ein eingeschränktes Angebot. Der aktuelle Trump-Wahlkampf macht einmal mehr vor, wie sich Reichweite und Datenfülle bezahlt machen: Wählerstimmen, Trump-Messer, Trump-Tassen, Ivermectin-Carepakete gegen Long Covid für wohlfeile hundert Dollar (ist Covid jetzt doch gefährlich?) oder Chuck Norris-zertifizierte Investment-Pakete zur Rettung des Dollars vor dem Euro und den Brics-Staaten sind nur ein paar Angebote, mit denen Kontakte aus dem ehemaligen Parler-Netzwerk versorgt werden. 

Parler selbst erzählt die gleiche Geschichte davon, dass Internet, Politik und Gesellschaft nicht mehr getrennt werden können. Parler startete als Gegenbewegung zu liberal verseuchten Netzwerken, ist aber offline, seit es sich von einer Hack-Attacke nicht mehr erholte. Der Untergang des Netzwerks war zugleich dessen stärkster Wachstumsmotor. Ein eigenes Netzwerk ist gar nicht notwendig, die Story von unfairen Attacken dagegen (und gegen die Rechten und Gerechten) ist viel effizienter. 

Ben Smith, Traffic

Das Ende des Aufstiegs von BuzzFeed war auch das Ende des Social Media-Siegeszugs. Die New York Times schreibt von Post-Social-Media – kleinen Medien-StartUps, die auf Qualität statt Masse setzen, auf Umsatz statt auf Reichweite. Jahresabos für Spezialisten-Newsletter beginnen teilweise über 1000 Dollar und mehr. Unvorstellbar für eine Zeit, in der man dachte, Traffic könne alle Probleme lösen. 

Diese Zeit beschreibt Ben Smith in „Traffic“. Smith baute den Nachrichtenbereich bei BuzzFeed auf und veröffentlichte als erster das Dossier über die angeblichen Pinkel-Orgien von Donald Trump in Moskau. Diese Veröffentlichung läutete auch das Ende der Strategie des uneingeschränkten Publizierens von allem bei BuzzFeed ein. Das Dossier verselbständigte sich und zeigte, dass Informationen auch Medien leben können. Zumindest ohne solche wie BuzzFeed, die wenig einordnen und großteils auf Hintergrund und Orientierung verzichten.

Kontrollverlagerung: Von Email-Verteilern zu Netzwerkplattformen  

Aber der Reihe nach. „Traffic“ beschreibt den Aufstieg einer neuen Generation von Onlinemedien ab den frühen Nuller Jahren, beginnend mit der damals neuen Huffington Post. Protagonist ist Jonah Peretti, Traffictreiber bei Huffington Post und Gründer von BuzzFeed, der zu Beginn des Buchs aber eine andere Entdeckung macht: Pranks, Memes und andere einfache Inhalte, die Menschen neugierig machen, unterhalten oder aufregen, können  Eigendynamik gewinnen und sich ungeahnt schnell und weit verbreiten.

Smiths Analyse dieser Entdeckungen ist eine Kulturgeschichte des Verhältnisses von Internet und Medien: In den frühen Stadien sorgten Email-Verteiler und Newsgroups für die Verbreitung von Inhalten. In einer nächsten Phase waren es Links und Backlinks. Das war die Hochphase der Blogs. Bald darauf waren Suchmaschinen, schnell allen voran Google, die wichtigsten Trafficquellen für Websites. Diese wurden von Social Networks, allen voran Facebook, abgelöst.

Mit jedem Entwicklungsschritt verlagerte sich die Kontrolle über Tempo und Ausmaß der Verbreitung weg von Sender und Publikum hin zu Zwischenhändlern. Das ist genau das Gegenteil der Entwicklung, die die Frühphase des Internet erwarten ließ. „Weg mit den Mittelsmännern“, ein lang gepflegter Kampfruf der Digitalisierung in Medien und Handel, fand seine Erfüllung nur ganz kurz. Im Zeitalter der Mailverteiler wurde das Publikum selbst zum Sender – oder eben nicht. Später übten Blogs damit Macht aus, wen sie verlinkten und wen nicht. Die Aufnahme in Blogrolls erfolgreicher Blogger war ein Ritterschlag für Newcomer. Manche Seiten bestanden überhaupt großteils nur aus kommentierten Linksammlungen, etwa der berüchtigte Drudge Report, der die Lewinsky-Affäre veröffentlichte. Frühe Suchmaschinen waren eine Goldgrube für Clickbaiter. Sie ließen sich leicht austricksen, mit Schlagwortsammlungen auf den Seiten in die Irre führen und machten neue Seiten so von den Verlinkungen der großen Blogger unabhängig. Qualitätskriterien, verbesserte und geheimere Priorisierungen, ständig neue Rankingkriterien drehten die Verhältnisse allerdings bald um. Jetzt kontrollierten Suchmaschinen, welche Art von Inhalten erfolgreich war. Als Internet-Pionier galt, wer Google verstand.

Vokuhila-Strategie

Social Media und Facebook verhießen anfangs einen Schritt zurück in die Zeit, in der das Publikum bestimmte. Groß wurden jene, über die geredet wurde, so wie in der Zeit der Mailverteiler. Durch die Sichtbarkeit der Interaktion – alle sahen, was die Freunde ihrer Freunde teilten – vervielfachten sich Reichweiten und Wachstumsgeschwindigkeiten. Facebook war so lange relevante Trafficquelle für Medien, bis Facebook den Traffic selbst auf der Plattform behalten und nicht mehr durch ausgehende Links verlieren wollte. Heute sollen User mit Inhalten interagieren – egal ob sie sie mögen oder sich ärgern, und egal was die Inhalte sind.

Mit diesen Phasen wechselten die jeweils erfolgreichsten Medien ihrer Zeit. Die ersten Phasen dominierte Drudge oder Gawker. Smith beschreibt die Gründung der Huffington Post als Versuch, Drudges Erfolg ein liberales Gegengwicht entgegenzusetzen. Lustigerweise damals mit an Bord der Huffington Post: Andrew Breitbart, späterer Gründer des Rechtsaußen-Portals breitbart.com und früherer Mitarbeiter bei Drudge. Breitbart kehrte bald zu Drudge zurück, bevor er breitbart.com aus der Taufe hob und behauptete später,  er habe bei der Post nur spioniert. 

Die Huffington Post bemühte sich um liberale aufgeklärte Politik – also um Inhalte, wie sie niemanden interessierten. Der gewünschte Traffic, um geschäftlich erfolgreich zu sein, musste von anderswo kommen. Peretti beschreibt das als mullet strategy (Vokuhila-Strategie): vorne Business, hinten Party. Listicles, Howtow, identitätsorientierte Personalitystorys brachten den eigentlichen Traffic.

BuzzFeed war eigentlich nur das Experimentierlabor nebenbei, in dem veröffentlicht wurde, was für die um Seriosität bemühte Huffington Post zu abgedreht war. Damit überflügelte BuzzFeed allerdings bald die Post. 

Die wesentlichen Entwicklungen für beide Portale kamen rund um 2005 in Gang. In Österreich haben wir damals an oe24.at gearbeitet. SEO war ein Thema, Facebook war noch sehr neu und zu persönlich, um für Medien relevant zu sein. Traffic kam von Google oder über starke Marken. Die Pläne waren groß; kurz nach dem Start, als es ums Geldverdienen ging und die Printausgabe funktionieren musste, wurden sie sehr schnell wieder sehr klein.

Die Mitarbeiter der ersten Phase bei Huffington Post und BuzzFeed gehörten zu den prägenden Figuren der Onlinemedienbranche, hatten allerdings wenig journalistische Vorerfahrung. Credo der Redaktion war, wie bei vielen späteren Neugründungen, die Idee, alles zu veröffentlichen, was relevant ist – ohne Rücksicht auf Verluste und ohne Rücksicht auf die Betroffenen. Für Gawker führte das auch bald zum Ende. Nach einigen umstrittenen Publikationen hatte das Portal auch ein privates Sextape des Wrestlers Hulk Hogan veröffentlicht. Nach einem langen Rechtsstreit wurden Strafzahlungen von 140 Millionen Dollar rechtskräftig, die Seite musste schließen. Der Prozess war von Peter Thiel finanziert worden – manche meinen, aus persönlicher Abneigung gegen Gawker-Betreiber Nick Denton und weil dieser Thiel als homosexuell geoutet und als seltsam bezeichnet haben soll.

Und man musste doch über Journalismus reden

Die Relevanz der Huffington Post nahm über die Jahre ab, übrig blieb BuzzFeed. Einige der viralsten BuzzFeed-Storys sind wohl noch allen im Gedächtnis. Ist das Kleid schwarz und blau oder gold und weiß? Wieviele Gummiringe können um eine Wassermelone gespannt werden, bis die zerplatzt? Und woher kam das Dossier zu Trumps Eskapaden in Moskau? Während die frühen Phasen von BuzzFeed noch gar nicht als Alternative zu Nachrichtenmedien geplant waren, erwachte später durchaus der Wunsch, auch News zu machen – und das veränderte das Medium, die Branche, und die Art und Weise, wie Traffic erzielt wird.

Ein erster großer Facebook-Erfolg für BuzzFeed war ein schlecht programmiertes Quiz. Hundertausende Facebook-User wunderten sich über ihre Ergebnisse – und brachten mit ihrer Interaktion Traffic. Dieser Erfolg war ähnlich weit weg von Nachrichten und Politik wie das Kleid oder die Melone. Liberale Ideale waren gar nicht Thema. Politik blieb aber nicht immer langweilig. Im Gegenteil. Mit der Zeit hatten Rechte gelernt, wie das neue Internet funktionierte, und ihnen fiel es noch leichter, auf Inhalte zu verzichten, Erregung hochzuhalten – und damit Politik machen. Spätestens mit Trump gab es dann auch jemanden, der an der Politik vorbei Politik machen und aus den neuen Erregungs- und Verbreitungsmechanismen Kapital schlagen konnte. Versuche, etwas daran zu ändern, etwa durch Enthüllungen, Skandale oder die Moskau-Leaks, halfen wenig. Sie lieferten im Gegenteil Material, neue Feindbilder aufzubauen und Verschwörungs- und Dolchstoßlegenden zu konstruieren. Die Sache lief sich tot. Und noch fataler: User langweilten sich. Aufregung brachte keinen Traffic mehr. Sie blieb auf Facebook oder wurde dort absorbiert. später schwappte sie vielleicht nich in Telegram-Gruppen über.

Vom hippen Neuland zum noch lauteren Stammtisch

Smith beschreibt diese Entwicklung als Generationenfrage. Coole Internetpioniere hatten Netzwerke, Suchmaschinen und Interaktion erfunden. Dann hatten ihre Eltern verstanden, wie das funktioniert, und ihren alten Zorn in diese Netzwerke mitgebracht. Aus Ironie, Hyperaktivität und der Suche nach dem nächsten heißen Ding war Ernst geworden. Und das Internet war nichts Neues, Außergewöhnliches, Fremdes mehr – nichts, dessen neue Regeln man lernen musste oder konnte, um dann einen Vorsprung vor anderen zu haben. Das Internet war, schreibt Smith, im Verlauf dieser zehn bis fünfzehn Jahre, zu einem Teil der Gesellschaft geworden, in dem sich abspielte, was sich auch sonst im der Gesellschaft abspielte. Im Internet waren alle – Rednecks, Stammtischbesucher und alle anderen, für die die liberalen Visionen der frühen Onlinemediengründer keinen Platz gelassen hatten.

Ein anderer Nebenstrang im Buch ist das Verhältnis von BuzzFeed und Disney oder der New York Times. BuzzFeed lehnte Übernahmeangebote im Höhe von hunderten Millionen, eine Bewertung summierte sich gar auf 1,7 Milliarden Dollar, immer wieder ab. Heute ist BuzzFeed wenig relevant, Disney ist eine der größten Nummern im Geschäft. Die New York Times war ein schüchterner Dinosaurier, der lernen wollte, und es schien, als könnte das alte Flaggschiff nie zu den coolen Leuten aufschliessen. Erst war die NYT nur alt und langsam, dann hatte BuzzFeed auch noch dazu die großen Scoops. Gerade diese brachten allerdings die Wendepunkte. BuzzFeed veröffentlichte – und überließ den Dingen ihren Lauf. Alle machten aus der Story, was sie wollten. Und alle machten auch aus ihrer Wahrnehmung von BuzzFeed, was sie wollten. Die Seite hatte kein Profil mehr – Interaktion fand auf Facebook statt, Nachrichten auf den alten Plattformen, und BuzzFeed hatte es mehr und mehr geschafft, obsolet zu werden. Heute ist BuzzFeed Vergangenheit, die New York Times ist die stärkste Medienmarke der Welt und ein Synonym für den Erfolg mit digitalen Abomodellen. 

Traffic verliert an Wert

Sind das gute oder schlechte Neuigkeiten für jemanden, der digitale Medien weiterentwickeln will? Die Zeiten der viralen Trafficwunder für Medien dürften vorbei sein. Nicht weil es weniger Traffic gäbe. Es gibt so viel Traffic überall, dass dieses ehemalige Gut immer wertloser wird. Es ist schwerer zu monetarisieren, schwerer zu behalten und zu steuern; User haben Ausweichmöglichkeiten. Umso wichtiger wird nachhaltiger Traffic von Usern, die häufiger wiederkommen, die bei einem bestimmten Medium bleiben und vielleicht sogar bereit sind, für dessen Nutzung zu zahlen. Das erfordert Content, die Ansprache passender Usergruppen, den richtigen Draht zwischen Usern und Content – und all das sind Anforderungen, für die sich noch nirgends die idealen Wege abzeichnen. Medien wie die NYT schaffen es mit Breite, andere mit Tiefe, alle die es schaffen, mit bestimmten Formen von Qualität. Kritisch beim breitenorientierten Zugang ist die potenzielle Reichweite: Welche Medien und ihre Märkte sind schon groß genug, um in all der Breite auch die relevanten Nischen bedienen zu können, die User dann wirklich schätzen und deretwegen sie auch bei diesem Medium bleiben? Kritisch beim spezialisierten tiefenorientierten Zugang ist die Frage, wie lange es noch funktionierende und ausreichend breite Netzwerke gibt, in denen sich solche Inhalte verbreiten können. Wer spezialisierte Inhalte erstellt verkauft, ist darauf angewiesen, dass es auch breitenorientierte Inhalte gibt, die Themen setzen, Aufmerksamkeit steuern und den Bedarf an tieferer Information wecken. Newsletter oder Podcasts, die vermeintlich Overhead einsparen und direkt zur Sache kommen, können nur solange funktionieren, wie andere den Overhead in Kauf nehmen und versuchen, damit Geschäft zu machen.

Wer kann überleben? 

Notwendige Zutaten für eine funktionierende zeitgemäße Medienlandschaft sind breitenwirksame Medien, die Themen setzen können und die für ihre Inhalte verantwortlich gemacht werden können. Es sind Netzwerke oder Suchmaschinen, mit denen Menschen Neues entdecken können. Es sind Spezialangebote und tiefgehende Inhalte, die fesseln, binden und User zurückbringen. Es ist ein Anspruch, etwas zu vermitteln – im Idealfall Orientierung, Aufklärung, Transparenz, Informationsfreiheit -, der in ein Markenversprechen gepackt werden kann und dazu beiträgt, dass User verstehen, warum sie dieses oder jenes Medium nutzen sollten. 

Überlebensfähig sind Medien, die in unterschiedlichen Ausprägungen von allem etwas bieten können. Die Bandbreite ist notwendig, weil immer auch alles schnell anders werden kann.  

Werner Heisenberg, Physics and Philosophy

Es ist eines der relevantesten Wissenschafts-Erklärbücher überhaupt. Schließlich wirkt Quantentheorie auch für jemanden, der gleich zwei Mal Philosophie studiert hat, wie ein Elitenrätsel esoterischer Geheimbündler – und wird leider oft auch so diskutiert und vermittelt. Heisenbergs Buch ist da ganz anders. Jeder Satz ist präzise und verständlich – und ganz nebenbei erklärt Heisenberg auch noch 2500 Jahre Philosophiegeschichte im Überblick.

Eine der zentralen Thesen für das Verständnis von Quantenmechanik: Alltagsbegriffe verlieren ihre Bedeutung, wenn sie auf Konzepte außerhalb der Alltagserfahrungen angewendet werden. Dann liefern sie keine zufriedenstellenden Erklärungen mehr. Umgekehrt sind präzise wissenschaftliche Begriffe nicht besonders gut darin, Bedeutung zu vermitteln. Sie bezeichnen etwas und machen es damit eindeutig – aber damit ist es noch nicht erklärt (das ist auch ein systemisches Problem von Definitionen. Begriffe sind nie ganz klar und werden durch Vernunft und Analyse auch nie restlos geklärt werden können. Aber manche, meint Heisenberg ganz pragmatisch, sind eben notwendig, um Wissenschaft betreiben zu können. Heisenberg kommt übrigens auf dem Umweg über Kant zu diesem Entschluss. Kants Kategorien von Raum und Zeit, in denen Erfahrung stattfinden kann, sind solche notwendigen Begriffe. Sie müssen als gesetzt angenommen werden (bei Kant heißt das a priori); der Versuch, sie restlos logisch zu klären, würde Wissenschaft unmöglich machen.

Eine weitere von Heisenbergs womöglich in den 50er Jahren noch aufregenderen Thesen: Wir sind nicht, weder als Menschen noch als Wissenschaftler, von einer zu beobachtenden und zu erkennenden Welt getrennt, wir sind Teil dieser Welt, Teil unserer Beobachtung, und unsere Beobachtung ist ein wesentlicher Prozess bei dem Vorgang, diese Welt zu erkennen.

Das heißt letztlich: Realität ist ein Ergebnis und eine Eigenschaft der Beobachtung. Sie ist weniger Eigenschaft des Beobachteten. Quantenmechanik ist eine statistische Theorie, in der Wahrscheinlichkeiten eine zentrale Rolle spielen. In diesem Licht bedeutet das: Wahrscheinlichkeiten repräsentieren einen Fakt und das Wissen über diesen Fakt.

Mit diesen Vorbedingungen werden bekannte Interpretationen der Quantenphysik um einiges leichter verdaulich. Beobachtungen und damit auch die Bedingungen eins Experiments stehen in Wechselwirkung mit Ergebnissen. Wenn wir nicht gleichzeitig genau sagen können, wo ein Teilchen ist und wohin es sich bewegt, liegt das nicht nur an Eigenschaften dieses Teilchens, sondern auch daran, dass der Raum, in dem sich das Teilchen innerhalb einer bestimmten Zeit verändert und dadurch eine Bewegung vollzieht, so wie die Zeit eine notwendige Voraussetzung der Vorstellung von Bewegung ist. Immer weitere Erkenntnisse zu neuen Erscheinungsformen von Elementarteilchen, die sich in unterschiedlichen Anwendungen weiter zerlegen, anders zusammensetzen oder neues bilden, tragen mit dazu bei.

Von diesem letzten Punkt – der Einheit von Materie – zieht Heisenberg einen langen Bogen zurück zu den frühesten Vorsokratikern. Nach ersten Konzepten über Mächte und Energien tauchten bei den Materialisten Ideen unteilbarer Elementarteilchen auf, aus denen alles zusammengestetzt werden kann. Eine Idee, die sich bis in ausgereifte moderne Atommodelle durchzog, bis immer genauere Experimente und neue Teilchenkonzepte Energie als treibende Kraft zurück ins Spiel brachte. Ist Bewegung und daraus resultierende Energie das Verbindende in Materie? – Oder werden deshalb die alten Konzepte scheinbar wieder relevant, weil das die Erklärungen sind, zu denen wir als Menschen eben immer wieder angesichts dieser Fragestellungen kommen?

Für Sozialwissenschaftler sind Heisenbergs Konzepte leichter zu nehmen als für Naturwissenschaftler oder Techniker. Der Forscher ist hier immer Teil des Systems, Methoden haben Einfluss auf Ergebnisse und Ergebnisse unterliegen Interpretationen. 

Dennoch sind manche von Heisenbergs Schlüssen auch aus dieser Perspektive überraschend. Zeitgeist, meint Heisenberg etwa, ist ein ebenso objektiver wissenschaftlicher Fakt wie andere Fakten in den Naturwissenschaften. Das klingt nach einer steilen These. Allerdings ist es nur eine konsequente Fortsetzung des Gedankens, dass Fakten vorläufige Ergebnisse komplexer Prozesse, eigentlich selbst Prozesse und in ihrer Bewertung  und Bedeutung veränderlich sind. All das trifft auch auf vage Konstrukte wie Zeitgeist zu – der allerdings ist für die Auswahl von Fragestellungen und die Interpretation von Ergebnissen immens bedeutend.

Immer wieder stellt man sich bei Heisenbergs Argumenten die Frage, was davon jetzt Analogie, Allegorie und was Beschreibung von Experimenten und Ergebnissen. Wo sind die Begriffe unscharf und wo die Teilchen?

Heisenberg beschäftigt sich mit Physik und Naturwissenschaft und lenkt gerade damit, mit dieser scheinbar neutralsten und objektivsten Art der Wissenssammlung, die sich geradewegs an nachvollziehbaren Fakten orientiert, dazu auf, sich mit den Grundlagen des Denkens, der Sprache, der Wahrnehmung, kurz: mit sich selbst zu beschäftigen. 

Physik nimmt eine subjektive Wende und stellt damit die traditionellen Grenzen zwischen Subjektivität und Objektvitiät zur Disposition. Von hier aus kann man zu esoterischen Auswüchsen starten. Heisenbergs kann aber auch als eine Art Programm zur Einordnung anderer Wissenschaften gelesen werden, die einer Neupositionierung bedürfen, um vom Fleck zu kommen. Data Science etwa gilt den einen als Königsweg zur besseren, mathematisch faktengestützten Entscheidung, anderen als durch Bias verdorbene Reproduktion herrschender Verhältnisse, denn Algorithmen reproduzieren nur, womit sie gefüttert werden.

Auch hier hilft die Perspektivenverschiebung, die sich von der Trennung von Beobachter und Beobachtetem loslöst und den Beobachter als Teil des Systems begreift. Datenorientierte Fragestellungen und Antworten müssen im Licht von Zwecken und Zielen betrachtet werden, um sinnvolle Antworten geben zu können.

Ähnliches gilt für die Beschäftigung mit KI. Ehrfürchtige oder panische Beschwörungen gegenüber einer irgendwo dort draußen zu findenden KI sind Verkürzungen, die das Problem, das sie angeblich beschreiben, erst schaffen. Diskussionen zur Regulierung, Beschränkung oder Nutzung von KI, die deren Prozesse nicht in ihren Einzelteilen betrachten und behandeln können, produzieren leere Begriffswelten, die mehr über die Geisteswelt ihres Produzenten aussagen als über ihr angebliches Objekt.

Heisenbergs Text ist ein Aufruf, sich mit Unklarheiten zu beschäftigen. Unübersichtliche Stellen in der Wissenschaft sind oft nicht nur eine Frage des Fortschritts, sie werden nicht mit fortschreitender Erkenntnis oder verbesserten Werkzeugen verschwinden. Sie begleiten Forschende manchmal seit über 2500 Jahren, egal ob Vorsokratiker in den Himmel sagen oder Physiker der Gegenwart auf den Teilchenbeschleuniger.

Diese Unübersichtlichkeiten sind oft Teil und Ergebnis von Sprache, Versuchsanordnung, Welterklärungskonzepten, manche werden reduziert oder durch andere ersetzt, manche bleiben erhalten. Und diese Unübersichtlichkeiten stellen nicht das infrage, was wir so weit gesichert wissen, als es funktioniert. Denn was funktioniert, ist aus einer pragmatischen Perspektive grundsätzlich einmal richtig.

Auch das ist eine wichtige Funktion, die die Rumpelkammer der Wissenschaft erfüllt: Dort können Unübersichtlichkeiten und Anomalien gelagert werden, ohne andere Bereiche, für die sie weniger relevant sind, zu stören. Sie können jederzeit hervorgeholt werden, wenn es sinnvoll erscheint. Aber jede Fragestellung, jede Aufgabe hat ihre Sprache und ihre angemessenen Methoden, wie Heisenberg schreibt. Und keine davon schließt die anderen aus – außer vielleicht für diesen einen konkreten Zweck.

AI und Medien: Zurück in die Zukunft der kleinen LLMs

Der Tech-Manager des großen Medienhauses war zufrieden. Er hatte den unmotivierten Teilzeit-Redakteur des lieblos gewarteten Society-Portals durch eine KI ersetzt – und nichts hatte sich verändert. Die schlechten Nutzungszahlen der belanglosen Storys blieben schlecht. „Ich sehe das als Erfolg“, sagte er. „Wir haben eine Redaktion für Künstliche Intelligenz ersetzt und die Nutzungszahlen sind die gleichen – als ob echte Redakteure an den Tastaturen sitzen würden.“

Der Mann arbeitet nicht mehr in der Medienbranche und ist aktuell wieder bei einem IT-Unternehmen, das uninspirierte Prozesssoftware vermarktet.

Über Journalismus und generative AI wird seit Monaten viel geredet. Wer das Generative an AI für den relevantesten Punkt in der gemeinsamen Zukunft von Medien und AI sieht, sollte jedenfalls keine Zukunft im Journalismus anstreben. In der AI-Branche vermutlich auch nicht.

Journalisten sind Menschen, die leicht und gerne formulieren. Ein Textgenerator ist ihnen keine Erleichterung. Es ist die Kernkompetenz von Journalisten, in Texten und Sachverhalten Neues, Ungewohntes und Relevantes zu entdecken und in Worte zu fassen. Als Schreibkonkurrent wird AI im Journalismus wenig erfolgreich sein. Was nicht bedeutet, dass schreibende AI nicht sehr viel dazu beitragen könnte, die Medienbranche weiter an den Rand des Abgrunds zu drängen. 

Mangelnde Präzision und Effizienz bei großen LLMs

Populäre generative AI beruht auf sehr großen Large Language Models. Diese kennen das Internet und mehr – und dementsprechend kreativ sind oft auch ihre Ideen. Gerade im Journalismus, wo präzise Formulierungen und klarer Umgang mit Information relevant sind, ist das ein Problem. Eine Intelligenz, die fabuliert wie der Betrunkene kurz vor der Sperrstunde in seiner Bar, ist dabei wenig hilfreich. Für den Großteil journalistischer Anwendungen wäre ein Bruchteil des Trainingsmaterials, der in LLMs steckt, ausreichend.

Das ist eine Entwicklung, die sich überall dort abzeichnet, wo sich Medienprofis mit technischem Verständnis sinnvoll mit AI-Anwendungen beschäftigt haben. Diese Beschäftigung macht die Nachteile von sehr großen LLMs offenbar. Sie eignen sich gut für Partytricks – aber sie schweifen ab. Halluzinationen sind das eine Problem. Noch unangenehmer ist die mangelnde Reproduzierbarkeit von Ergebnissen bei großen LLMs. Noch einmal unangenehmer wird dieses Problem mit der mangelnden Transparenz vieler Modelle. Die Folge: Endlich hat man einen sinnvollen Prompt, der im Testdurchlauf auf mit großen und schwierigen Datensätzen die richtigen Ergebnisse bringt – und beim nächsten Durchlauf ist alles anders. Railguards wie verpflichtende Erklärungen der Entscheidung nützen hier auch wenig. Fabulierfreudige AIs können jede ihrer Entscheidungen erklären und wirken dabei überzeugend. Der ultimative Prompt, der alle Optionen abfängt, ist etwa so weit weg wie das ultimative statistische Modell, dass ohne jede Wahrscheinlichkeitsschwankung rechnen kann, weil es schlicht alles berücksichtigt.

Ein weiteres Problem sind Zeit und Kosten. Beim spielerischen Austesten ist es ganz süß, wenn sich die KI mit einem Problem nachdenklich zurückzieht, um dann von einer Lösung zu erzählen. In der Praxis ist das oft ein KO-Kriterium für effiziente Prozesse. Ein paar Sekunden Verzögerung stellen Workflows in Frage: Soll das Ergebnis abgewartet werden, um eventuell kurze Qualitätsprüfungen durchzuführen? Soll der Prozess sofort weiterlaufen, ungeachtet des Risikos, dass eventuell gar kein Ergebnis oder ein unpassendes zurückgeliefert wurde? Im besten Fall entstehen so unkontrollierte Artefakte, deren Sinnhaftigkeit nachträglich nur aufwendig überprüft werden kann. Im schlechtesten Fall werden Prozesse ausgebremst, Redakteure können nicht weiterarbeiten oder müssen sich nach dem Arbeitsrhythmus der KI richten statt nach ihrem eigenen. Zusätzlich entstehen durch Abfragen in großen Modellen höhere Kosten, unabhängig davon, ob die Größe des Modells für die Antwortfindung überhaupt nützlich ist.

Chance für Risikosteuerung und Transparenz

Das sind nur einige Beispiele, warum gerade viele Medienhäuser mehr und mehr Abstand davon nehmen, allgemeine Multi-Purpose-LLMs zu verwenden. Stattdessen gehen sie wieder zu kleineren, eigenen und kontrollierten Modellen über. Vielschichtige KI wird eher wieder zu einfachen Machine Learning-Anwendungen reduziert. Das ist effizienter, günstiger und kontrollierbarer.

Und das ist auch eine Chance für Risikoabschätzung und Kontrolle rund um AI. Viele Medienunternehmen, viele Plattformen überarbeiten jetzt ihre KI-Projekte der ersten und zweiten Stunde. Umfassende Gesetzgebungsanstrengungen wie der EU AI Act, die auf Risikoklassifizierung setzen, können jetzt mit Transparenzanforderungen punkten und Dokumentationspflichten durchsetzen. Statt auf inhaltliche Kontrolle von Netzwerken und Plattformen zu setzen, können Transparenz und Model Risk Management als effizientere Regulierungsansätze durchgesetzt werden. Und statt Unsinnigkeiten wie Klarnamenpflicht oder KI-Kennzeichnungspflicht zu fordern, können mit technischer Transparenz Problemlösungen tatsächlich vorbereitet werden.

Für Unternehmen ist das auf jeden Fall das Gebot der Stunde. Kostenreduktion, Effizienz, Kontrollierbarkeit sind zentrale Themen für die nächste Welle von sinnvollen KI-Projekten nach ersten euphorischen Testrunden. Diese Chance kommt allerdings mit zwei Bedingungen: Erstens sind konkrete Erfahrungen und technisches Knowhow notwendig. Wir binden nicht mehr einfach Open AI ein, wir arbeiten mit konkreteren Modellen oder erstellen unsere eigenen. Zweitens müssen wir es ernst meinen. Ein paar Tests hier, ein paar zusammengestoppelte Abrufe da – das ist nicht mehr ausreichend. Wer seinen KI-Einsatz kontrollieren und damit zu nachvollziehbaren, wiederholbaren und verlässlichen Ergebnissen kommen will, muss eben auch Geld in die Hand nahmen und Personal freigeben. Solche KI-Initiativen funktionieren nicht mehr nur als Bottom Up-Ansätze. KI kann man ebenso wenig delegieren wie andere Digitalisierungs-Initiativen.

Ein A****bombencontest ist auch ein Verdrängungswettbewerb

Der ORF gibt ein Gutachten über die Auswirkungen seiner Digitalpräsenz auf andere Medien in Auftrag. Die Autoren des Gutachtens verlaufen sich. Ihre Kernaussage ist: „Wir wissen es auch nicht.“ Der ORF feiert.

Was ist passiert? Seit zwei Jahren muss sich der ORF vermehrt der Frage stellen, wie sehr das öffentlich finanzierte Medium alle anderen Medien auf dem kleinen Markt Österreich dank seiner öffentlich gut gefüllten Taschen kommerziell an die Wand spielt. Umso mehr, seit dank Haushaltsgabe und ORF-Gesetz noch mehr Geld in die Kassen des Medienriesen gespielt wird und dem ORF noch mehr Möglichkeiten online offenstehen. Andere Medien sehen sich währenddessen multiplen Krisen ausgesetzt und experimentieren mit der Monetarisierung von Digitalinhalten – eine Herausforderung, der sich der öffentlich rechtliche Riese nie stellen musste. 

Trotzdem meint man, hier mitreden zu müssen. ORF-Vertreter richten anderen Medien gern aus, niemand hindere sie daran, so erfolgreich zu sein wie sie selbst. Jedes Medium hätte die gleichen Reichweiten und ähnliche Marktpositionen erzielen können (da ist anzumerken: Nein. Wer sich mit Monetarisierung beschäftigen musste, konnte sich nicht vollends auf Reichweite konzentrieren. Und umgekehrt). Dazu kommt: Auch in der ÖWA (Österreichichische Web Analyse) ist der ORF nicht zuletzt deshalb aus Platz 1, weil er meint, dass für öffentlich rechtliche Angebote andere Zählregeln gelten. Eine umstrittene Einstellung, die in absehbarer Zeit zum Ausschluss von orf.at führen kann.  

Um die vermeintliche Digital-Vormachtstellung zu untermauern, ließ man eben jetzt ein Gutachten erstellen. Eine erste, vor einem Jahr erstellte Umfrage, die hätte untermauern sollen, wie sehr User den ORF gegenüber anderen Medien bevorzugten, wurde nie veröffentlicht. Der sehr einfache Grund: User bevorzugten den ORF im Internet nicht aus inhaltlichen oder qualitätsorientierten Gründen gegenüber anderen Medien. Sein vorrangiger USP war schlicht: Er kostetet nichts. Wobei auch das falsch ist. Korrekt muss es heißen: Der ORF im Internet kostet nichts zusätzlich zu dem, was sie ohnehin an ORF-Gebühren zahlen müssen.

Deshalb jetzt eben Wissenschaft. 

Allerdings auch hier bleibt das einzig eindeutige Ergebnis: Nachrichtenkonsumenten sind in erster Linie preissensibel. Für über 60% der LeserInnen und Leser ist es das ausschlaggebende Argument, dass eine Nachrichtenseite nichts kostet. 

Das ist nun tatsächlich ein großer Verdienst, den sich öffentlich rechtliche, Corporate Newsrooms, Social Networks und auch ratlose Digitalnachrichtenseiten teilen können

Der Rest des Gutachtens ist recht spekulativ auf wackligen Stelzen unterwegs. Viele Annahmen und Voraussetzungen stimmen nicht: Weitaus mehr Seiten (als die Autoren annehmen) setzen auf Digitalabos. Digitalabos enthalten anderes als online verfügbar gemachte Zeitungsinhalte. Digitalmedien als ganzes konkurrieren nicht mit einer einzelnen Seite des ORF (der sogenannten Blauen Seite), sondern mit dem ganzen ORF Online-Universum von Sport über Lokalnachrichten bis zu Wetter und Kulturmagazinen. Die in der ÖAK (Österreichische Auflagenkontrolle) veröffentlichten Paid Content-Zahlen verhalten sich zu echten Digitalabozahlen so wie FTE-Kennzahlen zu Menschen – abgesehen davon, dass viele große Verlage nach wie vor ihre Digitalzahlen nicht an die ÖAK melden.

Für Weltnachrichten (die es vermeintlich überall gibt – solange es sie gibt) nutzen immer weniger Menschen Nachrichtenseiten von Medienhäusern, das ist richtig. Umso mehr sind Medienhäuser zusätzlich auf Diversifizierung und Spezialisierung angewiesen. Umso dynamischer ist der Markt. User reagieren sensibel auf Veränderungen, aber langsam. 

Die Gutachter interpretieren ihre Arbeit so, dass eine eventuelle Einstellung der Blauen Seite kaum Auswirkung auf den Digitalabo-Absatz anderer Medien hätte. Die gleichen Zahlen des gleichen Gutachtens können auch so interpretiert werden, dass eine umfassende Einschränkung des ORF im Internet zu einer Vervielfachung des Digitalabo-Marktes führen würde. 

Solche wackeligen Konstrukte sind wenig hilfreich. Schade, dass sich ORF-MacherInnen hinter so dünner Spekulation verstecken statt sich mit ihrer Rolle im Medienmarkt zu beschäftigen. 

Mustafa Suleyman, The Coming Wave

Es wird wild, meint Mustafa Suleyman. Das breitet er auf 300 Seiten aus und das ist in Summe dann schon ein wenig enttäuschend. Die Erwartungshaltung – jemand weiß so viel über AI und synthetische Biologie, dass er einen 300seitigen Bestseller darüber schreiben kann – ist deutlich zu spezifisch. Suleyman schreibt über alle möglichen Innovations- und Disruptionsthemen und streift seine eigentlichen Kernthemen jeweils an den Kapitelenden.

Seine zwei Kernthesen dabei:

  • Containment, also die Begrenzung und Kontrolle von Technologie, ist nicht möglich.
  • Containment ist lebensnotwendig.

Das sind natürlich Widersprüche, mit denen Suleyman in der Folge immer wieder spielt. Technologie ist als unaufhaltsame Welle beschrieben, die über die Zivilisation hereinbricht und alles verändert. Das ist eine deterministische Perspektive, die Menschen wenig Spielraum lässt. Technologie treibt und entscheidet und verändert. Mensch und Gesellschaft sind passive Objekte dieser Veränderungen. – Dass Menschen Technologie entwickeln, Gesellschaften Technologien nützen und verändern, um Probleme zu lösen, das sind wechselseitige Abhängigkeiten, die Deterministen noch nie Kopfschmerzen bereitet haben. Determinismus braucht Schwarzweiß-Kontraste. 

Natürlich ist Suleyman, Co-Founder von DeepMind, dem Entwickler von AlphaGo, kein Technologie-Gegner. In Kombination mit Biologie und DNA-Synthetisierungsmaßnahmen eröffnen KI und verbesserte Rechenleistung neue Möglichkeiten, die erstens ungeahnte Veränderungen mit sich bringen und zweitens jedem offenstehen. Das birgt ungeheures Potenzial. Fraglich ist allerdings, ob Menschen damit umgehen können. Und diese Frage stellt sich nicht nur in Hinblick auf die Konsequenzen potenzieller überwältigender Entwicklungen, sondern auch in Hinblick auf die produktive Nutzung. KI kann viele Probleme lösen, Rechenleistung kann viele Probleme lösen, in Verbindung mit synthetischer Biologie können sich diese Möglichkeiten potenzieren und zu Verbesserungen oder zur absoluten Katastrophe führen. KI kann Medikamentierung finetunen oder bei der Entdeckung der tödlichsten Bio-Kampfstoffe helfen. Für die Technik macht das wenig Unterschied; die notwendigen Geräte, meint Suleyman, kann sich bald jeder leisten und in Küche oder Garage unterbringen.

Warum tut sich auf diesen Gebieten dann noch nicht mehr? Möglicherweise liegt das auch daran, dass KI und Technologie zwar viele Probleme lösen können, viele Menschen aber weder vor noch nach der Problemlösung wissen, dass es diese Probleme gibt. Noch weniger wissen sie, was man mit ihrer Lösung anfangen kann oder welche Bedrohung dahintersteckt. Cyberrisiken bleiben abstrakt, mit Ki manipulierte DNA noch viel mehr.

Diese Kluft zwischen Potenzial, Realität und Erwartung bremst das Buch öfters aus. Die Wiederholung von Superlativen ermüdet, es gibt eben keine Steigerung mehr zur Vielzahl finaler Krisen, ultimativer Fehler und überwältigender Veränderungen (von denen überdies – Druckerpresse, Dampfmaschine, Internet – doch einige schon in den letzten mehreren hundert Jahren in Gang gesetzt wurden), die den Leser abstumpfen, noch bevor das letzte Drittel des Buchs erreicht ist.

Zu dieser Kluft passt auch, dass eine der letzten großen Cyberattacken, die FBI und andere Geheimdienste aus aller Welt auf den Plan rief und die größten Streaming- und Social Network-Plattformen für längere Zeit lahmgelegt hatte, dann doch nicht das Meisterwerk einer bösartigen Strategie, sondern das Produkt gelangweilter Teenies und ihrer zwielichtigen Marketingideen war.

Weil Containment aber trotz allem notwendig ist, kommt Suleyman dann doch auf den Punkt. Technologie kann nicht mit Vorschriften und inhaltlichen Regulierungen beschränkt werden. Wer Technologie in den Griff bekommen will, muss sich mit Technologie und ihrer Natur beschäftigen, statt alte Kontrollidee auszugraben.

Technischen Problemen muss mit technischen Lösungen begegnet werden, dafür ist technisches Verständnis notwendig. Suleymans Regeln, die Chancen auf Containment gefährlicher Technologien erhalten sollen, gehen über das Beschwören von Gefahren, das Äußern kulturpessimistischer Positionen oder die Aufrufe zu politischem Handeln hinaus. Wer sich sinnvoll mit Technologie beschäftigen will, muss lernen, damit umzugehen, muss die grundlegenden Funktionsweisen verstehen und muss sich die Hände schmutzig machen.

Reflektierende Positionen sind wichtig, die Chance auf Lösungen lebt aber in Erfahrung, Anwendungen, selbstgeschriebenen Codezeilen und eigenen Experimenten. Daraus können Lösungen und Perspektiven entwickelt werden. Der Rest der Beiträge in Technologiedebatten sind hehre Prinzipien aus heißer Luft.

Damit kommt Suleyman letztlich doch zu erstaunlich konkreten Punkten – leider erst auf den letzten zwanzig Seiten seines Buchs. Es ist zu wünschen, dass viele der Prediger, Visionäre und Feuilletontechnologen auch so weit kommen. Und dann auch in Betracht ziehen, diese Empfehlungen ernstzunehmen.

Es wäre wünschenswert. 

Der Stand aktueller Diskussionen rund um Klarnamenpflicht, KIRegulierungen oder Daten und Machine Learning lässt anderes befürchten. Das ist schade. Denn Entwicklung wird dort möglich, wo Augenmerk auf scheinbar Selbstverständlichkeiten gelegt wird, wo Blackboxen geöffnet werden und normalerweise Unhinterfragtes im Detail analysiert wird. Damit wächst die Chance, Dinge in den Griff zu bekommen. Durch den Wettlauf um möglichst spitze Takes und aufrüttelnde Schreckensvisionen sinkt sie eher. Das ist eines der zentralen Argumente, die man aus Sulyemans Buch mitnehmen kann.

Klarnamenbeschwörer und andere Distinktionsspießer

Sie treten in Wellen auf und kehren immer wieder, als wären sie in einem langsamen aber unaufhaltsamen Strudel der Gezeiten gefangen, der sie in unregelmäßigen Intervallen immer wieder an Land spült: Klarnamenbeschwörer, empörte Cancel Culture-Diagnosten und Diskursschönheitstrauerredner sind, ohne es sehen zu wollen, Alter Egos der gleichen Kulturkritikschablonen.

Anonymität zerstört den Diskurs, unqualifizierter Widerspruch zerstört den Diskus, Formmängel zerstören den Diskurs.

Hinter diesen Einwänden steckt, das Adrian Daub in seinen Cancel Culture-Forschungen herausgearbeitet, oft der bloße Unwille, sich damit auseinanderzusetzen, dass da jemand mitredet, für den kein Platz am Tisch vorgesehen war. Oft ist es ehrliche – aber trotzdem ungerechtfertigte – Empörung darüber, dass jemand Gehör bekommt, den man gern ingoriert hätte. Sie widersprechen? Cancel Culture! Sie haben lustige Nicknames? Klarnamenpflicht! Sie verstoßen gehen unsere Rituale? Diskurszerstörer!

Die Klarnamenpflichttforderer fordern oft auch inhaltliche Regulierung von Social Network-Plattformen und Beichtpflicht für die Verwendung von KI. Das ist alles nachvollziehbar. Es ist nicht einmal falsch. Allein, es ist müßige Beschäftigungstherapie. Es ist das Dreschen von Phrasen und frommen Wünschen, die teils eine bald 300 Jahre zurückreichende Geschichte haben. In diesen 300 Jahren hätte den Beschwörern auch mal dämmern können, dass jene Lösungen, die man seit 300 Jahren beschwört, vielleicht keine Lösungen sind? Sonst hätten sie viellleicht etwas gelöst?

Aber Diagnosen allein sind auch ein liebgewonnenes Spiel. Es sind liebgewonnene und gut eingeübte Rituale, die man nicht einfach durch von der Tradition abweichende Fragestellungen über Bord werfen darf.

So trat heute in Österreich der Digitalstaatssekretär, der eben erst mit seiner KI-Behörde die Digitalzukunft des Landes gesichert hatte, vor die Presse und verkündete Klarnamenpflicht ohne Konzept, um Wirtshäuser vor ungerechten Bewertungen zu schützen. Und prompt packten bewährte Klarnamenbeschwörer und angehende KI-Dompteure ihre Essays aus den vergangenen Jahrzehnten aus. Nachdem sie gestern von totaler Disruption und alles verändernden Tsunamis gepredigt haben, wollen sie heute weiter Probleme mit schlechten Ideen von vorgestern lösen. Danke.