Der Tech-Manager des großen Medienhauses war zufrieden. Er hatte den unmotivierten Teilzeit-Redakteur des lieblos gewarteten Society-Portals durch eine KI ersetzt – und nichts hatte sich verändert. Die schlechten Nutzungszahlen der belanglosen Storys blieben schlecht. „Ich sehe das als Erfolg“, sagte er. „Wir haben eine Redaktion für Künstliche Intelligenz ersetzt und die Nutzungszahlen sind die gleichen – als ob echte Redakteure an den Tastaturen sitzen würden.“
Der Mann arbeitet nicht mehr in der Medienbranche und ist aktuell wieder bei einem IT-Unternehmen, das uninspirierte Prozesssoftware vermarktet.
Über Journalismus und generative AI wird seit Monaten viel geredet. Wer das Generative an AI für den relevantesten Punkt in der gemeinsamen Zukunft von Medien und AI sieht, sollte jedenfalls keine Zukunft im Journalismus anstreben. In der AI-Branche vermutlich auch nicht.
Journalisten sind Menschen, die leicht und gerne formulieren. Ein Textgenerator ist ihnen keine Erleichterung. Es ist die Kernkompetenz von Journalisten, in Texten und Sachverhalten Neues, Ungewohntes und Relevantes zu entdecken und in Worte zu fassen. Als Schreibkonkurrent wird AI im Journalismus wenig erfolgreich sein. Was nicht bedeutet, dass schreibende AI nicht sehr viel dazu beitragen könnte, die Medienbranche weiter an den Rand des Abgrunds zu drängen.
Mangelnde Präzision und Effizienz bei großen LLMs
Populäre generative AI beruht auf sehr großen Large Language Models. Diese kennen das Internet und mehr – und dementsprechend kreativ sind oft auch ihre Ideen. Gerade im Journalismus, wo präzise Formulierungen und klarer Umgang mit Information relevant sind, ist das ein Problem. Eine Intelligenz, die fabuliert wie der Betrunkene kurz vor der Sperrstunde in seiner Bar, ist dabei wenig hilfreich. Für den Großteil journalistischer Anwendungen wäre ein Bruchteil des Trainingsmaterials, der in LLMs steckt, ausreichend.
Das ist eine Entwicklung, die sich überall dort abzeichnet, wo sich Medienprofis mit technischem Verständnis sinnvoll mit AI-Anwendungen beschäftigt haben. Diese Beschäftigung macht die Nachteile von sehr großen LLMs offenbar. Sie eignen sich gut für Partytricks – aber sie schweifen ab. Halluzinationen sind das eine Problem. Noch unangenehmer ist die mangelnde Reproduzierbarkeit von Ergebnissen bei großen LLMs. Noch einmal unangenehmer wird dieses Problem mit der mangelnden Transparenz vieler Modelle. Die Folge: Endlich hat man einen sinnvollen Prompt, der im Testdurchlauf auf mit großen und schwierigen Datensätzen die richtigen Ergebnisse bringt – und beim nächsten Durchlauf ist alles anders. Railguards wie verpflichtende Erklärungen der Entscheidung nützen hier auch wenig. Fabulierfreudige AIs können jede ihrer Entscheidungen erklären und wirken dabei überzeugend. Der ultimative Prompt, der alle Optionen abfängt, ist etwa so weit weg wie das ultimative statistische Modell, dass ohne jede Wahrscheinlichkeitsschwankung rechnen kann, weil es schlicht alles berücksichtigt.
Ein weiteres Problem sind Zeit und Kosten. Beim spielerischen Austesten ist es ganz süß, wenn sich die KI mit einem Problem nachdenklich zurückzieht, um dann von einer Lösung zu erzählen. In der Praxis ist das oft ein KO-Kriterium für effiziente Prozesse. Ein paar Sekunden Verzögerung stellen Workflows in Frage: Soll das Ergebnis abgewartet werden, um eventuell kurze Qualitätsprüfungen durchzuführen? Soll der Prozess sofort weiterlaufen, ungeachtet des Risikos, dass eventuell gar kein Ergebnis oder ein unpassendes zurückgeliefert wurde? Im besten Fall entstehen so unkontrollierte Artefakte, deren Sinnhaftigkeit nachträglich nur aufwendig überprüft werden kann. Im schlechtesten Fall werden Prozesse ausgebremst, Redakteure können nicht weiterarbeiten oder müssen sich nach dem Arbeitsrhythmus der KI richten statt nach ihrem eigenen. Zusätzlich entstehen durch Abfragen in großen Modellen höhere Kosten, unabhängig davon, ob die Größe des Modells für die Antwortfindung überhaupt nützlich ist.
Chance für Risikosteuerung und Transparenz
Das sind nur einige Beispiele, warum gerade viele Medienhäuser mehr und mehr Abstand davon nehmen, allgemeine Multi-Purpose-LLMs zu verwenden. Stattdessen gehen sie wieder zu kleineren, eigenen und kontrollierten Modellen über. Vielschichtige KI wird eher wieder zu einfachen Machine Learning-Anwendungen reduziert. Das ist effizienter, günstiger und kontrollierbarer.
Und das ist auch eine Chance für Risikoabschätzung und Kontrolle rund um AI. Viele Medienunternehmen, viele Plattformen überarbeiten jetzt ihre KI-Projekte der ersten und zweiten Stunde. Umfassende Gesetzgebungsanstrengungen wie der EU AI Act, die auf Risikoklassifizierung setzen, können jetzt mit Transparenzanforderungen punkten und Dokumentationspflichten durchsetzen. Statt auf inhaltliche Kontrolle von Netzwerken und Plattformen zu setzen, können Transparenz und Model Risk Management als effizientere Regulierungsansätze durchgesetzt werden. Und statt Unsinnigkeiten wie Klarnamenpflicht oder KI-Kennzeichnungspflicht zu fordern, können mit technischer Transparenz Problemlösungen tatsächlich vorbereitet werden.
Für Unternehmen ist das auf jeden Fall das Gebot der Stunde. Kostenreduktion, Effizienz, Kontrollierbarkeit sind zentrale Themen für die nächste Welle von sinnvollen KI-Projekten nach ersten euphorischen Testrunden. Diese Chance kommt allerdings mit zwei Bedingungen: Erstens sind konkrete Erfahrungen und technisches Knowhow notwendig. Wir binden nicht mehr einfach Open AI ein, wir arbeiten mit konkreteren Modellen oder erstellen unsere eigenen. Zweitens müssen wir es ernst meinen. Ein paar Tests hier, ein paar zusammengestoppelte Abrufe da – das ist nicht mehr ausreichend. Wer seinen KI-Einsatz kontrollieren und damit zu nachvollziehbaren, wiederholbaren und verlässlichen Ergebnissen kommen will, muss eben auch Geld in die Hand nahmen und Personal freigeben. Solche KI-Initiativen funktionieren nicht mehr nur als Bottom Up-Ansätze. KI kann man ebenso wenig delegieren wie andere Digitalisierungs-Initiativen.