Am Ponyhof der Digitalisierung

Trends und neue Entwicklungen schön und gut, aber am Ende des Tages hat jeder Tag ein Ende. Dann muss etwas erledigt sein – darin sind sich Zeitungen und Bauernhöfe tatsächlich nicht so unähnlich. Ich weiß das aus Erfahrung aus beiden Branchen.

Und das ist nicht nur eine Metapher. 

Digitalisierungsprojekte in einem Zeitungsverlag unterscheiden sich gar nicht so sehr von der Digitalisierung eines Bauernhofs. Beide betreiben altes Handwerk, in dem sich trotz aller Umbrüche in den grundlegenden Rahmenbedingungen nur sehr wenig verändert hat. 

Zeitungen erscheinen täglich, das Vieh muss täglich gefüttert werden. Redaktionen sind grundsätzlich praktisch unführbare Organisationen, Bauern sind traditionell Sinnbilder von Sturheit.

Und in beiden Branchen spielen öffentliche Förderungen wichtige Rollen. 

Aber der Reihe nach. 

Egal in welchem Stadium digitaler Transformation eine Zeitung heute ist, es heißt immer: Zu wenig, zu spät, zu alt, zu phantasielos. Man blickt neidisch auf entfernte Vorbilder, denen dank internationaler Reichweite und Relevanz Sagenhaftes zugetraut wird. Man staunt über das nächste Gen Z/Social First/datadriven/ultratargeted Medienspinoff, dessen Reichweiten dann doch humorvoll niedrig sind und dessen Kommerzialisierungspläne in einer fernen Zukunft liegen, in der auch der heute trendigste Kram wieder hoffnungslos veraltet sein wird.

Rezepte liegen auf der Hand; Daten, Engagement, Loyalty müssen her. Allein auch hier gilt: Was sehr viele schon sehr lang als Lösung alter Probleme beschreiben, wird wohl doch allein keine ganz patente Lösung sein – sonst gäbe es die Probleme nicht mehr.

Funktionierende Lösungen sind die Feinde der guten Lösungen. „Es hat noch jeden Tag funktioniert“ ist die intelligentere Version von „Das haben wir immer schon gemacht.“ In einer Umgebung, die jeden Tag Ergebnisse bringen muss, gewinnt dieser Einwand aber deutlich und zurecht an Gewicht. Zeitungen bringen keine täglichen virtuellen Ergebnisse im Sinn von Fortschritt oder erreichten Meilensteinen, es sind tägliche reale Produkte, die geplant, umgesetzt, geprüft und verkauft werden müssen. Das ist unaufschiebbar, es gibt keine Pause-Taste. Es gibt nur eine Stopp-Taste. Die ist allerdings endgültig. Man kann nicht einfach einen Tag aussetzen und dann weitermachen. Nachrichten laufen weiter – so wie das Schaf gemolken werden muss oder wie der Gemüseacker gegossen werden muss.

Das ist ein Problem. 

Das Problem betrifft nicht nur Zeiteinteilung und Priorisierung – es liefert auch Beharrungsargumente. Eben weil jeden Tag ein neues Produkt geschaffen wird und weil es jeden Tag ein neues Ergebnis gibt, kann, so die Position, auf der beharrt wird, der Zustand nicht so schlecht sein. 

Das schafft Resilienz, die kaum noch von Renitenz abzugrenzen ist.

Eine andere Hürde ist die nicht zu verleugnende Abhängigkeit von äußeren Einflüssen und Ereignissen. Man kann mit dem Wetter umgehen – aber wenn Blüten abfrieren, wird es keine Ernte geben, wenn Wasser ausbleibt, wird nichts wachsen. Die Nachrichtenlage beeinflusst die Erfolgschancen für Zeitungen. Natürlich kann man vorplanen, Serien, Ratgeber, Analysen und Servicestorys vorbereiten. Deren begrenzter Erfolg zeigt aber nur ein anderes Problem: Reichweiten, die für kleinere Nachrichtenmedien eine erfreuliche Entwicklung darstellen, sind für größere Zeitungsverlage ein katastrophaler Einbruch. Spektakuläre Ereignisse können nicht geplant werden, aber sie erfordern eine gewisse Größe der Organisation, um sie abdecken zu können – und sie kannibalisieren einander (und die vorbereiteten Service- und Ratgeberstorys erst recht).

Oft bedeutet das: Die Nachrichtenorganisation schleppt viel Overhead mit, der an vielen Tagen überflüssig wirkt. Darauf zu verzichten wird aber schnell zum noch größeren Problem. 

Berater und Marketingspezialisten raten Zeitungen wohlmeinend, sich ihrer Stärken im Erklären und im Herstellen von Zusammenhängen zu besinnen. Zeitungen sollten einzigartige relevante Inhalte liefern, die sich von Social Network- und KI-Geschwätz abgrenzen. Daran ist nicht grundlegend etwas falsch. Es ist nur praktisch sehr schwierig, jeden Tag relevante Einzigartigkeit zu produzieren. Erklärungen, Hintergründe und Zusammenhänge zu irrelevanten Themen können sehr gut und sachlich korrekt umgesetzt sein – allerdings interessieren sie in der Regel kein relevantes Publikum.

Neue Methoden und Diversifizierung sind Wege, neue Zielgruppen anzusprechen und neue Märkte zu erschließen. Selbstvermarktung erhöht die Margen und senkt die Abhängigkeit von Zwischenhändlern; Produzent und Publikum finden direkt zueinander. Das klingt gut. Das bringt aber auch eine Vielfalt neuer Tätigkeiten mit sich, die zu Lasten anderer Aufgaben  gehen. Das Tempo der Diversifizierung sinkt mit der Intensität der Diversifizierungsmaßnahmen. Wer in Veränderung drin steckt, kommt nicht so leicht mehr raus, wer Trends perfektioniert absurft, verliert Substanz. Wer von Tiefkühlgemüse und Billigfleisch auf nachhaltigen biozertifizierten handgemachten Slowfood-Schafkäse umgestellt hat, kann trotzdem noch Probleme mit Veganismus oder Blauzungenkrankheit bekommen.

Medienunternehmen, die das Social Media-Spiel und damit vermeintlich ihre Präsenz bei begehrten jüngeren Zielgruppen optimiert haben, müssen sich die Frage stellen, wie sie ihre Präsenz auf fremden Kanälen gewinnbringend nützen. Umwegrentabilität über Bekanntheit ist für Newcomer relevant; wer schon einmal ein Abo verkauft hat, möchte darüber hinaus. Perfektionierte Plattformpräsenz hat stets Vice demonstriert – mit Erfolg. Vor zehn Jahren war die Frage, ob Google Vice kauft oder doch Vice Google. Vice-Beiträge performten überall, gestandene Medienmanager staunten, dass es so etwas wie Revenue Sharing bei Youtube gab. Der Plattform-Erfolg führte dazu, dass es schlicht nicht mehr notwendig war, eigene Vice-Plattformen aufzurufen. Im Mai 2023 war Vice insolvent. Die Regionalisierung in immer irrelevantere Lokalausgaben hat dieser Entwicklung noch den Rest gegeben.

Heute wird TheNewsMovement gefeiert – die Social Media-Reichweiten liegen allerdings hinter jenen der Oldschool-Zeitungs-Platzhirschen aus Medien-Zwergstaaten wie Österreich. Und der Movement-Gründer tauschte sein Startup gegen die Chefrolle des Tankers Washington Post.

Landwirtschaften erzielen oft auch auf Umwegen Einnahmen. Manchmal sind es nicht Produkte, die Geld bringen, sondern der Verzicht auf eben diese Produkte. Dann werden Landwirt für Landschaftspflege bezahlt oder für zu Zulassen von Wildnisstreifen.

Auch das kann eine valide Option für Medienunternehmen sein. Das Internet braucht Inhalte. Es ist nicht gut zu ihnen und in ständigen Wellenbewegungen sind mal die Inhalte, mal die Technik wichtiger. Und dank generativer KI erzeugt sich Technik ihre Inhalte selbst. Ist das Match also gelaufen? Nein. Wer schon mal einen der abgeschlossenen KI Bots wie Chat GPT bedient hat, die keine neuen Inhalte verarbeiten können, ist bald enttäuscht. Das zeigt: Auch KI muss ständig dazulernen. Und dazu braucht sie Material. Ist es ein realistisches Szenario, dass in absehbarer Zeit Tech-Unternehmen Lizenzen an Medien zahlen, um deren Inhalte verarbeiten zu dürfen? Dazu gibt es bereits erste Ansätze; Tech-Unternehmen zeigen sich, nach den Lizenzstreitigkeiten der vergangenen Jahre, Medienunternehmen gegenüber großzügig. Werden Medienunternehmen diese Großzügigkeit und damit möglicherweise einhergehende Abhängigkeiten überleben? Das ist offen. Die erste große Kooperationswelle, als Telekomunternehmen rund um das beginnende Jahrtausend begannen, Medieninhalte zu kaufen um sie neu zu bündeln und zu verpacken, war für Medien kurzfristig lukrativ, führte sie aber konsequent auf die schiefe Bahn, auf der sie sich heute befinden.

Man freut sich über jeden Keim. Es ist toll, wenn Pflanzen aufgehen, es ist toll, wenn Pläne aufgehen. Auch die in den Himmel rankende Bohnenpflanze hat sich einmal mit einem feuchten Wattebausch begnügt. Davon können umgekehrt Medienunternehmen lernen. Medien und Digitales – hier zählt alles oder nichts, der Sieger drängt den Rest in den Graben. Dabei liegen neue Chancen in den Details. Datengetriebene und effizienzorientierte Perspektiven müssen lernen, auf die feinen Unterschiede zu achten und die kleinen Entwicklungen schätzen zu lernen. Das ist eine der härtesten Lektionen für aufmerksamkeitsverwöhnte Medienmenschen. Und vielleicht eine, die man wirklich und besser vom Ponyhof lernt. – Oder dort, wo jeden Tag ein echtes handwerkliches Produkt, das auch jemand kaufen wollte, fertig werden musste. So wie eine Zeitung. 

Adrian Daub: Cancel Culture Transfer

Die Erwähnung von Cancel Culture ist oft ein verlässlicher Indikator dafür, dass man gerade einen geist- und belanglosen, großteils faktenfreien Text liest, in dem in der Regel kulturpessimistisch eingestellte Schreibende Phrasen recyceln. Verschärft wird dieser Umstand, wenn Umstände an nicht näher genannten „amerikanischen Universitäten“ als Belege genannt werden.

Adrian Daub zeichnet die Entstehungsgeschichte des Begriffs und seiner Übersiedlung aus den USA nach Europa mit einer Fülle historischen Materials nach. So klärt er etwa auch die Frage, was mit Canceln eigentlich gemeint ist. Ist es tatsächlich Auslöschung, radikales Entfernen, Beseitigen, das an Wegsperren und Straflager mahnt? Die historischen Ursprünge dürften in dem Hashtag #cancelcolbert liegen, mit dem eine Twitteruserin eine missglückte Parodie von Stephen Colbert kommentierte (für die dieser sich später entschuldigte). Cancel bezog sich auf das Absetzen einer Fernsehshow, halbironisch gebraucht von einer Twitteruserin. Die Reaktionen auf diesen Tweet blieben einstellig. Colbert stieg weiter zu einem der erfolgreichsten Comedians der Welt auf.

Cancel Culture funktioniert als Konstrukt der Kritik ähnlich wie Political Correctness. Der Begriff ist eine vage Umschreibung für eine Ansammlung anzuklagender Punkte, konkrete Inhalte können dabei wechseln. Jene, die in den Beschreibungen der Kritiker Cancel Culture betreiben, haben dagegen meistens keinen klaren Begriff von dem, was sie vermeintlich tun.

Cancel Culture-Erzählungen strapazieren Anekdoten und versteigen sich von dort zu unspezifischen Verallgemeinerungen. Daub exerziert das an einer Fülle von gut dokumentierten Beispielen vor. Besonders ergiebige Beispiele liefern dafür Ulf Poschardt und andere One Trick Ponys aus dem Feuilleton. Berühmt ist auch der sogenannte Flipchart-Hoax, den unter anderen sich gecancelt fühlende Berühmtheiten wie Jordan Peterson strapaziert haben. In wechselnden Unternehmen (bei Peterson war es eine Bank) soll das Wort Flipchart aus dem Sprachgebrauch verbannt worden sein, weil es an die Bezeichnung “Flip” für Menschen von den Philippinen erinnere. Das soll Menschen, die sich dagegen verwehren wollten, in Burnout oder andere Probleme getrieben haben. Peterson erzählt die Geschichte als Erlebnis einer seiner Patientinnen. Die Story wurde allerdings einige Jahre vorher (und auch danach) immer wieder in wechselnden Zusammensetzungen mit anderen Unternehmen und ohne Bezug auf Peterson erzählt.

Die Erzählungen der Cancel Culture-Kritiker sind meist vage oder, wie bei Peterson, hyperspezifisch genug, um weder verifiziert noch widerlegt werden zu können. 

Die aggressivsten Formen angeblicher Cancel Culture dagegen lassen sich in ihren Wurzeln recht gut zu den Sprachspielen von Black Twitter zurückverfolgen, zu einer Sprachkultur, die sich nicht an das unverständige Publikum wendet, die sich eigentlich an überhaupt niemanden wendet und keine konkreten Reaktionen erwartet oder Folgen bewirken will, sondern eher eine Art der Poesie darstellt. Sich davon angesprochen zu fühlen – das kann nur zu Missverständnissen führen. Die Darstellung von Daub erinnert an die Auseinandersetzung von Henry Louis Gates mit beleidigenden Rap-Texten, die Gates auf die Figur des Signifying Monkey, einer Legendengestalt der Yoruba zurückführte. Sich von Trash-Talk beleidigt zu fühlen oder eine andere Form der persönlichen Betroffenheit in diesen Texten zu suchen, ist also etwa ähnlich, als würde sich heute jemand von den Texten von Abraham a Sancta Clara oder Francois Villon beleidigt fühlen.

Problematisch ist an Cancel Culture-Texten vor allem, dass sie im gut situierten Feuilleton stattfinden, sich nicht an die angeblich Cancelnden richten, um etwas über deren Gründe zu erfahren oder sie vom Canceln abzuhalten, sondern dass sie sich an ein dankbares Publikum richten, das sich gerne gruselt und empört. Cancel Culture-Kritik ist ein Ritual zur eigenen Bestätigung, das, das schreibt Daub über die New York Times, vor allem Unbehagen darüber zum Ausdruck bringt, dass andere Zuhören und Mitreden dürfen und man nicht unter sich ist. Die Stimmen von außen werden als falsch empfunden. Wenn sie bezug auf identitätspolitische Argumente nehmen, sind sie überdies zu emotional; die Kritik daran dagegen wird als Kern der Vernunft gesehen.

Daub sammelt eine Reihe weiterer Belege für die schlechte Argumentationsqualität von Cancel Culture-Kritik, streift Identitätspolitik, Gendern und andere Verwandte dieser Debatten und weist auch auf die teilweise großzügige Dotierung von Cancel Culture-Kritik oder angeblicher Cancel Culture-Dokumentation durch konservative Stiftungen und Think Tanks hin. 

Gibt es einen Ausweg aus diesem recht festgefahrenen Dilemma, in dem seit über 30 Jahren, seit dem Aufkommen der ersten Political Correctness-Kritik, keine neuen Argumente mehr greifen? Daub erwähnt eine Möglichkeit gleich zu Beginn seines Texts: Diejenigen, die ohnehin nicht gemeint sind, die von Cancel Culture nicht betroffen sind, könnten schlicht von etwas anderem reden. Das ist allerdings insofern unwahrscheinlich, als sich die mit Cancel Culture-Kritik einhergehende Inszenierung für viele auch als Prominenzbooster erwiesen hat. Nachvollziehbare Fälle von Canceln finden sich dagegen eher unter Schwächeren: Daub skizziert dazu Diskussionen aus gender- und herkunftssensibler Fantasyliteratur. Dort kann der falsche Ton zu bestimmten Identitäten tatsächlich Karrieren beenden, bevor sie begonnen haben – aber auch aus diesem Milieu zitiert Daub Fälle, in denen Kritik von konservativen Zeitungen aufgegriffen und in Karriereturbos verwandelt wurde.

Daub fasst Cancel Culture-Kritik als Fälle kultureller und moralischer Panik zusammen. Und ein wesentliches Merkmal von Panik ist es eben, nicht mehr so genau hinzusehen auf das, wovor man sich fürchtet …

EU AI Act: Sieg der Ängstlichkeit

Europa feiert, der erste Kontinent mit AI-Regulierungen zu sein. In den EU AI Act sind eine Menge Technologieängste verpackt. Rahmenbedingungen für eine positive Entwicklung Europas als Technologietreiber sind nur schwer zu erkennen.

Eigentlich hätte es eine spannende Story werden können – aber niemand wollte sie spannend machen. Die Diskussion um den EU AI Act zog sich lange hin, immer wieder tauchten neue Aspekte auf und der AI-Hype des letzten Jahres schien dann alles über den Haufen zu werfen.

Lobbyisten standen Schlange, Google bemühte sich, die Europäische Union vor kritischen Fehlern zu bewahren (so schrieben es Google-Lobbyisten zumindest in sich an interne Audiences richtenden Memos), insgesamt listet Integrity Watch über 210 Lobbyisten-Termine rund um den AI Act im EU-Parlament. 

Was stand auf dem Spiel, wie sollte es weitergehen, was fehlte eigentlich noch zu einer Entscheidung? Diese Fragen habe ich dem Berichterstatter Dragos Tudorache vor einigen Monaten gestellt und insgeheim auf eine spannende Story rund um widerstreitende Interessen, neue Aspekte und politische Auseinandersetzungen mit vielschichtiger sich noch entwickelnder Technologie gehofft.

Tudoraches Antwort konnte allerdings langweiliger und ausweichender nicht sein. Der AI Act befinde sich im Prozess der EU-Gesetzgebung, werde weiter diskutiert und so bald wie möglich zur Abstimmung gebracht. Punkt. 

Jetzt liegt offenbar die Einigung auf dem Tisch. Und was war dabei so schwer? 

Die Ergebnisse verwirren auf den ersten Blick ein wenig. Die relevantesten Aspekte, die jetzt auch in den meisten Medienberichten referiert werden, betreffen den Schutz von Bürgern vor Überwachung und Manipulation – Themen, wie wir sie seit Vorratsdatenspeicherung, DSGVO und Whats App-Ver- oder Entschlüssungsdiskussionen kennen. Biometrische Identifikationssysteme sollen also nicht schrankenlos verwendet werden können. Social Scoring bleibt in der EU unerwünscht. BürgerInnen werden sich beschweren können.

Und sonst? Ich habe den Act durchgeblättert; hier sind einige Punkte, die mir besonders aufgefallen sind. Im AI Act werden viele Probleme von Technikgesetzgebung im allgemeinen offensichtlich. 

Recht beschreibt Abstraktionen, Technik schafft Fakten 

Gesetzgebung orientiert sich an erwünschten Zuständen und möchte Rahmenbedingungen gestalten, die diese Zustände ermöglichen. Technik dagegen schafft Fakten. Letztes kann gezielt oder unabsichtlich vonstatten gehen. Manchmal werden Projekte konzipiert und umgesetzt. Manchmal schafft Technik, manchmal auch ein Nebenprodukt technischer Entwicklungen, die Voraussetzungen, die andere Prozesse in Gang bringen oder sie zeitigen Ergebnisse, die in anderen Zusammenhängen verwendet werden können. Die besten Verschlüsselungssysteme etwa machen das Leben von Sicherheitsbehörden leichter, wenn sie selbst diese Toole verwenden. Aber sie machen ihnen das Leben zur Hölle, wenn sie von anderen verwendet werden. Und für Entschlüsselungssysteme gilt das gleiche. Wo soll Gesetzgebung hier ansetzen? 

Diese Unklarheit zieht sich durch den AI Act. Entwickler von high risk AI Anwendungen sollen ausschließen, dass diese missbräuchlich verwendet werden können. Wie lässt sich das feststellen? Wer ist verantwortlich für Missbrauch? Wer stellt Missbrauch einer in anderen Zusammenhängen nützlichen Lösung fest? Diese Abgrenzungen machen keinen Sinn, wenn nicht geklärt ist, in welcher Beziehung Technologie und Gesellschaft hier gesehen werden. Setzt Technologie Entwicklungen in Gang, die unaufhaltsam fortschreiten? Bestimmt also Technologie Gesellschaft, Kultur und Natur? Oder ist Technologie das Ergebnis sozialer Prozesse und dient zur Lösung von Problemen, die eben sozial relevant sind? Über technischen und sozialen Determinismus kann man lange streiten. Zuletzt sind die Argumente der Techno-Deterministen etwas aus der Mode gekommen; gegenüber dystopischer Science Fiction war Technik zuletzt einfach zu freundlich. Gerade mit AI aber haben viele Freunde mahnender Technovisionen wieder eine lohnende Gegnerin gefunden.

AI-Risikostufen als Auslegungssache

Die Einteilung von AI Anwendungen in verschiedene Risikostufen von minimal risk bis unacceptable risk stellt den Kern des AI Act dar. Ein in der Presseaussendung ausdrücklich erwähntes Beispiel für minimal risk sind Recommender Systeme, unter unacceptable risk fallen Anwendungen, die Menschen manipulieren und ihren freien Willen untergraben sollen. Letztes klingt bösartig, Recommender Systeme dagegen sind meist freundliche Shopping-Assistenten, die Kunden Zusatzprodukte empfehlen. Hinter diesen Empfehlungen allerdings arbeiten durchaus komplexe Algorithmen, die mitunter hunderte Parameter verarbeiten, um zu einer Empfehlung zu kommen Und sie verfolgen ein Ziel: Sie wollen den Kunden, der gar nichts kaufen oder mit seiner aktuellen Auswahl im Einkaufskorb den Shopping-Prozess abschließen wollte, zu etwas anderem überreden. Man kann es nun spitzfindig nennen, auch Empfehlungen als Manipulation des freien Willens zu betrachten. Aber es ist ganz und gar nicht spitzfindig, festzustellen, dass Empfehlungen Beispiele komplexer Technologien sind, die auch die Grundlage für ganz andere, weniger freundliche Anwendungen sein können.

Der gleiche Algorithmus, der feststellt: „Wenn du A kaufst, kaufst du vielleicht auch B“, kann auch feststellen: „Weil du A tust, bist du ein politisch verdächtiges Subjekt“. Ich fürchte, es ist keine besonders gelungene Abgrenzung, wenn die Trennung von minimum und unacceptable risk dermaßen leicht übersprungen werden kann. 

Diese Trennung in Risikoklassen und wohl auch die Verantwortung des AI-Entwicklers sind als abstrakte Definitionen sehr problematisch und werden wohl einiger konkreter Einzelfälle bedürfen, um näher bestimmt zu werden. 

Aufklärung- und Kennzeichnungspflichten: Wann ist das schon verständlich? 

Andere Regelungen des AI Act sind zahlreiche Informations- und Kennzeichnungspflichten. Anwender sollen verstehen, dass sie gerade mit einem AI-System interagieren, und sie sollen verstehen und nachvollziehen können, in welchem Ausmaß AI zu dieser Interaktion beiträgt. Das ist ein herausfordernder und ziemlich aufklärerischer Anspruch.

Wer ist dafür verantwortlich, dass diese Transparenz gelingt? Wo verläuft die Grenze zwischen Bringschuld der Entwickler und Holschuld der Anwender? Wer legt fest, was erklärt werden muss, wann etwas ausführlich genug erklärt ist und in welcher Form die Erklärung stattfinden muss? Werden jetzt ellenlange allgemeine Geschäftsbedingungen nicht mehr nur von ebenso langen Datenschutzerklärungen, sondern auch von noch längeren AI-Disclaimern begleitet?

Heute hat jeder Webseitenbetreiber eine lange automatisch erstellte Datenschutzerklärung in seinem Impressum verlinkt, ohne zu wissen, was eigentlich darin steht und wozu das notwendig ist. User lesen das nicht. Die einzigen Profiteure dieses Umstands sind die Webmaster der Webseiten der Anwaltskanzleien, die die Datenschutzgeneratoren zur Verfügung stellen – und die sich jetzt über eine ungeahnte Fülle neuer Backlinks freuen können. Wird das auch das Schicksal der Aufklärung über künstliche Intelligenz? 

Ein eigener Paragraph fordert über diese allgemeine Kennzeichungspflicht hinaus noch eine Kennzeichnungspflicht für mit künstlicher Intelligenz generierte Bilder, Videos und Audios. Das wirft wieder ähnliche Abgrenzungsschwierigkeiten auf: Wie künstlich soll es denn sein? Reichen Filter oder die Anwendung von Animationsprpogrammen? Muss ein unverfälschtes Bild zugrunde liegen, sind Täuschungsabsicht oder -möglichkeit oder die Verwechselbarkeit mit realen Szenen notwendig? Oder muss jede Fantasy-Visualisierung mit Drachen und Prinzessinnen gekennzeichnet werden?

Was mich dabei eigentlich beschäftigt: Ich konnte keinen Hinweis zur Kennzeichnungspflicht KI-generierter Texte finden. Mögliche Interpretationen: Bilder und Videos werden als wirksamer eingeschätzt , Bilder vermitteln mehr Autorität. Bilder werden als Abbildungen verstanden, die Tatsache, dass bei jedem Bild, auch einer bloß abbildenden Fotografie, eine fremde Intelligenz im Spiel war, die Aufnahmemoment, Bildausschnitt und Veröffentlichung bestimmt hat, wird ausgeblendet. Bilder geschehen von selbst, Texte dagegen entstehen nicht durch zufällige Anordnung von Buchstaben – ob eine künstliche oder eine andere Intelligenz im Spiel war, ist weniger wichtig.

Texte lügen noch besser als Bilder 

Das ist eine Reihe von Missverständnissen. Wer mit digitalen Bildbearbeitungstools zu tun hatte, weiß wie viele Prozesse auch dann schon unkontrolliert laufen, wenn nur einfach Farbkorrekturen angewendet werden. Der Automatisierungsgrad entscheidet dabei nur über das Tempo der Veränderungen (und darüber, wieviele Bilder in welcher Zeit bearbeitet werden können) – die realen Möglichkeiten sind die gleichen. Und auch versierte Anwender wissen nicht genau, was die Software wirklich macht – es ist egal, ob sie selbst Befehle tippen, Buttons klicken oder mit natürlicher Sprache einen Chatbot steuern. Das ist auch bei KI-generierten Texten nicht viel anders. Ohne den Text genau zu überprüfen, nachzurecherchieren und die Argumente nachzuvollziehen und auf ihre Konsequenzen hin durchzudenken, sollten weder handgeschriebene noch künstlich generierte Texte veröffentlicht werden. Beides passiert. 

Die unterschiediche Behandlung von Bild und Text im AI Act lässt vermuten, dass entweder Bildern mehr Autorität über unbedarfte User eingeräumt wird, oder dass Manipulation in Texten als leichter entschlüsselbar angesehen wird – oder dass das Problem möglicherweise ein ganz anderes ist und die Kennzeichnungspflicht KI-generierter Bilder am Ziel vorbeigeht. Gerade KI-generierte Texte, die sich am kleinsten gemeinsamen Nenner orientieren, wiederholen was alle sagen und keinen Bezug zu Wahrheit oder Argumenten herstellen können, können nur von auf dem Gebiet, das der Text behandelt, besonders versierten Menschen überprüft werden. Eine KI kann leichter lernen, ob sie Menschen mit fünf oder sechs Fingern zeichnen soll, als zu entscheiden, ob sich mit dem Idealismus Kants jetzt eher Relativismus oder doch Realismus argumentieren lässt oder ob eine Vermögenssteuer Wirtschaft und Sozialsystem nützen oder schaden wird.

Falls die Kennzeichnung als Unterstützung im Kampf gegen Fake News und Desinformation gemeint war, so geht das ein wenig am Ziel vorbei. Falls es ein Beitrag zur Bewusstseinsbildung auch in breiten und wenig digitalen Bevölkerungsteilen gedacht war, dann bleiben all die Graubereiche unberührt, ohne die KI kaum als relevantes Phänomen zu begreifen ist.

US-Konzerne und -Institutionen als stärkste Mitgestalter in Europa 

Aus dieser Perspektive finde ich es immer wieder auch spannend, wer in die Entstehung welcher Regelungen involviert war und wer wie intensiv lobbyiert hat. Verleger und andere Produzenten von intellectual property, ohne die Künstliche Intelligenz keine Intelligenz simulieren könnte, waren recht zurückhaltend. Ihre Kernthemen drehten sich offenbar vorrangig um Copyrights und Lizenzen. Das kann grundsätzlich zu neuen Geschäftsmodellen führen, wenn Inhalte nicht mehr nur an Distributoren, sondern auch an Tech-Unternehmen lizenziert werden. Aber es kann etwas zu kurz gegriffen sein, wenn die Ergebnisse dieser Lizenzproduktionen dann plötzlich Mitbewerber unter neuen Marktbedingungen sind. Ob es dazu kommt, wovon KI lernen soll, wenn sie einmal alte inhalteproduzierende Intelligenz ökonomisch vernichtet hat, und ob KI nicht doch der beste Freund des Journalisten wird, dem sie bei Recherche, Archivierung und andern Aufgaben hilft, ist noch offen.

Integrity Watch hat 210 Lobbyistentermine zum AI Act bei den beiden Berichterstattern, Axel Voss und anderen in KI, Daten, und andere Technologiefragen involvierten Abgeordneten des EU-Parlaments dokumentiert. Ganz vorne dabei sind Google mit acht und Microsoft mit sieben Terminen. Die American Chamber of Commerce hat sechs Mal interveniert, auffällig ist auch das Future of Life Institute mit vier Terminen. Nach Eigendefinition bemüht sich das Institut um Technikfolgenabschätzung und -steuerung. Größte Geldgeber sind Skype-Mitbegründer Jaan Tallinn und Ether-Mitbegründer Vitalik Buterin. Tallinn war eine Zeit im Vorstand des Instituts, Buterin hat – laut der eigenen Transparenzseite – keinen Einfluss auf Agenda und Schwerpunkte. TikTok wurde zwei Mal vorstellig, IBM ebenso. Der Bundesverband deutscher Digitalpublisher begnügte sich mit einem Termin.

Einige Ausnahmen von den strengen Regelungen sind vermutlich im Interesse aller Beteiligten, auch wenn sie das Potenzial haben, die Regelungen des Acts pauschal zu unterwandern. KI-Anwendungen im privaten und persönlichen Bereich und zu Forschungs- und Entwicklungszwecken sind von den Vorschriften und Risikoklassen ausgenommen. Für sie gibt es Sandbox-Regelungen, in denen experimentiert werden darf. Entwicklungsumgebungen für KI werden also letztlich ähnlich problematische Umgebungen wie Labors, in denen gefährliche Viren und Bakterien untersucht werden. Das baut Hürden auf und schränkt, wenn die die Regeln tatsächlich ernst genommen werden, auf die Dauer den Kreis jener, die es sich leisten können und wollen, zu Künstlicher Intelligenz zu forschen, deutlich ein. KI-Entwicklung wird zum Luxus – oder findet künftig außerhalb von Europa statt.

Als Übergangslösung, bis der Act auch überall in Kraft tritt, können und sollen Tech-Unternehmen einen AI Pact mit der EU abschließen. Dieser Pact bedeutet die vorläufig freiwillige Anerkennung des Act und wird hoffentlich auch als Chance genützt, all die diskutierbaren Bestimmungen näher zu schärfen. 

Endlich: eine KI-Behörde (/sarkasm)

Was wäre Bürokratie ohne Behörden? Zur Überwachung und Weiterentwicklung des EU AI Acts soll eine eigene KI-Behörde geschaffen werden, mit eigenen Dependancen in allen EU Mitgliedsstaaten. 

Eine eigene Behörde – das wird natürlich vor allem die Österreicher freuen. Digitalisierungsstaatssekretär Tursky, der diesen Job nicht mehr lang machen wird, hat sich vor einigen Monaten noch als KI-Warner hervorgetan, der dringende Regulierungen und eine Behörde forderte und allen Ernstes in Interviews so tat, als treibe er die EU vor sich her (im übrigen unwidersprochen vom ORF-Interviewer).

Vor einigen Wochen mutierte er zum wohlwollende KI-Erklärer, die auf die Visionen unabsehbarer Gefahren verzichtete und stattdessen als Auskennen wissen ließ, dass KI ja bereits in sehr vielen harmlosen Anwendungen arbeite. Auch diese plötzliche Wendung, ein kompletter Widerspruch zu seinen Aussagen einige Wochen davor, blieb vom Interviewer unbemerkt. 

Tursky erwähnte Kennzeichnungspflichten, wünschte sich eine „unideologische“ KI (was in der Regel die Umschreibung ist für eine KI, die die eigene Ideologie reproduziert) und verwechselte KI-Regelungen ebenfalls mit Maßnahmen gegen Fake News und Desinformation – ganz so, wie er es offenbar im Entwurf des AI Act gelesen hatte. 

Die größte Sorge in dieser Konstellation von Bürokraten, die gefallen wollen und einer Technologie, die sich plakativen Festschreibungen entzieht, ist dass diese Bürokraten in den zu gründenden KI-Behörden sitzen werden und dort neue KI-Regelunge erfinden werden und, noch schlimmer, an der Operationalisierung der bisherigen Regeln arbeiten werden. Sie werden also darüber entscheiden, ob einer Kennzeichnungspflicht genüge getan wurde, ob dem Missbrauch einer riskanten Anwendung tatsächlich ausreichend vorbeugt wurde und ob die als riskant eingestufte Anwendung erstens tatsächlich riskant ist, ob sie zweitens Forschungs- oder kommerziellen Zwecken dient und ob die notwendigen Sicherheitsbestimmungen eingehalten werden.

Das lässt einen ausgedehnte bürokratischen Overhead befürchten. 

Insgesamt ist der AI Act wohl ähnlich einzuschätzen wie die Datenschutzgrundverordnung: Es stecken ehrenwerte Absichten dahinter, an den einzelnen Entscheidungen ist im großen und ganzen nichts falsch. In Summe hat das Regelwerk aber das Potenzial, eine Armee von papierenen Monstern hervorzubringen, die niemandem nützen und keinen anderen Zweck erfüllen, als die neu geschaffenen Auflagen dieses Regelwerks zu erfüllen. In der Praxis werden sie wenig weitere Auswirkungen haben, als dass sie bürokratische Aufwände nach sich ziehen. Und es wird damit in Summe nicht leichter, KI-Anwendungen zu entwickeln. Im Gegenteil: Vermutlich überlegt man es sich in Zukunft noch gründlicher, ob die Entwicklung tatsächlich in Europa stattfinden soll.

Ein positiver Effekt der Auflagen und des Bemühens um ethisch-europäische KI kann die Entwicklung eigener europäischer KI-Varianten sein, die am Anfang lästige Zusatzaufgabe sind, im Lauf der Zeit aber vielleicht neue Effekte hervorbringen – ähnlich wie das sportliche Training in Höhenluft erst belastender ist, dann aber bessere Effekte bringt. Die Frage ist, werd den ausreichenden Atem hat, die belastenden Phasen durchzustehen. Schon bei Open AI, dem aktuell erfolgreichsten AI-Unternehmen, hatten unlängst die Befürworter der nichtkommerziellen Perspektive nur für wenige Tage in einem spektakulären Führungsstreit die Oberhand – und mussten dann Verfechter kommerzieller Ansätze zurückbitten und ihre eigenen Plätze räumen.

So gesehen klingt im EU AI Act auch eine große Portion Angst mit. Das beste Rezept gegen diese Angst ist mehr praktische Erfahrung mit Künstlicher Intelligenz, mehr Bereitschaft, sich in konkreten Fällen damit auseinanderzusetzen. Beides vermisse ich in der Politik, aber auch in Medien, Kunst und vielen anderen Bereichen. Zukunfts-Bullshitten ist für mich kein gelungener Fall von konkreter Auseinandersetzung.

Achille Mbembe, Brutalisme

Die Zukunft kommt nicht mehr. Sie ist schon da, sie ist insofern vorweggenommen, als wir so tun müssen, als hätten wir alle Mittel, sie zu steuern und zu gestalten. Digitalisierung schafft Phantasmen universellen Wissens, in denen keine Frage offen bleibt, auch nicht die nach der Zukunft. Wir finden auf alles eine Antwort, es bleibt kein Raum für Unbekanntes. Das verkleinert die Welt – die Welt hat ihre Grenzen erreicht. Wir müssen uns der Tatsache stellen: Das ist es. Da kommt nichts anderes mehr. Dieses Bewusstsein von Endlichkeit ist die Ausgangslage für harte Verteilungskämpfe, die Normalisierung von Extremsituationen und ständig neue Versionen der Vorstellung von Essenz und Zweck des Menschen.

Das ist in etwa die Kernthese von Mbembes sehr dichtem und komplexem Brutalisme-Text. Mbembe schreibt wortgewaltig und radikal, betont diverse und außereuropäische Perspektiven, verwendet (hier und noch öfter in anderen Texten) das N-Wort, um das andere zu kennzeichnen, und war wegen seiner Ausführungen zu Biopolitik und Machttechniken gelegentlich mit Antisemitismus-Vorwürfen konfrontiert.

Brutalisme ist eine Fortführung der Überlegungen zu Biopolitik und Nekropolitik und beschreibt ein von Digitalisierung und Berechenbarkeit geprägtes Weltbild as Diagnoseframework unserer Zeit. Brutalismus muss etwa in der Dimension des Begriffs Humanismus verstanden werden. Der Begriff bietet eine Perspektive auf globale Entwicklungen.

Mbembes Perspektiven sind großteils keine freundlichen. Hoffnung ist kein Wert, Werte als anzustrebende Leitbilder, als Essenzen, auf die man hinarbeiten kann, haben generell eher ausgedient. Was zählt, ist Berechenbarkeit. Digitalisierung und Rationalisierung sind wesentliche Grundpfeiler des Brutalismus. Berechenbarkeit schafft Gemeinsamkeiten. Diese sind allerdings keine verbindenden Elemente, sie sind Gemeinsamkeiten im Sinn von Gemeinheiten oder Banalitäten – es gibt nichts anderes. Vernunft ist ökonomisch, biologisch, algorithmisch – sie berechnet und entscheidet mehr, als sie entdeckt. Das gehört zu den Grundzügen technologischer Vernunft.

Weil Technik entscheidet und definiert (und sich dabei nicht um Ideen wie Wahrheit kümmern muss) entstehen andere Versionen von richtig und falsch. Richtig ist in technisch dominierten Weltbildern was funktioniert. Dieser Pragmatismus findet sich in frühen Technologiekonzepten von John Dewey bis Don Ihde und erfährt bei Mbembe eine weitere Zuspitzung: Sieger müssen recht haben.

Das stellt den Sinn von Begriffen wie richtig und falsch infrage – und es wird für Mbembe zur Startrampe für einen Essay über Machtmechanismen. 

In welcher Beziehung stehen Brutalismus und Migration? Mbembe ist geneigt, ein Recht auf Migration zu postulieren, ein Recht, das in weiten Teilen der Welt nicht verankert, aber teilweise Praxis ist, bis es in Europa an harte Grenzen stößt. Er greift marxistische Motive auf und dehnt den Begriff der Überflüssigen auf jene auf, denen im Rahmen von Migrationsregelungen keine Rolle gegeben wird, jenen, die weder erwünschte Zuzügler noch zu duldende Flüchtlinge sind. Migrationspolitik im Zeichen des Brutalismus ist für Mbembe Lebensraumpolitik – ein NS-belasteter Begriff. Etwas verschwommen ist allerdings der Adressat dieser Diagnose. In vielem beschreibt Mbembe Maßnahmen und Zustände aus außereuropäischen Migrationsrouten, greift aber die Europäische Union an. Die Einteilung von Menschen in nützliche und überflüssige, von Weltregionen in lebenswerte, sichere, bewohnbare und lebensfeindliche und die Erstellung von Matrizen, die bestimmte Arten von Menschen auf bestimmte Regionen verteilen und sie dorthin verschieben wollen, ist ein kerneuropäisches Anliegen, aber eines, das ohne den Rest der Welt nicht umsetzbar sein wird. Brutalismus als Nutzenkalkül jedenfalls verändert die Rolle der Überflüssigen – für Mbembe haben sie nicht einmal mehr Fleischwert.

Von hier aus schlägt Mbembe eine nicht ganz leicht nachzuvollziehende Brücke zu Kunst und Restitution. Das verbindende Element: Die (europäisch-)brutalistische Perspektive kategorisiert und rationalisiert ohne Sinn für ihr verborgene Essenzen. Das ist ein Erklärungsansatz für Migrationspolitik, das ist auch ein Leitmotiv in der Debatte um afrikanische Kunst und Restitution.

Mbembe ist ein klarer Befürworter der Restitution afrikanischer Kunst aus europäischen Museen. Restitution bedeutet allerdings nicht nur die Rückgabe von Gegenständen. Er verbindet mit Restitution auch die Auseinandersetzung damit, was die geraubten oder gekauften oder ertauschten Gegenstände bedeuten. Unrechtmäßige Aneignung ist für Mbembe nicht nur mit Gewalt verbunden. Sie liegt auch dann vor, wenn Kunstgegenstände entfremdet, (falsch) interpretiert, aus einer europäischen Perspektive bewertet wurden und damit dazu beigetragen haben, falsche Bilder von afrikanischer Kunst, Philosophie und Technik entstehen zu lassen. Die Kunstgegenstände wurden missbraucht und zu Zeugen einer nie stattgefundenen Geschichte gemacht. So erzählen sie – für Europäer stringente – Geschichten, die Sinn ergeben und Wirkung entfalten und damit, auch wenn sie zurückgegeben werden, falsche Perspektiven produzieren. 

Auch das ist Brutalismus. 

Was sind Gegenpositionen? Mbembe erwähnt einen möglicherweise anderen afrikanischen Begriff von Technologie, der Technik weniger als Werkzeug und Mittel zum Zweck sieht. Im Vordergrund steht mehr die Auseinandersetzung mit dem, was ist, nicht mit dem, was durch Technik geschaffen wird. Dabei bleibt Mbembe allerdings vage und Andeutungen verhaftet.

Gebührenfinanzierung ist keine Quantenphysik

Bislang fernseherlose Mitmenschen bekamen in den vergangenen Wochen ein wenig überraschende Post vom ORF: Sie hätten sich zur Zahlung der ab Jahresbeginn zu zahlenden neuen Haushaltsabgabe zu registrieren, und zwar flott. Mangelnde Mitarbeit bei der Rekrutierung von ZahlerInnen würde mit der Verdopplung der Zahllast geahndet. Wer dieser Registrierungspflicht nachkam, erhielt in den letzten Tagen Post zur Einrichtung einer Bankverbindung und wurde auf der Rückseite dieses Schreibens darüber aufgeklärt, was der ORF mit dem nunmehrigen Geldsegen zu tun gedenke.

Dort liest man unter anderem: „Wofür wird der ORF-Beitrag verwendet? (…) das ORF.at-Netzwerk (…) ORF Topos, Social Media-Profile (…) bald noch mehr Online-Angebote.“

Das wäre nicht überraschend, hätte die Entscheidung für die Haushaltsabgabe nicht eine viel diskutierte Vorgeschichte. Eine, in deren Rahmen ein Jubelpost auf orf.at zum 25 jährigen Bestehen der Seite das staunende Publikum belehrt hatte: „Damals wie auch im Sommer 2022 sind ‚Blaue‘ und ‚Gelbe Seite‘, also sport.ORF.at, nicht gebührenfinanziert“. Daraus strickten ORF-ApologetInnen wilde und wirre Legenden vom digital erfolgreichen ORF, der eben verstanden habe, wie die digitale Welt funktioniere, und dem eine Armada unfähiger Zeitungsmannschaften der Erfolg neide. Der ORF war weder das erste noch vom Fleck weg das erfolgreichste Onlinemedium, er war nur das, das sich keine Gedanken über Monetarisierung oder Kannibalisierung anderer Kanäle machen musste.

Diese Ausgangssituation und eine Vielfalt an Inhalten aus Fernsehen und Radio, mit denen Online quersubventioniert werden konnten, verschaffte dem Öffentlich-Rechtlichen eine komfortable Position. Eine, aus der ihm jetzt noch mehr Möglichkeiten gegeben werden, online first und only zu produzieren.

Die schlechte Situation der privaten Medien ist nur teilweise auf das ohne weitere Bezahlschranke verfügbare ORF-Angebot zurückzuführen. Natürlich schadet es einem Markt, wenn der größte Player völlig andere Bedingungen hat, aber gleichzeitig wie ein normaler Wettbewerber um Leser und Werbung konkurriert. Noch mehr schadet der Heiligenschein, mit dem manchen MitarbeiterInnen und FreundInnen ihre Arbeit umgeben, und die insinuiert, nur ÖR-Information wäre wertvolle und interessenfreie Information. Gut nachgewiesene Korruption in den mittleren Etagen lässt anderes vermuten; der Umgang mit diese Korruptionsfällen (betroffene Mitarbeiter wurden an andere lukrativ klingende Positionen versetzt) wurde zu einem eigenen Problem. Die aktuelle Imagekampagne („Ich setze mich für … ein“) ist eine eigene Gattung absurden Theaters, etwa wenn vermittelt werden soll, dass sich ORF-Redakteure qua ihrer ORF-heit für Information ohne Grenzen einsetzen. Da gehört schon mehr dazu.

Manche Verleger machen sich umgekehrt Hoffnungen, dass die Neuregelungen für den ORF, die als Einschränkungen verkauft werden, LeserInnen von orf.at vergraulen werden. Die einzige Beschränkung ist allerdings eine Obergrenze für Textmeldungen auf der Hauptseite. Das wird wettgemacht durch Video- und Audiobeiträge, online first und only Beiträge, und wie man liest, eine Reihe neuer Online-Angebote. Flankiert wird das ganze von einer österreichweit flächendeckenden Werbeaktion, die den ORF nichts kostet. Denn neben der üblichen Werbung erhält jeder Haushalt mehrere Briefe, in denen orf.at angepriesen und auf neue Online-Angebote hingewiesen wird. Das fällt unter Kosten für die EIntreibung der Haushaltsabgabe – und die muss der ORF nicht selbst tragen. Die wurden einfach aufgeschlagen: Der ORF will 683 Millionen Budget aus der Haushaltsabgabe, die Haushalte zahlen aber 722 Millionen Euro – um auch noch die Kosten für die Eintreibung abzudecken.

Statt einer Einschränkung gibt es also nicht nur neue Möglichkeiten für den ORF, sondern auch noch eine kostenlose (was ja letztlich immer heißt: von den Kunden bezahlte) Werbekampagne, die den ORF-Onlineinhalten noch einmal ganz neue Startvorteile verschaffen wird.

Das ist dann schon ein wenig zermürbend.

Streit bei Open AI, Robotergesetze und: Wer managt Technik?

Der Superstar war wohl überrascht: Der Aufsichtsrat von Open AI hat Open AI-Gründer und Mastermind Sam Altman gefeuert. Man fühle sich zu wenig informiert, Altman habe Zielen Visionen und konkrete Entwicklungsschritte des Unternehmens nicht ausreichend klar und verständlich nach oben kommuniziert – so und ähnlich konnten Aussagen interpretiert werden, mit denen der Aufsichtsrat seine Entscheidung in den Stunden danach erklärte. Altman war kurz indigniert, heuerte wenige Stunden später bei Microsoft an und durfte sich noch einige Stunden später über eine Solidaritätserklärung von etwa 80% der Open AI-Belegschaft freuen, die nämlich ihrerseits den Aufsichtsrat zum Rücktritt aufforderte.

Noch weiß man nicht genau, was den Aufsichtsrat wirklich beschäftigt hat. Aus der Ferne betrachtet, und all die Visionen, Halluzinationen und düsteren Prophezeiungen rund um AI im Ohr, entsteht das Bild von Kontrollwünschen: Es geht um Macht im Unternehmen, über Wissen, Verfügungsmacht über Technologie, Entscheidungsgewalt über die Zukunft und den Wunsch, Menschen, Technik, Maschinen, Geld und die Zukunft gleichermaßen zu kontrollieren.

Dann geriet die Sache außer Kontrolle: Der Open AI-Aufsichtsrat knickte ein. Altman und  andere, die teils aus Solidarität mit ihm, teils mit der Aussicht auf bessere Perspektiven, das Unternehmen verlassen hatten, kehrten in ihre Jobs zurück.

Über dem Durcheinander schweben große Fragezeichen: Was war hier los? Und vor allem: Was hat sich durchgesetzt? Businesserwartungen an ein Unternehmen? Die Macht einer weit verbreiteten erfolgreichen Technologie? Das technische Genie eines Einzelnen? Und was hätte durch den Machtkampf entschieden oder reguliert werden sollen?

In der Frühzeit der Science Fiction stellte Isaac Asimov die Robotergesetze in den Raum. Damals, 1942, zeichnete sich ab, dass autonome Maschinen eine Herausforderung werden könnten – aber die Idee, man würde das regeln können, war stärker. Roboter sollten Menschen nicht verletzen oder gefährden, sie sollten Menschen gehorchen, solange sie das nicht in Konflikt mit der ersten Regel bringt, und sie sollten sich selbst beschützen, solange sie das nicht in Konflikt mit den ersten beiden Regeln bringt.

Das waren die einfach gefassten ersten drei Robotergesetze. Später wurden sie durch ein Gesetz #0, das Gesetz #1 auf die gesamte Menschheit (vor einzelnen Menschen) ausdehnte, und ein Gesetz #4, das Robotern das Recht auf Selbstschutz einräumte, solange das nicht mit den vorherigen Gesetzen kollidierte, erweitert. 

Asimov selbst misstraute manchen Maschinen so sehr, das er beispielsweise keine Flugzeuge bestieg. Ob Gesetze helfen könnten, solche Maschinenskepsis in den Griff zu bekommen? 

Diskussionswürdig blieb im Licht der potenziellen Robotergesetzgebung immer die Frage, an wen sich Robotergesetze eigentlich richteten. An Roboter? Auf welcher Grundlage sollten diese sich an Gesetze von Fremden halten? An Menschen, die Maschinen maßregeln sollten? Wie? An Roboterentwickler? Also an Menschen, die Maschinen lehren wollten, selbstständig zu entscheiden?

Man möchte Technik kontrollieren, um zu kontrollieren, was mit Technik gemacht werden kann. Am liebsten möchte man auch Menschen kontrollieren, die Technik kontrollieren, um alles zu kontrollieren.

Bislang war das wenig erfolgreich. Entscheidungen wie die, Erfinder einer Technologie zu feuern, um mehr Kontrolle über die Entwicklung einer Technologie zu bekommen, sind ein neuer Versuch. Bei digitalen Technologien, die in der Produktion wenig ressourcenintensiv sind (im Betrieb dann schon) und mitunter leicht reproduziert werden können, ist die Kontrolle doppelt schwierig. 

Was erwartet sich ein Aufsichtsrat, der eine weit fortgeschrittene und erfolgreiche Entwicklung kappt, sich selbst damit einiger Möglichkeiten beraubt und die freigesetzten Menschen an nichts hindern kann? Welche Kontrolle soll damit erreicht werden? Welche Argumente sind es, die dazu führen, diese Entscheidung innerhalb weniger Tage wieder über den Haufen zu werfen? 

Welche Vorstellungen von Kontrolle über Technologie führen zu solchen Irrwegen? 

TechnologiehysterikerInnen, die in den letzten Jahren in schneller Abfolge Social Network-, Daten- und KI-ExpertInnen wurden, argumentieren auf technologisch-deterministischen Perspektiven. Das bedeutet: Hier ist Technologie der bestimmende und schwer kontrollierbare Faktor. Technologie prägt Gesellschaft, Technologie setzt unausweichliche Prozesse in Gang. Der Mensch ist dabei Passagier. Was im Feld der Technologie geschieht, vollzieht sich mit Notwendigkeit.

Das ist die geeignete Kulisse von Visionen und Prophezeiungen, die oft hereinbrechende Mächte an die Wand malen, die „alles ändern“ werden, deren Auswirkungen man sich „noch gar nicht vorstellen“ kann, die Ungeahntes in Gang setzen werden. Verborgene technische Wirkmächte legitimieren Worthülsen, die in aller Austauschbarkeit vorrangig Aufregung erzeugen und Klarheit gar nicht anstreben.

Dem möchte man entgegenhalten: Technologie ist von Menschen gemacht. Technologie reflektiert soziale Ziele, Erwartungen und Bedürfnisse. Technologie ist beeinflussbar. – Das zeichnet noch nicht unbedingt ein freundlicheres Bild. Es bleibt offen, wessen Ziele und Erwartungen in die Entwicklung von Technologie fließen. 

Müssten hier bereits Robotergesetze ansetzen? 

Weder in einem technologisch deterministischen noch in einem sozial deterministischen Verständnis von Technik lassen sich klare Entwicklungslinien prognostizieren. 

In der einen Perspektive möchte man lieber „die Technologie“ besitzen, in der anderen „die Menschen“. 

In der einen Perspektive ist Technologie Kapital, in der anderen hat sie wenig intrinsischen Wert. Einmal herrscht der Glaube, eine Lösung  gefunden zu haben, etwas vorläufig endgültig geregelt zu haben, einmal ist die führende Idee, alles wäre im Fluss. Einmal erinnert es an die Entführungen von Physiker und Atomwissenschaftler durch Sowjets, einmal daran, dass diese Entführungen nichts Nennenswertes hervorbrachten. 

Die Open AI-Posse stellt einen Aufsichtsrat bloß, der glaubt, mit theoretischen und strategischen Prinzipien managen zu können. Das geht heute nicht mehr. Das sollte die eigentliche Essenz für Manager und Chefinnen sein, die meinen, vom Schreibtisch weg entscheiden zu können. Sie können verhindern und zerstören, im besten Fall das Verhindern verhindern. Aber sie können keine konkreten Ergebnisse herbeiführen. Das machen heute jene, die Technik verstehen und damit Dinge in Gang setzen können. Die anderen sind Passagier.

Das bedeutet auch – es wird Zeit für ein fünftes Robotergesetz: Du sollst den Roboter verstehen lernen. Sonst bleibt jede Diskussion über sozialen oder technischen Determinismus bloße Geräuschemacherei.

Von den Grenzen zwischen Innovation und Verzweiflung

Größter Treiber der Innovationskraft in Medien und Kultur in Österreich ist die Tatsache, dass es wurscht ist. Das ist nur oberflächlich betrachtet paradox. Die Unterschiede zwischen Erfolg und Belanglosigkeit sind weitgehend so minimal, dass es wurscht ist.

Das spornt oft erst mal an. Man kann was tun, man muss es selber tun. Man muss sich eben auch um Verkauf und Vertrieb selbst kümmern. Die Erfolgreichen sind nicht außer Reichweite und sie haben auch keine so viel größeren Strukturen hinter sich. Dort wo die ganz Großen sind, will man ohnehin nicht hin. Ist ja eine sterbende Branche. Kontakte sind schnell gemacht; Freund/Feind-Schemen funktionieren verlässlich und transitiv: In sich selbst verstärkenden Zirkeln vollzieht sich die Übertragung zugeschriebener Relevanz auch ohne Primärkontakt.

Und dann wurschtelt man halt, kommerziell betrachtet, so vor sich hin. Das ist ausreichend, um Medienunternehmer zu sein.

Daran ist nichts falsch.

Aber das immerwährende Praktikum, der nie eingelöste Hoffnungswert, das immer den Umständen geschuldete Ausbleiben des kommerziell durchschlagenden Erfolgs sollten nicht als Gütesiegel von Qualität verstanden werden.

Aber weil es wurscht ist, kann man Dinge lang weiterziehen und schon irgendwie am Leben erhalten, Erfolge herbei- und die eigene Belanglosigkeit wegreden. Bis man dann doch eine Tages den Stecker zieht.

Warum hast du das so lang gemacht?, fragen dann die einen. Nein, wie kannst du nur so was Tolles wegwerfen!, entsetzen sich die anderen.

PS: Man muss ergänzen: Auch in der obersten Liga ist Österreich als Medienstandort Teletubby-Land (und hat die Medienexperten, die es verdient).

PPS: Ich weiß das, weil ich meine verlegerischen Medienunternehmer-Aktivitäten weitestgehend zurückgefahren habe. Ich will lieber wieder schreiben, verkaufen können andere. Aber bis dahin könnt ihr noch schnell das neue Austrian Superheroes Special 2023 kaufen, oder die Horror Graphic Novel Bauer (oder was von den Büchern unten 🙂 …).

Sopie Passmann: Pick Me Girls

Nur die coolsten Mönner lesen Bücher von Frauen – meint Passmann auf den ersten Seiten von Pick Me Girls. Insofern liegt die Latte ja niedrig. Trotzdem habe ich mir mit dem Essay teilweise schwergetan.

Pick Me Girls, das sind Frauen für Mönner, die eigentlich nichts mit Frauen zu tun haben wollen, sondern einen weiteren Kumpel mit anderen körperlichen Attributen wollen. Sie sind unkompliziert, verleugnen sich selbt, missachten eigene Bedürfbisse und vermeiden möglichst alle Berührungspunkte mit dem Klischee der komplizierten Frau. Sie begegnen Unzufriedenheit oder Unsicherheit mit dem eigenen Körper, indem sie Körperliches als unwichig betrachten, sie distanzieren sich von weiblichen Rollenbildern, indem sie sie als dumme Klischees betrachten, die auf viele andere zutreffen, aber nicht auf sie selbst.

Passmann beschreibt die Unzufriedenheit als Pick Me Girl und die – erlösende – Unzufriedenheit, zu dieser Unzufriedenheit zu stehen und sich auf die eigenen Ängste und Sorgen einzulassen. Ein normaler Prozess des Erwachsenerwerdens, könnte man meinen.

Und in der Tat erwähnt Passmann nebenbei, dass es nachdenklichen Jungs ebenso geht: Sie leben an Erwartungen vorbei, lassen möglicherweise positive Rolllenklischees liegen und müssen sich die Frage gefallen lassen, warum sie all die Chancen, ein rücksichtsloser tatkräftiger Arsch zu sein, so wie es von Männern erwartet wird, an sich vorbeiziehen lassen.

Warum dann ein ganzes Buch über die weibliche Perspektive?

Eben weil Männer Erwartungen, Selbstbilder und positive und negative Heldenfiguren seit langem detailliert sezieren, analysieren und zelebrieren. Ohne zu erwähnen, dass das mitunter ein wenig erbärmliche Bubengeschichten sind.