Ein A****bombencontest ist auch ein Verdrängungswettbewerb

Der ORF gibt ein Gutachten über die Auswirkungen seiner Digitalpräsenz auf andere Medien in Auftrag. Die Autoren des Gutachtens verlaufen sich. Ihre Kernaussage ist: „Wir wissen es auch nicht.“ Der ORF feiert.

Was ist passiert? Seit zwei Jahren muss sich der ORF vermehrt der Frage stellen, wie sehr das öffentlich finanzierte Medium alle anderen Medien auf dem kleinen Markt Österreich dank seiner öffentlich gut gefüllten Taschen kommerziell an die Wand spielt. Umso mehr, seit dank Haushaltsgabe und ORF-Gesetz noch mehr Geld in die Kassen des Medienriesen gespielt wird und dem ORF noch mehr Möglichkeiten online offenstehen. Andere Medien sehen sich währenddessen multiplen Krisen ausgesetzt und experimentieren mit der Monetarisierung von Digitalinhalten – eine Herausforderung, der sich der öffentlich rechtliche Riese nie stellen musste. 

Trotzdem meint man, hier mitreden zu müssen. ORF-Vertreter richten anderen Medien gern aus, niemand hindere sie daran, so erfolgreich zu sein wie sie selbst. Jedes Medium hätte die gleichen Reichweiten und ähnliche Marktpositionen erzielen können (da ist anzumerken: Nein. Wer sich mit Monetarisierung beschäftigen musste, konnte sich nicht vollends auf Reichweite konzentrieren. Und umgekehrt). Dazu kommt: Auch in der ÖWA (Österreichichische Web Analyse) ist der ORF nicht zuletzt deshalb aus Platz 1, weil er meint, dass für öffentlich rechtliche Angebote andere Zählregeln gelten. Eine umstrittene Einstellung, die in absehbarer Zeit zum Ausschluss von orf.at führen kann.  

Um die vermeintliche Digital-Vormachtstellung zu untermauern, ließ man eben jetzt ein Gutachten erstellen. Eine erste, vor einem Jahr erstellte Umfrage, die hätte untermauern sollen, wie sehr User den ORF gegenüber anderen Medien bevorzugten, wurde nie veröffentlicht. Der sehr einfache Grund: User bevorzugten den ORF im Internet nicht aus inhaltlichen oder qualitätsorientierten Gründen gegenüber anderen Medien. Sein vorrangiger USP war schlicht: Er kostetet nichts. Wobei auch das falsch ist. Korrekt muss es heißen: Der ORF im Internet kostet nichts zusätzlich zu dem, was sie ohnehin an ORF-Gebühren zahlen müssen.

Deshalb jetzt eben Wissenschaft. 

Allerdings auch hier bleibt das einzig eindeutige Ergebnis: Nachrichtenkonsumenten sind in erster Linie preissensibel. Für über 60% der LeserInnen und Leser ist es das ausschlaggebende Argument, dass eine Nachrichtenseite nichts kostet. 

Das ist nun tatsächlich ein großer Verdienst, den sich öffentlich rechtliche, Corporate Newsrooms, Social Networks und auch ratlose Digitalnachrichtenseiten teilen können

Der Rest des Gutachtens ist recht spekulativ auf wackligen Stelzen unterwegs. Viele Annahmen und Voraussetzungen stimmen nicht: Weitaus mehr Seiten (als die Autoren annehmen) setzen auf Digitalabos. Digitalabos enthalten anderes als online verfügbar gemachte Zeitungsinhalte. Digitalmedien als ganzes konkurrieren nicht mit einer einzelnen Seite des ORF (der sogenannten Blauen Seite), sondern mit dem ganzen ORF Online-Universum von Sport über Lokalnachrichten bis zu Wetter und Kulturmagazinen. Die in der ÖAK (Österreichische Auflagenkontrolle) veröffentlichten Paid Content-Zahlen verhalten sich zu echten Digitalabozahlen so wie FTE-Kennzahlen zu Menschen – abgesehen davon, dass viele große Verlage nach wie vor ihre Digitalzahlen nicht an die ÖAK melden.

Für Weltnachrichten (die es vermeintlich überall gibt – solange es sie gibt) nutzen immer weniger Menschen Nachrichtenseiten von Medienhäusern, das ist richtig. Umso mehr sind Medienhäuser zusätzlich auf Diversifizierung und Spezialisierung angewiesen. Umso dynamischer ist der Markt. User reagieren sensibel auf Veränderungen, aber langsam. 

Die Gutachter interpretieren ihre Arbeit so, dass eine eventuelle Einstellung der Blauen Seite kaum Auswirkung auf den Digitalabo-Absatz anderer Medien hätte. Die gleichen Zahlen des gleichen Gutachtens können auch so interpretiert werden, dass eine umfassende Einschränkung des ORF im Internet zu einer Vervielfachung des Digitalabo-Marktes führen würde. 

Solche wackeligen Konstrukte sind wenig hilfreich. Schade, dass sich ORF-MacherInnen hinter so dünner Spekulation verstecken statt sich mit ihrer Rolle im Medienmarkt zu beschäftigen. 

Mustafa Suleyman, The Coming Wave

Es wird wild, meint Mustafa Suleyman. Das breitet er auf 300 Seiten aus und das ist in Summe dann schon ein wenig enttäuschend. Die Erwartungshaltung – jemand weiß so viel über AI und synthetische Biologie, dass er einen 300seitigen Bestseller darüber schreiben kann – ist deutlich zu spezifisch. Suleyman schreibt über alle möglichen Innovations- und Disruptionsthemen und streift seine eigentlichen Kernthemen jeweils an den Kapitelenden.

Seine zwei Kernthesen dabei:

  • Containment, also die Begrenzung und Kontrolle von Technologie, ist nicht möglich.
  • Containment ist lebensnotwendig.

Das sind natürlich Widersprüche, mit denen Suleyman in der Folge immer wieder spielt. Technologie ist als unaufhaltsame Welle beschrieben, die über die Zivilisation hereinbricht und alles verändert. Das ist eine deterministische Perspektive, die Menschen wenig Spielraum lässt. Technologie treibt und entscheidet und verändert. Mensch und Gesellschaft sind passive Objekte dieser Veränderungen. – Dass Menschen Technologie entwickeln, Gesellschaften Technologien nützen und verändern, um Probleme zu lösen, das sind wechselseitige Abhängigkeiten, die Deterministen noch nie Kopfschmerzen bereitet haben. Determinismus braucht Schwarzweiß-Kontraste. 

Natürlich ist Suleyman, Co-Founder von DeepMind, dem Entwickler von AlphaGo, kein Technologie-Gegner. In Kombination mit Biologie und DNA-Synthetisierungsmaßnahmen eröffnen KI und verbesserte Rechenleistung neue Möglichkeiten, die erstens ungeahnte Veränderungen mit sich bringen und zweitens jedem offenstehen. Das birgt ungeheures Potenzial. Fraglich ist allerdings, ob Menschen damit umgehen können. Und diese Frage stellt sich nicht nur in Hinblick auf die Konsequenzen potenzieller überwältigender Entwicklungen, sondern auch in Hinblick auf die produktive Nutzung. KI kann viele Probleme lösen, Rechenleistung kann viele Probleme lösen, in Verbindung mit synthetischer Biologie können sich diese Möglichkeiten potenzieren und zu Verbesserungen oder zur absoluten Katastrophe führen. KI kann Medikamentierung finetunen oder bei der Entdeckung der tödlichsten Bio-Kampfstoffe helfen. Für die Technik macht das wenig Unterschied; die notwendigen Geräte, meint Suleyman, kann sich bald jeder leisten und in Küche oder Garage unterbringen.

Warum tut sich auf diesen Gebieten dann noch nicht mehr? Möglicherweise liegt das auch daran, dass KI und Technologie zwar viele Probleme lösen können, viele Menschen aber weder vor noch nach der Problemlösung wissen, dass es diese Probleme gibt. Noch weniger wissen sie, was man mit ihrer Lösung anfangen kann oder welche Bedrohung dahintersteckt. Cyberrisiken bleiben abstrakt, mit Ki manipulierte DNA noch viel mehr.

Diese Kluft zwischen Potenzial, Realität und Erwartung bremst das Buch öfters aus. Die Wiederholung von Superlativen ermüdet, es gibt eben keine Steigerung mehr zur Vielzahl finaler Krisen, ultimativer Fehler und überwältigender Veränderungen (von denen überdies – Druckerpresse, Dampfmaschine, Internet – doch einige schon in den letzten mehreren hundert Jahren in Gang gesetzt wurden), die den Leser abstumpfen, noch bevor das letzte Drittel des Buchs erreicht ist.

Zu dieser Kluft passt auch, dass eine der letzten großen Cyberattacken, die FBI und andere Geheimdienste aus aller Welt auf den Plan rief und die größten Streaming- und Social Network-Plattformen für längere Zeit lahmgelegt hatte, dann doch nicht das Meisterwerk einer bösartigen Strategie, sondern das Produkt gelangweilter Teenies und ihrer zwielichtigen Marketingideen war.

Weil Containment aber trotz allem notwendig ist, kommt Suleyman dann doch auf den Punkt. Technologie kann nicht mit Vorschriften und inhaltlichen Regulierungen beschränkt werden. Wer Technologie in den Griff bekommen will, muss sich mit Technologie und ihrer Natur beschäftigen, statt alte Kontrollidee auszugraben.

Technischen Problemen muss mit technischen Lösungen begegnet werden, dafür ist technisches Verständnis notwendig. Suleymans Regeln, die Chancen auf Containment gefährlicher Technologien erhalten sollen, gehen über das Beschwören von Gefahren, das Äußern kulturpessimistischer Positionen oder die Aufrufe zu politischem Handeln hinaus. Wer sich sinnvoll mit Technologie beschäftigen will, muss lernen, damit umzugehen, muss die grundlegenden Funktionsweisen verstehen und muss sich die Hände schmutzig machen.

Reflektierende Positionen sind wichtig, die Chance auf Lösungen lebt aber in Erfahrung, Anwendungen, selbstgeschriebenen Codezeilen und eigenen Experimenten. Daraus können Lösungen und Perspektiven entwickelt werden. Der Rest der Beiträge in Technologiedebatten sind hehre Prinzipien aus heißer Luft.

Damit kommt Suleyman letztlich doch zu erstaunlich konkreten Punkten – leider erst auf den letzten zwanzig Seiten seines Buchs. Es ist zu wünschen, dass viele der Prediger, Visionäre und Feuilletontechnologen auch so weit kommen. Und dann auch in Betracht ziehen, diese Empfehlungen ernstzunehmen.

Es wäre wünschenswert. 

Der Stand aktueller Diskussionen rund um Klarnamenpflicht, KIRegulierungen oder Daten und Machine Learning lässt anderes befürchten. Das ist schade. Denn Entwicklung wird dort möglich, wo Augenmerk auf scheinbar Selbstverständlichkeiten gelegt wird, wo Blackboxen geöffnet werden und normalerweise Unhinterfragtes im Detail analysiert wird. Damit wächst die Chance, Dinge in den Griff zu bekommen. Durch den Wettlauf um möglichst spitze Takes und aufrüttelnde Schreckensvisionen sinkt sie eher. Das ist eines der zentralen Argumente, die man aus Sulyemans Buch mitnehmen kann.

Klarnamenbeschwörer und andere Distinktionsspießer

Sie treten in Wellen auf und kehren immer wieder, als wären sie in einem langsamen aber unaufhaltsamen Strudel der Gezeiten gefangen, der sie in unregelmäßigen Intervallen immer wieder an Land spült: Klarnamenbeschwörer, empörte Cancel Culture-Diagnosten und Diskursschönheitstrauerredner sind, ohne es sehen zu wollen, Alter Egos der gleichen Kulturkritikschablonen.

Anonymität zerstört den Diskurs, unqualifizierter Widerspruch zerstört den Diskus, Formmängel zerstören den Diskurs.

Hinter diesen Einwänden steckt, das Adrian Daub in seinen Cancel Culture-Forschungen herausgearbeitet, oft der bloße Unwille, sich damit auseinanderzusetzen, dass da jemand mitredet, für den kein Platz am Tisch vorgesehen war. Oft ist es ehrliche – aber trotzdem ungerechtfertigte – Empörung darüber, dass jemand Gehör bekommt, den man gern ingoriert hätte. Sie widersprechen? Cancel Culture! Sie haben lustige Nicknames? Klarnamenpflicht! Sie verstoßen gehen unsere Rituale? Diskurszerstörer!

Die Klarnamenpflichttforderer fordern oft auch inhaltliche Regulierung von Social Network-Plattformen und Beichtpflicht für die Verwendung von KI. Das ist alles nachvollziehbar. Es ist nicht einmal falsch. Allein, es ist müßige Beschäftigungstherapie. Es ist das Dreschen von Phrasen und frommen Wünschen, die teils eine bald 300 Jahre zurückreichende Geschichte haben. In diesen 300 Jahren hätte den Beschwörern auch mal dämmern können, dass jene Lösungen, die man seit 300 Jahren beschwört, vielleicht keine Lösungen sind? Sonst hätten sie viellleicht etwas gelöst?

Aber Diagnosen allein sind auch ein liebgewonnenes Spiel. Es sind liebgewonnene und gut eingeübte Rituale, die man nicht einfach durch von der Tradition abweichende Fragestellungen über Bord werfen darf.

So trat heute in Österreich der Digitalstaatssekretär, der eben erst mit seiner KI-Behörde die Digitalzukunft des Landes gesichert hatte, vor die Presse und verkündete Klarnamenpflicht ohne Konzept, um Wirtshäuser vor ungerechten Bewertungen zu schützen. Und prompt packten bewährte Klarnamenbeschwörer und angehende KI-Dompteure ihre Essays aus den vergangenen Jahrzehnten aus. Nachdem sie gestern von totaler Disruption und alles verändernden Tsunamis gepredigt haben, wollen sie heute weiter Probleme mit schlechten Ideen von vorgestern lösen. Danke.

Henry Kissinger, Eric Schmidt: The Age of AI

Viel mehr an Flughöhe geht nicht für einen Text. Das ist aber auch nicht zu erwarten, wenn Henry Kissinger und Eric Schmidt, ehemaliger Google CEO, gemeinsam an einem Text zu KI arbeiten. Da werden schnell mal die letzten 2500 Jahre Geistesgeschichte gestreift und dann noch die Kriege der Zukunft verhandelt, um einem Thema wie dem KI-Zeitalter gerecht zu werden.

Der Bogen in die Vergangenheit stellt AI in den Kontext von Theorien über Wahrnehmung und Erkenntnis. In Kurzfassung: Platons Ideen blieben unerkennbar, der Wahrnehmung sind nur Phänomene zugänglich. Hume macht auf den Unterschied zwischen Wiederholung und Kausalität aufmerksam: Nur weil Dinge öfter in der gleichen Reihenfolge geschehen, ist das noch lange kein Hinweis auf kausale Zusammenhänge zwischen diesen Ereignissen. Kant schob das Ding an sich in den Bereich des Unerkennbaren und legte die Kategorien des Verstandes als Möglichkeiten und zugleich Grenzen des von diesem Verstand Erkennbaren fest. Heisenberg schließlich postulierte, dass der Weg eines Teilchens überhaupt erst dadurch entsteht, dass wir ihn beobachten und als solchen beschreiben. 

Kurzfassung: Da sind eine ganze Menge am Komplikationen im Spiel, die auch die fortgeschrittensten Erkenntnistheorien nicht zu lösen vermochten. Komplexere und raffiniertere Instrumente und Versuchsanordnungen haben erst dazu angesetzt, ein wenig mehr Klarheit zu schaffen, letztlich aber noch mehr Unschärfen offenbar gemacht.

Ist KI jetzt ein neues Instrument, mit dem wir Dinge erkennen können, die uns zuvor nicht zugänglich waren? Das ist möglich. Schafft KI noch mehr von diesen Unschärfen, mit denen wir zwar etwas erkennen, aber nicht verstehen, warum wir es erkennen? Das ist wahrscheinlich. Komplexe und oft schlecht dokumentierte oder geheim gehaltene Machine Learning Modelle funktionieren, aber der Wert der durch sie gewonnenen Erkenntnis ist fragwürdig – sobald man über die unmittelbare Auflösung zuvor formulierter Problemstellungen hinausgehen möchte. Das Problem ist gelöst, man darf aber nicht hinterfragen, wie und warum. Maschinen als Kandidaten von Turing-Tests sind so gesehen Vorreiter des Behaviorismus: Denn zur Disposition steht nur ihr sicht- und messbares Verhalten, nicht ihr innerer Mechanismus. Gemessen wird bei Turing-Tests nicht, ob eine Maschine mit einem Menschen mithalten kann, sondern ob der Mensch sich von der Maschine täuschen lässt. Das sind grundverschiedene Fragen.

In Bezug auf sinnvolle Positionen zu KI ist es sehr wichtig, den Unterschied zwischen diesen Fragestellungen verstehen zu können. 

Künstliche Intelligenz ist vor allem effizient. Sie prüft Alternativen schneller als Menschen und kommt auch in der Evaluierung der Folgen einzelner Entscheidungen schneller voran. Dabei ist der vorgegebene Rahmen relevant: Welches Problem soll KI lösen? Noch relevanter ist aber die Einschätzung der Umgebung, in der KI arbeitet: Welcher Stellenwert wird den Ergebnissen einer KI zugestanden? Wie weit ist diese Frage noch relevant oder wie weit wurde sie durch Prozesse bereits übergangen, das heißt wie umfassend ist eine KI an weitere Anwendungen angebunden, die ihr nicht nur algorithmische Entscheidungen, sondern auch so etwas wie Handlungen erlauben? Das ist der Punkt, an dem aus gewöhnlicher KI allgemeine KI oder AGI wird – Artificial General Intelligence. AGI bleibt nicht auf auf einem Bildschirm angezeigte Ergebnisse beschränkt, sie kann darüber hinaus Prozesse in Gang setzen und über Systemgrenzen hinweg Handlungen anstoßen. KI beschreibt, wie etwas gemacht werden könnte, AGI setzt das gleich um. – Noch ist AGI eine Vision.  

Weil KI vor allem effizient ist, ist die Frage, wie KI lernen soll, weniger drängend als die Frage, was KI lernen soll. Das Wie ist seit langem in Gang gesetzt, das Was kann noch gesteuert werden. Aus philosophischer Perspektive sind Wie und Was aber durchaus Begriffe, die ineinander übergehen können. Am Beispiel des KI-Trainings: Menschen können entscheiden, in welche Themengebiete sich KI einarbeitet (das ist das Was), im Detail eröffnet sich damit aber noch sehr viel Spielraum beim Wie des Lernens: supervised machine learning arbeitet Vorgaben ab und versucht Dinge nachzuvollziehen. Beispiele sind etwa klassische Sortieraufgaben. Unsupervised machine learning schlägt selbständig gefundene Muster vor, es bleibt allerdings dem Anwender – oder den weiteren Rechenschritten – vorbehalten, ob diese Muster als nützlich empfunden werden. Reinforcement learning schließlich integriert dieses Anwenderfeedback direkter in den Lernprozess. Zwischenstufen im Prozess nehmen Information darüber auf, ob ein Lernergebnis erwünscht ist oder nicht. Praktische Anwendungen dafür sind etwa Ethikregeln im machine learning: Modelle können schnell Strategien entwickeln, Probleme auf unethische oder illegale Weise zu lösen, Reinforcement greift ein und lässt solche Lösungen nicht als Lösungen gelten. Das ist ein Beispiel dafür, wie Was und Wie ineinandergreifen. Die Methode des Lernens, das Wie, beeinflusst auch das Was, indem auch bei vorerst weniger ethisch relevanten Fragestellungen ethische Dimensionen eine Rolle spielen.

Abstraktes machine learning wird so zu einer pragmatischen Angelegenheit, in der Kompromisse eine Rolle spielen. KI entdeckt nichts, KI schafft nichts Neues, KI arbeitet Regeln ab und geht manchmal trotzdem undurchsichtige Wege. Das sind mitunter gefährliche Momente, das sind Punkte, an denen man hartnäckig bleiben und versuchen müsste, zu entschlüsseln, was genau passiert ist.

Das stellt allerdings vor zwei Probleme: Zum einen arbeitet KI so schnell so viele Möglichkeiten ab, dass das Nachvollziehen solcher Prozesse menschliche Möglichkeiten übersteigt. Ein Beispiel dafür sind die zur Genüge nacherzählten Lerneffekte von Deep Mind beim Go-Spielen, als plötzlich neue Spielzüge im Raum standen. Zum anderen sind auch menschliche Erkenntnis und rationale Systeme nicht immer so rational und transparent, wie wir es für uns beanspruchen. Viele Wissenschaftstheorien, viele Welterklärungssysteme sind rund um dunkle Flecken gebaut, die sich mit diesen Systemen selbst nicht ausreichend erklären lassen. Vielleicht ist diese Gemeinsamkeit der intelligenteste und menschlichste Aspekt von KI.

Es kann aber ebenso der unangenehmste Aspekt sein. Am Beispiel von KI-gesteuerten Waffensystemen erklären Kissinger und Schmidt, dass es ebendiese dunklen Flecken sind, die den Umgang mit KI besonders riskant machen können. KI in Waffensystemen weiß mehr, hat mehr Informationen verarbeitet und Entscheidungen abgewogen, als Menschen es je können. Und KI taktiert nicht, hat keine Gewissensbisse und kennt keine psychologischen Spiele. Ob das ein Vorteil oder Nachteil für ihr Gegenüber ist – egal ob von menschlicher oder künstlicher Intelligenz – muss offen bleiben, betonen Schmidt und Kissinger. Auch das bedeutet letztlich: Der Umgang mit KI ist eine pragmatische Angelegenheit, in der man sich schrittweise vorantasten muss. In manchen Fällen geht das leichter, in anderen, wie dem Kriegsbeispiel, ist das riskanter.

Der Umgang mit KI ist für Kissinger und Schmidt ein derart breites Feld, dass sie KI als ein großes Paradigma des Welterfassens betrachten. KI steht für sie auf einer Stufe mit Glauben – einige Jahrhunderte war Glaube der vorherrschende Weg der Welterklärung, Welterklärungen mussten im Einklang mit Religionen sein – und Vernunft. Vernunft als dominierender Zugang zur Welt weckt die Erwartung, alles müsste erklärbar und begründbar sein. Eine Hoffnung, die sich gerade in den letzten Jahrzehnten auch als Täuschung erwiesen hat. Nicht etwa, weil sich Esoterik und Übernatürliches durchgesetzt hätten, sondern weil Physik und Logik bei Unschärfen, Unentscheidbarkeiten und Wahrscheinlichkeiten gelandet sind.

Es bleibt also offen, was dieses neue Prinzip des Weltzugangs über KI bedeutet wird. 

Generell geben Kissinger und Schmidt weniger Antworten. Ihr Anliegen ist es eher, die Dimension aktueller Fragestellungen erkennbar zu machen. Dem kann man entgegenhalten, dass das mitunter wenig ist. Man kann auch infrage stellen, ob KI als Instrument zwischen uns und der Welt einen so viel größeren Unterschied machen wird als Mikroskope, Teleskope oder Film und Fotografie. Auch das sind Techniken, die die ehemaligen Grenzen des Wahrnehmbaren gesprengt haben. Eine andere Art skeptischer Fragen ist bei all den Anleihen an Druckerpresse und Dampfmaschine, ob wir tatsächlich von diesen Innovationen der Vergangenheit aus in die Zukunft rechnen wollen. Und wo, wenn das möglich wäre, die bahnbrechende Disruption von KI angesiedelt wäre? Was hat man sich bei der Erfindung des Rades gedacht, bei der Instrumentalisierung des Feuers? Oder waren auch diese Ereignisse möglicherweise keine Ereignisse, sondern schleichende Entwicklungen, aus denen nachträglich einschneidende Wendepunkte herausdestilliert wurden? (Zur Frage, wann ein Ereignis ein Ereignis ist, hat Žižek eines seiner wenigen präzisen Argumente entwickelt).

All das führt zu einigen wenigen jedenfalls festzuhaltenden Punkten: Mit KI muss man arbeiten. KI muss man anwenden, einsetzen, testen. Man kann sie natürlich auch verweigern oder ignorieren. Aber KI ist kein Ereignis, dass sich mit eigenem Antrieb über die Welt verbreiten wird. KI wird sich verbreiten, aber jemand wird diese Verbreitung mitgestalten. Dem können wir uns ausliefern – wenn wir uns gern mit halluzinogenem Determinismus, Visionen und Dystopien beschäftigen. Oder wir können selbst mitgestalten – wenn wir uns mit einem pragmatischen Zugang anfreunden können. Und damit, dass Ergebnisse offen bleiben. Wir werden nicht die großen Weichen stellen. Die findet vielleicht später jemand. 

Die Lust an der KI-Angst

Es wird ein Wahlkampfjahr. Man merkt das unter anderem daran, wie viele neue Glücksritter sich als Experten und künftige KandidatInnen zu platzieren versuchen. Es wird ein EU-Wahlkampfjahr – das verschärft die Situation insofern, als Glücksritter aller Arten herausgefordert sind, sich Themen zu widmen, denen sie nicht gewachsen sind. das wäre nicht schlimm – vielen auf europäischer oder internationaler Ebene zu verhandelnden Themen ist niemand allein gewachsen. Schlimm wird es aber dann, wenn Menschen in ihren Ambitionen so tun, als wären sie diesen Themen gewachsen und simple Handlungen, man kann es nicht Lösungen nennen, für komplexe Themen vorschlagen. Noch schlimmer ist das nur, wenn die handelnden Personen sich für differenziert, weitsichtig, populismuskritisch und zukunftsorientiert halten. 

Technologie und Politik sind eine Glatteiskombination, auf der man nur schwer ein gutes Bild abgeben kann. Alle reden über Technologie, wenige haben Expertise oder Erfahrung. Technologie ist relevant, prägt viele Lebensbereiche und wird damit für alle zum Themen. Social, Data, KI – die Trendthemen der letzten Jahre haben einander überholt, bevor noch irgendwas ansatzweise geregelt gewesen wäre.

Der EU AI Act ist zwar fixiert, aber noch immer recht ungreifbar. Und in seiner gezielt technikfernen Risikoklassifikation sehr abstrakt, abstrakter als ein technikorientierter Spezialistenzugang sein könnte.

Der Digital Services Act (DSA) ist ein greifbareres Thema. Der DSA soll auf internationaler Ebene diverse Schattenseiten von Internet und Onlinemedien regeln und unter anderem vor Mobbing und Desinformation schützen. 

Und damit sind wir beim Thema. Geht es um Wahlen, geht es um Demokratie, geht es um das Gute – dann geht es um den Ruf nach Verboten und Regulierung. 

Es steht außer Frage, dass digitale Plattformen und Social Networks Probleme verursachen. Aber es ist eine bestürzende Themenverfehlung nach inhaltlicher Regulierung zu rufen und die Anwendung von Mediengesetzen, wie sie für Zeitungen, Onlinemedien oder Fernsehsender gelten, zu fordern.

Plattformen und Netzwerke erstellen keine Inhalte. Inhalte sind ihnen egal. Es würde nichts an der zugrundeliegenden Problematik ändern, wenn bestimmte Inhalte – sofern es dafür jemals eine sinnstiftende Klassifikation geben würde – entfernt würden. Manche Menschen könnten vielleicht, mit dem Gefühl, etwas erreicht zu haben, besser und selbstzufriedener schlafen. Aber es ist eine Diskussion, wie wir sie in Wien schon Ende der 90er Jahre geführt haben – etwas als Helene Partik-Pablé, damals FPÖ-Politikerin und Staatsanwältin, Hausdurchsuchungen bei einem Provider durchführte, weil jemand im Internet verbotene Bilder aus dem Internet über die Server des Providers angesehen hatte. Technik hat seither Lichtjahre an Entwicklungssprüngen zurückgelegt. Die Qualität technologiepolitischer Debatten eher nicht. 

Manche Inhalte sind gefährlich und bedrohlich. Aber können sie moderiert werden, zumal wenn sie in Sprachen verhandelt werden, von denen die betroffenen Konzerne nicht einmal wussten, dass es sie gibt?

Überdies: Gesetze gelten. Probleme liegen in ihrer Anwendung, und darin, dass sie den Kern des Problems nicht treffen.

Es ist erschreckend, wie schnell Menschen nach Einschränkungen und Verboten rufen, ohne sich bewusst zu sein, dass sie damit Infrastrukturen fordern, die im Handumdrehen gegen selbst gerichtet werden können. Verbot von Verschlüsselungssoftware? Her mit dem gläsernen Menschen. Einschränkungen beim Einsatz von KI-Methoden? Dann rekonstruiert in Handarbeit, was andere automatisiert gefälscht haben. Kennzeichnungspflicht für technische Manipulationen? Muss dann auch angegeben werden, welcher Instagram-Filter verwendet wurde, welche Bildbearbeitungsapp, deren Namen man gar nicht mehr weiß? Oder welche Brennweite bei Fotos verwendet wurde? Weitwinkelobjektive machen schließlich große Nasen.

Sinnvollere und härtere Regulierungen als Inhaltskontrolle sollten an Transparenz ansetzen. Der Schatz und das Geheimnis von Plattformen und Social Networks sind nicht Inhalte und Redaktionen, es sind Daten, Machine Learning Modelle und andere Algorithmen. Jede Verpflichtung zur Transparenz auf dieser Ebene bietet viel mehr Möglichkeiten zum Risikomanagement als jeder Eingriff in Inhalte. Model Risk Management im Machine Learning ist ein sich etablierendes Feld – Modelle können daraufhin geprüft werden, welchen Schaden sie in welchem Umfeld anrichten können und wie sie zu bändigen sind. Intransparente Modelle funktionieren nach einiger Zeit nur noch als bloße Verstärker, die mehr vom gleichen hervorbringen, ohne verständlich zu sein – das macht es schwer, ihren Lauf zu verändern oder Regeln für sie zu etablieren.

Genau das sind aber sinnvolle Möglichkeiten. 

Ein Beispiel: Die meisten Plattform-Modelle zielen darauf ab, Menschen länger online zu halten, indem ihnen Dinge gezeigt werden, die sie binden – egal was es ist. Man klickt oder wischt weiter und hat nach wenigen Minuten keinen Überblick mehr, wo man ist, wie man dorthin kam, wer gerade spricht und wie diese Information einzuschätzen ist. Intransparente Modelle machen hier einfach weiter. Transparente Modelle können angehalten werden, nach x dem Modell folgenden Inhalten das Muster zu brechen und etwa passende Hinweise anzuzeigen – oder Inhalte aus Medien, die Public Value Content produzieren. 

Datentransparenz ist eine andere mögliche Regelung, die in Ansätzen auch bereits im EU Data Act angesprochen wird. Eine ausführlichere und tiefergreifende Idee dazu stellen Thomas Ramge und Viktor Mayer Schönberger in „Das Digital“ vor. Datenintensive Unternehmen könnten zu Datentransparenz verpflichtet werden – oder auch Teile ihrer Abgaben in Form von Daten leisten. In vielen Punkten sehen Ramge und Mayer-Schönberger in Daten zu aktive und mächtige Akteure, als Regulierungsansatz taugt diese Idee aber allemal.

Transparenz ist die wichtigste verletzliche Stelle von Tech-Konzernen. Einen weiteren Hinweis dafür liefert Open AI: Die vermeintlich Guten, die als transparente Alternative zu kommerziellen Problembären gestartet sind, verweigerten unlängst die Veröffentlichung versprochener Dokumente. Erstaunlicherweise sind es jetzt sogar chinesiche AI-Entwickler, die auf Transparenz setzen. Die chinesische 01.AI soll Metas Llama übertreffen – und setzt außerdem dazu an, vielleicht auch den Boden für Transparenz in China zu bereiten. Denn um besser zu werden, braucht das Modell mehr Information, so wie sie etwa in Open Data zu finden wären.

Alles Ansätze dazu, problematische Technologie zu verändern. Der Ruf nach inhaltlicher Regulierung wird demgegenüber genau wie das, was er ist: Eine Idee von vor 30 Jahren, die damals schon eine wenig erfolgreiche jahrhundertealte Geschichte hatte. 

Eva Menasse, Alles und nichts sagen

Oje, was ist denn da passiert? Eine Digitalasketin konnte dann doch der Versuchung nicht widerstehen, über etwas zu schreiben, mit dem sie sich bekennenderweise nicht beschäftigt: das Internet. Eva Menasse versteigt sich zu einer Digitalkulturkritik und schreibt dabei aus der Position der sehr weit entfernten Beobachterin. Was ein anthropologisch oder ethnologisch reizvoller Zugang hätte werden können, wird sehr schnell zu einer Orgie klischeehafter Platitüden, die mit schlechten Beispielen und zweifelhaften Argumenten gestützt werden. 

Ein paar Beispiele: Menasse beschwört einen Rausch der Information durch grenzenlos Verbindungen in Social Networks herauf, in denen jeder mit allen sofort verbunden und mit aus tausenden Kilometern Entfernung hereinströmenden Reizen ausgesetzt ist. Diese Erwartung hatten frühe UserInnen vor 15 Jahren bei ihren ersten Schritten auf Facebook. Heute sehen sie dort statt interessanter Nachrichten von Korrespondenzfreunden aus Neuseeland oder Botswana die aktuellen Angebote von Gertis Strickstube in Simmering, auf Instagram dagegen exerzieren Influencer die gleichen Trends vor oder Coaches und Lebensberater verkaufen Schulungsprogramme. 

Menasse beklagt den spontanen Zorn und die Konsequenzen unbedachter Zuspitzungen und persönlicher Untergriffe. Offenbar, ohne sich bewusst zu sein, wie viel strategisch konsequente Aufbauarbeit in der Etablierung einer funktionierenden Trollpersönlichkeit steckt. Das unterstützt sie mit der Suggestivbehauptung, wir alle hätten wohl, als wir noch Briefe schrieben, mehr fertig geschriebene Briefe zerrissen oder sonst wie vernichtet, als sie abzuschicken. – Hat wer? 

Sie führt sogar Gil Ofarims gerichtlich festgestellte Lügen über seine angebliche antisemitische Diskriminierung als Indiz für das Problem rasanter Verbreitung ungeprüfter Informationen ins Feld. Hier waren nicht die Medien und ihr Tempo das Problem. Hier verbreitete jemand mit seinem eigenen Gesicht und Namen hartnäckig und konsequent falsche Informationen mit sich selbst als Zeugen und führte Medien aller Arten (und lange Zeit auch Ermittler und Gerichte) an der Nase herum.

Atmosphärisch kann man vielen von Menasses Ausführungen zustimmen. Aber viele sind mit wenig Sorgfalt argumentiert. Und oft geht die Diagnose auch deutlich an ihrem Objekt vorbei. Menasse beklagt etwa rechte Radikalisierung als Digitalphänomen, das durch Tempo und Distanz angeheizt wurde. Gefährliche rechte Radikalisierung ist allerdings kein Internetding. Die findet real und im geheimen statt. Natürlich sorgen Telegram Channels für die passende Begleitmusik und für das notwendige Characterdesign der handelnden Personen. Aber es wäre schön, wenn Radikalisierung ein Netzphänomen wäre. Das trifft allerdings eher auf die Gegenbewegung zu: Kritik an Rechtsextremen und Solidarisierung mit Betroffenen sind eine fröhliche Netzbeschäftigung, deren Ausübende gerne Pose über Handlung stellen. Das war erst in den letzten Tagen wieder zu beobachten, als so manche solidarisch Empörte sich empörten, von dieser oder jener Politikerin kein solidarisches Statement zu den „Demos gegen Rechts“ gelesen zu haben – worauf die Betroffenen den digitalen Beleg nachreichen mussten, dass sie ganz banal analog ohnehin vor Ort waren. Wenn es nicht im Netz ist, ist es nicht passiert. – Dieser Grundsatz gilt, außer für jene, die stattdessen lieber unbeachtet real agieren. 

Menasses Kritik ist intellektuelle Kulturkritik an von traditioneller Kultur abweichenden Medien und Kulturtechniken, die man vor hundert Jahren über da Kino, vor siebzig Jahren über das Fernsehen und vor fünfzehn Jahren über das Internet hätte schreiben können. Heute ist sie nicht unbedingt falsch. Aber berührend altmodisch, wenig relevant, und als Diagnose beschreibt sie eher Internet-Wahrnehmung und Stimmungslage in Feuilleton und Gesellschaftsseiten als digitale Entwicklungen. Das letzte Drittel des Texts widmet sich einer Antisemitismus-Diskussion, in der Digitales keine Rolle mehr spielt und beim Lesen völlig in Vergessenheit gerät, welche Punkte die Autorin in den ersten beiden Dritteln des Texts machen wollte.

Paul Watzlawick, Die erfundene Wirklichkeit

Watzlawick und die Konstruktivisten – das hat auf den ersten Blick etwas hart an der Esoterik Vorbeischrammendes und erinnert an grüne Vor-Gründerzeiten, als Stricken das Gebot der Stunde war. Das ist aber eine grobe Fehleinschätzung. In diesem Sammelband aus den frühen 80ern versammelt Watzlawick, damals Forscher in Stanford, eine Reihe der führenden Köpfe der Zeit (von Förster über Riedl bis Varela) und führt in ein Thema ein, das schon damals 20 Jahre alt war, aber heute noch neu und ungewohnt ist. 

Die einzelnen Essays dieses Bandes erklären Konstruktivismus ohne den technifizierten Quantenmechanikspeak, mit dem das Thema, wenn überhaupt, heute verhandelt wird – und trotzdem kommt im übrigen Schrödinger selbst zu Wort (auch ohne Quantenjargon, aber dazu später).

Ziel des Sammelbands ist es, Grundideen des Konstruktivismus greifbar zu machen. Heinz von Foerster etwa erklärt Erkennen als rekursives Errechnen, also als eine produktive Tätigkeit. Und er postuliert ästhetische und ethische Imperative. Ästhetik für den Konstruktivisten bedeutet: „Willst du erkennen, lerne zu handeln.“ Ethik beharrt darauf, Optionen zu eröffnen: „Handle stets so, dass weitere Möglichkeiten entstehen.“ In beiden Fällen steht Handeln im Mittelpunkt, und es schafft, was dann Wirklichkeit wird. Wirklichkeit, das gilt für Foerster und Rupert Riedl, ist Gemeinschaft. Auch damit sind sie nicht allein. Wirklichkeit im Sinn gemeinsam anerkannter Realität als Verhandlungssache – die Idee findet sich in vielen Ansätzen, nicht zuletzt auch in relativistischen oder kommunitaristischen Positionen.

Dieser soziale und konstruktive Aspekt von Realität wird von verschiedenen Seiten bearbeitet. Watzlawick führt sogar Popper und dessen Ödipus-Effekt (nicht -Komplex) ins Feld. Der Ödipus-Effekt ist eine Art Selffulfilling Prophecy: Etwas tritt nur ein, weil wir Maßnahmen setzen, die verhindern sollen, dass es eintritt. David Rosenhan beschreibt sein berühmtes Rosenhan-Experiment, in dem gesunde Versuchsteilnehmer mit einer falschen Diagnose in die Psychiatrie eingeliefert wurden. Der Auftrag war, sich sofort nach akzeptierter Einweisung wieder völlig normal zu benehmen und auch darauf hinzuweisen, dass man sich für normal halte. – Keiner der Versuchsteilnehmer hätte es aus eigener Kraft während des Versuchs aus der Psychiatrie geschafft. Alle galten als krank, weil sie einmal so diagnostiziert wurden. Und noch einmal Watzlawick, der zwischen den einzelnen Beiträgen kurze Moderationstexte schreibt, argumentiert, dass sich kein System, auch nicht das vermeintlich einfachste und rationalste, aus sich selbst erklären könne. Wittgensteinianer würden hier an Hinges denken, an jene Angeln, die weder hinterfragt noch rational erklärt werden können, an angenommene und gesetzte Fixpunkte, die alles tragen, um die sich alles dreht.

Solche Annahmen sind auch dort relevant, wo Kritiker sie gar nicht vermuten würden. 

Einer der wichtigsten Essays ist der des Mathematikers Gabriel Stolzenberg, der mit erstaunlichem Aufwand – auch das ein Merkmal der Zeit – dafür argumentiert, dass auch Mathematik eine Sache von Spielregeln und Konventionen ist. Mathematik, lang als Inbegriff von Logik (auch ein Spiel mit klaren Regeln) und „Spiegelbild des Geistes“ betrachtet, ist für Stolzenberg ein „Akt des Annehmens von Dingen in ihrem So-Sein“. Mit anderen Worten: Wenn wir rechnen, akzeptieren wir Regeln.

Diese Regeln haben ihr eigenes System geschaffen, deshalb können weder die Regeln das System hinterfragen noch kann das System den Grund seiner Regeln erklären. Es ist einfach so. Es könnte aber auch anders sein. 

Für viele Schüler, die mit Mathematik hadern, wäre diese Perspektive wohl eine Erlösung. Mathematik ist kaum mit Verhältnissen außerhalb ihrer eigenen Regeln in Beziehung zu setzen. Mathematik ist so, daran muss man sich gewöhnen. Und, wie Stolzenberg schreibt: Kaum etwas fordert so starke Bindung an Glauben wie reine Mathematik. – Sobald man zu zweifeln beginnt, ergibt Mathematik keinen Sinn mehr.

Ist das alles abstrakte Schönwettertheorie? Hat der Konstruktivismus, wie Watzlawick fragt, mit dem Alltag so viel zu tun wie die Relativitätstheorie mit dem Bau eines Schuppens? 

Das ist Ansichtssache. Hier kommt dann letztlich Schrödinger ins Spiel. Denn, meint dieser: Genauso wenig können wir uns selbst oder unseren Beitrag in unserem Weltbild finden. Wir sind nämlich dieses Weltbild. 

Ein Satz, der auch aus einem Zen-Lehrbuch stammen könnte. 

Pragmatischer Konstruktivismus war mal auf der Höhe seiner Zeit, ist dann etwas in Softi-Esoterik-Verruf geraten und ist durch Digitalisierung und Techniklastigkeit etwas verdrängt worden. Pragmatischer Konstruktivismus ist aber umso mehr die angemessene Methode unserer Zeit. 

Sascha Lobo, Die große Vertrauenskrise

250 Seiten Zeitdiagnose, vorne 20 Seiten Theorie, hinten ein paar Seiten Konsequenzen und Empfehlungen. Sascha Lobo ist ein sehr effizienter Autor. Die 250 Seiten Mittelteil in „Die große Vertrauenskrise“ können vermutlich mit recht geringfügigen Anpassungen in noch recht vielen Zeitdiagnosen der nächsten zehn Jahre wiederverwendet werden. Lobo spannt den Bogen potenzieller Vertrauensverlust-Ursachen sehr weit: Politische Korruption, Börsenflops, gebrochene Aufstiegsversprechen, Rückkehr von Krieg und Terror – alles keine neuen oder einzigartigen Phänomene – begründen ein Zeitalter des Vertrauensverlusts. Dazu kommen noch Wokeness (kann auch toxisch sein), Cancel Culture, mangelnde Diversity und breite Polarisierung – alles keine guten Startvoraussetzungen für vertrauensvolles Miteinander.

Der Anfang ist vielversprechend: Lobo unterscheidet zwischen altem und neuem Vertrauen. Altes Vertrauen orientiert sich an Institutionen. Altes Vertrauen wird durch Autorität vermittelt und fußt auf Pragmatismus und Zuversicht: Es wird schon klappen.

Neues Vertrauen dagegen ist persönlicher, es orientiert sich nicht mehr an großen Überlieferungen und Traditionen. Neues Vertrauen sieht sich Uneindeutigkeiten ausgesetzt, über neues Vertrauen wird in Einzelfällen entschieden. Wo altes Vertrauen überliefert ist, braucht neues Vertrauen Kontrolle. Demokratie ist in gewisser Weise institutionalisiertes Misstrauen, das durch Kontrolle und Konsequenzen Vertrauen schafft.

Kontrollmöglichkeiten sind heute vielfältig. Dieses Potenzial weckt Erwartungen, die nicht immer erfüllt werden können – manchmal ist Kontrolle nicht möglich, manchmal wird sie verweigert, manchmal deckt sie Schwächen auf. Auch das sind Quellen von Misstrauen. Neues Vertrauen ist volatiler und wird leichter enttäuscht. Altes Vertrauen dagegen ist per se heute oft nicht mehr vertrauenswürdig im neuen Sinn. Es mangelt an Kontrollmöglichkeiten. 

So weit, so verlockend. 

Ein großer Teil von Lobos Vertrauensanalysen beruht dann aber auf Polarisierungsdiagnosen, die schon deutlich detaillierter diskutiert werden. Auch die Analysen zu toxischer Wokeness und Cancel Culture werden anderso differenzierter geführt.

Das wahrhaft erstaunliche aber sind die skizzierten Lösungsvorschläge. Lobo zeigt sich zum Schluss optimistisch und setzt auf demokratische, vernetzende und transparenz- und kontrollförderliche Eigenschaften des Internet. Sogar sein Kernbeispiel für die Mobilisierung guter Kräfte im Netz, ushahidi.com, wurde von Clay Shirky in „Cognitive Surplus“ schon vor zwölf Jahren als ebensolches Beispiel vorgestllt (und auch hier besprochen).

Lobo sagt, was man immer schon vom Internet gesagt hat. Das könnte eine schön konsistente Position sein, würde man darauf hinweisen, in welchen Tradition die Idee steht. Lobo präsentiert die Idee allerdings ohne Bezug zur Vergangenheit. Das verwirrt, man macht sich auf die Suche nach dem Neuen – und findet es nicht.

Das macht misstrauisch. 

Und das macht schließlich auch skeptisch gegenüber der von Lobo als Ausweg aus der Vertrauenskrise vorgeschlagenen Idee des Maschinenvertrauens. Lobo plädiert für pragmatisches zweckorientiertes Vertrauen – pragmatisch im Sinn des alten Vertrauens – gegenüber Maschinen.

Da bin ich misstrauisch. Ich bin kein Technik-Pessimist und kann auch technischem Determinismus nicht viel abgewinnen. Einem pragmatischen Technik-Zugang, der experimentiert, testet, verwendet und verwirft, kann ich viel abgewinnen. Es ist notwendig, sich mit Technik auseinanderzusetzen und sich darauf einzulassen – aber Vertrauen kann allenfalls das Ergebnis eines souveränen Umgangs mit Technologie sein, Vertrauen kann nicht am Anfang stehen. 

Angemessener – in Anlehnung an Lobos eigene Kennzeichnung von Demokratie als institutionalisiertem Misstrauen – fände ich eine Idee von Maschinendemokratie anstelle von Maschinenvertrauen. Wer sich Technologie beschäftigt und zu verstehen versucht, kann sinnvoll mitreden. Wer das nicht tut, muss wohl oder über vertrauen. Das ist aber die schlechtere Wahl.

So wie Open Source Intelligence als Kontrollmöglichkeit weitaus mehr als simple Google-Recherche bedeutet, reicht Höflichkeit gegenüber Robotern nicht aus, um ihnen Vertrauen zu können. Das wäre eine einseitige Angelegenheit; ich wäre mit Vertrauen nicht so leichtfertig bei der Hand. 

In der Idee eines Maschinenvertrauens kann ich keinen sinnvollen Ausblick aus einer soliden Vertrauenskrise sehen.