Es wird ein Wahlkampfjahr. Man merkt das unter anderem daran, wie viele neue Glücksritter sich als Experten und künftige KandidatInnen zu platzieren versuchen. Es wird ein EU-Wahlkampfjahr – das verschärft die Situation insofern, als Glücksritter aller Arten herausgefordert sind, sich Themen zu widmen, denen sie nicht gewachsen sind. das wäre nicht schlimm – vielen auf europäischer oder internationaler Ebene zu verhandelnden Themen ist niemand allein gewachsen. Schlimm wird es aber dann, wenn Menschen in ihren Ambitionen so tun, als wären sie diesen Themen gewachsen und simple Handlungen, man kann es nicht Lösungen nennen, für komplexe Themen vorschlagen. Noch schlimmer ist das nur, wenn die handelnden Personen sich für differenziert, weitsichtig, populismuskritisch und zukunftsorientiert halten.
Technologie und Politik sind eine Glatteiskombination, auf der man nur schwer ein gutes Bild abgeben kann. Alle reden über Technologie, wenige haben Expertise oder Erfahrung. Technologie ist relevant, prägt viele Lebensbereiche und wird damit für alle zum Themen. Social, Data, KI – die Trendthemen der letzten Jahre haben einander überholt, bevor noch irgendwas ansatzweise geregelt gewesen wäre.
Der EU AI Act ist zwar fixiert, aber noch immer recht ungreifbar. Und in seiner gezielt technikfernen Risikoklassifikation sehr abstrakt, abstrakter als ein technikorientierter Spezialistenzugang sein könnte.
Der Digital Services Act (DSA) ist ein greifbareres Thema. Der DSA soll auf internationaler Ebene diverse Schattenseiten von Internet und Onlinemedien regeln und unter anderem vor Mobbing und Desinformation schützen.
Und damit sind wir beim Thema. Geht es um Wahlen, geht es um Demokratie, geht es um das Gute – dann geht es um den Ruf nach Verboten und Regulierung.
Es steht außer Frage, dass digitale Plattformen und Social Networks Probleme verursachen. Aber es ist eine bestürzende Themenverfehlung nach inhaltlicher Regulierung zu rufen und die Anwendung von Mediengesetzen, wie sie für Zeitungen, Onlinemedien oder Fernsehsender gelten, zu fordern.
Plattformen und Netzwerke erstellen keine Inhalte. Inhalte sind ihnen egal. Es würde nichts an der zugrundeliegenden Problematik ändern, wenn bestimmte Inhalte – sofern es dafür jemals eine sinnstiftende Klassifikation geben würde – entfernt würden. Manche Menschen könnten vielleicht, mit dem Gefühl, etwas erreicht zu haben, besser und selbstzufriedener schlafen. Aber es ist eine Diskussion, wie wir sie in Wien schon Ende der 90er Jahre geführt haben – etwas als Helene Partik-Pablé, damals FPÖ-Politikerin und Staatsanwältin, Hausdurchsuchungen bei einem Provider durchführte, weil jemand im Internet verbotene Bilder aus dem Internet über die Server des Providers angesehen hatte. Technik hat seither Lichtjahre an Entwicklungssprüngen zurückgelegt. Die Qualität technologiepolitischer Debatten eher nicht.
Manche Inhalte sind gefährlich und bedrohlich. Aber können sie moderiert werden, zumal wenn sie in Sprachen verhandelt werden, von denen die betroffenen Konzerne nicht einmal wussten, dass es sie gibt?
Überdies: Gesetze gelten. Probleme liegen in ihrer Anwendung, und darin, dass sie den Kern des Problems nicht treffen.
Es ist erschreckend, wie schnell Menschen nach Einschränkungen und Verboten rufen, ohne sich bewusst zu sein, dass sie damit Infrastrukturen fordern, die im Handumdrehen gegen selbst gerichtet werden können. Verbot von Verschlüsselungssoftware? Her mit dem gläsernen Menschen. Einschränkungen beim Einsatz von KI-Methoden? Dann rekonstruiert in Handarbeit, was andere automatisiert gefälscht haben. Kennzeichnungspflicht für technische Manipulationen? Muss dann auch angegeben werden, welcher Instagram-Filter verwendet wurde, welche Bildbearbeitungsapp, deren Namen man gar nicht mehr weiß? Oder welche Brennweite bei Fotos verwendet wurde? Weitwinkelobjektive machen schließlich große Nasen.
Sinnvollere und härtere Regulierungen als Inhaltskontrolle sollten an Transparenz ansetzen. Der Schatz und das Geheimnis von Plattformen und Social Networks sind nicht Inhalte und Redaktionen, es sind Daten, Machine Learning Modelle und andere Algorithmen. Jede Verpflichtung zur Transparenz auf dieser Ebene bietet viel mehr Möglichkeiten zum Risikomanagement als jeder Eingriff in Inhalte. Model Risk Management im Machine Learning ist ein sich etablierendes Feld – Modelle können daraufhin geprüft werden, welchen Schaden sie in welchem Umfeld anrichten können und wie sie zu bändigen sind. Intransparente Modelle funktionieren nach einiger Zeit nur noch als bloße Verstärker, die mehr vom gleichen hervorbringen, ohne verständlich zu sein – das macht es schwer, ihren Lauf zu verändern oder Regeln für sie zu etablieren.
Genau das sind aber sinnvolle Möglichkeiten.
Ein Beispiel: Die meisten Plattform-Modelle zielen darauf ab, Menschen länger online zu halten, indem ihnen Dinge gezeigt werden, die sie binden – egal was es ist. Man klickt oder wischt weiter und hat nach wenigen Minuten keinen Überblick mehr, wo man ist, wie man dorthin kam, wer gerade spricht und wie diese Information einzuschätzen ist. Intransparente Modelle machen hier einfach weiter. Transparente Modelle können angehalten werden, nach x dem Modell folgenden Inhalten das Muster zu brechen und etwa passende Hinweise anzuzeigen – oder Inhalte aus Medien, die Public Value Content produzieren.
Datentransparenz ist eine andere mögliche Regelung, die in Ansätzen auch bereits im EU Data Act angesprochen wird. Eine ausführlichere und tiefergreifende Idee dazu stellen Thomas Ramge und Viktor Mayer Schönberger in „Das Digital“ vor. Datenintensive Unternehmen könnten zu Datentransparenz verpflichtet werden – oder auch Teile ihrer Abgaben in Form von Daten leisten. In vielen Punkten sehen Ramge und Mayer-Schönberger in Daten zu aktive und mächtige Akteure, als Regulierungsansatz taugt diese Idee aber allemal.
Transparenz ist die wichtigste verletzliche Stelle von Tech-Konzernen. Einen weiteren Hinweis dafür liefert Open AI: Die vermeintlich Guten, die als transparente Alternative zu kommerziellen Problembären gestartet sind, verweigerten unlängst die Veröffentlichung versprochener Dokumente. Erstaunlicherweise sind es jetzt sogar chinesiche AI-Entwickler, die auf Transparenz setzen. Die chinesische 01.AI soll Metas Llama übertreffen – und setzt außerdem dazu an, vielleicht auch den Boden für Transparenz in China zu bereiten. Denn um besser zu werden, braucht das Modell mehr Information, so wie sie etwa in Open Data zu finden wären.
Alles Ansätze dazu, problematische Technologie zu verändern. Der Ruf nach inhaltlicher Regulierung wird demgegenüber genau wie das, was er ist: Eine Idee von vor 30 Jahren, die damals schon eine wenig erfolgreiche jahrhundertealte Geschichte hatte.