Mark Coeckelbergh, Why AI undermines democracy and what to do about it

Mark Coeckelbergh, Why AI undermines democracy and what to do about it

Künstliche Intelligenz zwingt dazu, scheinbar Selbstverständliches wieder infrage zu stellen und dessen Grundlagen zu suchen. Zum Beispiel: Was ist gemeinsames Gut, auf das wir uns alle einigen können?

Für einen Philosophen ist das Urteil überaus eindeutig – und vor allem kommt es schnell: Mark Coeckelbergh legt sich früh fest, Künstliche Intelligenz ist seines Erachtens schlecht für die Demokratie. In dieser Feststellung stecken gleich mehrere Urteile: Technologie ist also nicht grundlegend gut. Sie ist auch nicht neutral: Technologie ist kein offenes Instrument, dessen Konsequenzen und Potenziale erst in der Anwendung offenbar werden. Technologie bringt schon in ihren Grundzügen positive oder negative Tendenzen mit, sie kann aufgrund ihrer fundamentalen Prinzipien leichter oder weniger leicht missbraucht werden. Und Technologie steht in Wechselwirkung mit Sozialem und Kultur, Technologie beschleunigt, priorisiert, ist ein viel beachtetes Themengebiet voller Chancen und Risiken und daher ein wichtiger Faktor der Gegenwart.

Technologie ist also wichtig, aber warum ist Künstliche Intelligenz schlecht für die Demokratie? 

Coeckelberghs Argument setzt an der Bedeutung von öffentlichem Raum und öffentlicher Meinung an. Demokratisch ist, was in einem ausgewogenen Prozess nach Abwägung unterschiedlicher Meinungen, Prioritäten, Werte und Bedürfnisse entschieden wurde. Dieser Prozess sollte unbeeinflusst, frei und nach klaren Regeln stattfinden.

Genau das gefährdet künstliche Intelligenz. KI-vermittelte Prozesse sind intransparent, folgen Regeln, die nicht demokratischen Prinzipien folgen, räumen den Prioritäten jener, die besser mit Technologie umgehen können, unverhältnismäßig höheren Stellenwert ein und verfälschen so sowohl Prozess als auch Ergebnis.

Allerdings, räumt Coeckelbergh ein, hat es den idealtypischen demokratischen Prozess in seiner reinen Form noch nie gegeben. Demokratie ist eben auch nur real existierende Demokratie, die auch hinter ihren eigenen Idealen zurück ist. 

Künstliche Intelligenz könnte allerdings dabei helfen, demokratische Ideale zu verwirklichen. Coeckelberghs Vision dafür ist Demokratische Künstliche Intelligenz, also eine transparente, nachvollziehbare und weitgehend auch kontrollier- und gestaltbare Form von KI, ähnlich wie sie auch in den Grundzügen des EU AI Act beschrieben wird.

Das hat technische Implikationen. Können große LLMs, wie sie in Generative AI eingesetzt werden, diesen Anforderungen genügen? Können und kleinere und konkretere Modelle diesen Transparenzanforderungen gerecht werden? Ist es nicht im Gegenteil das Wesen von KI, sich zumindest teilweise diesen Ansprüchen auf Nachvollziehbarkeit und Kontrollierbarkeit zu entziehen? Oder ist genau diese Eigendynamik von KI eine Nebelgranate, die die Verantwortung von Technik verwässern soll?

Andere Implikationen sind sozialer Natur. Damit Meinungsbildung idealtypischen Vorgaben folgen kann, ist Bildung notwendig. Die politische Mär von Bildung als Allheilmittel predigt allerdings oft bloße Besserwisserei und unterscheidet sich damit nicht grundlegend vom Versuch, relevante Fragen über KI entscheiden zu lassen. Bildung und Besserwisserei – beide präsentieren Pointen und Anekdoten, denen häufig jene relevanten Informationen fehlen, anhand derer über Richtigkeit oder Sinnhaftigkeit entschieden werden kann. In der Politik, das kommt noch erschwerend hinzu, sind nicht nur Wahrheit, Richtigkeit oder SInnhaftigkeit relevante Kriterien. Alles steht und fällt mit Zustimmung. 

Zustimmung lässt sich weder mit Logik, Evidenz und andere Formen der Überstrapazierung von Wissenschaft und Rationalität, die über Fragestellungen entscheiden sollen, für die sie nicht geeignet sind, erreichen. Zustimmung ergibt sich in einer Phase öffentlicher Diskussion auf gemeinsamen Grundlagen, in der Gegenargumente respektiert, gewürdigt und abgelehnt werden können. Diese gemeinsamen Grundlagen sind durch KI in Gefahr, meint Coeckelbergh. Grund dafür sind nicht nur künstlich erzeugte Falschinformationen oder KI-vermittelte Argumente und Recherchen, die unreflektiert übernommen werden, sondern auch die mittlerweile üblichen Prozesse der Verbreitung und Bewertung von Information. Tempo, Lautstärke und Auffälligkeit sind wichtiger als inhaltliche Relevanz oder Richtigkeit und werden in der Verbreitung höher priorisiert. Aufmerksamkeitssurrogate wie Interaktionen sind deutlich effizienter für die schnelle Verbreitung als die Auseinandersetzung mit Inhalten, die die Verbreitung nur lähmt. Das schafft Scheinwelten weit weg von der Realität, über die eigentlich entschieden werden soll – aber sie gelten als maßgeblich für das, was zur Diskussion steht. – Fragen des guten Lebens werden in Influencer-Reels und in politischen Grundsatzprogrammen behandelt. Den einen liegen Abstimmungen, Machtfragen und Zielsetzungen zugrunde, den anderen intransparente eindimensionale Algorithmen. 

Wo gemeinsame Grundlagen der Diskussion fehlen, fehlt die Möglichkeit, nachvollziehbare Entscheidungen zu treffen, denen alle zustimmen können, auch wenn sie sie nicht teilen. Coeckelbergh sieht darin eine grundlegende Gefahr für Demokratie und Zusammenleben. Ein kurzer Hinweis auf Hannah Arendt verdeutlicht die Dimension des Problems: Arendt sah im Fehlen oder in der Verweigerung dieses gemeinsamen Rahmens die Grundlagen des Bösen. Erstaunlich pathetisch für die klassisch nüchterne Denkerin, in ihrer Argumentation aber sehr überzeugend und nachvollziehbar. 

Einen weiteren kritischen Punkt sieht Coeckelbergh in Meinungen und Meinungsfreiheit. Meinungen können schnell geäußert, publiziert und verbreitet werden, kaum eine Infrastruktur ist aber auf deren Diskussion ausgelegt. Meinungen sollen geäußert werden können – damit endet häufig die Relevanz, die ihnen beigemessen wird. Diskussion wird Zensur verwechselt, Kritik mit Cancel Culture – und beides kann aber nur vor dem Hintergrund gemeinsamer Grundlagen funktionieren. Diese müssen nicht gegeben sein. – Das Beharren auf Bildung und Gemeinsamkeiten kann in Elitarismus und konservativen Traditionalismus abdriften. Coeckelbergh ist sich dieser Fallen bewusst.

Wie soll dann demokratische KI funktionieren? Die gute Seite des immer offensichtlicher werdenden Problems, meint Coeckelbergh: Wir müssen uns neu mit gemeinsamen Werten, Grundlagen und Zielsetzungen beschäftigen. Vor einer Fülle von Möglichkeiten und einem einzelne Entscheidungen überdeckenden steigenden Tempo ist nichts mehr selbstverständlich. Das schafft Missverständnisse – und Gelegenheiten und Notwendigkeiten, Klarheit zu schaffen. Coecklbergh wünscht sich eine neue Renaissance: eine Zeit, in der viel mit Technologie experimentiert wurde, in der Technik vom Mysterium zu etwas Praktischem wurde und in der Traditionen und Denkgebäude über den Haufen geworfen wurden. Demokratisch ist KI, die solche Prozesse unterstützt, die hilft, Verbindungen herzustellen, die kontextualisieren und Gedankenexperimente durchführen kann.

Dennoch wird Technik allein keine demokratische KI schaffen können. Dazu, betont Coeckelbergh, sind demokratische Institutionen notwendig, die Nachdenklichkeit und soziotechnischem Experimentieren Raum geben. Das ist ein Programm. Offen bleibt ein wenig, an wen es sich richtet. Demokratische AI ist ein emanzipatorisches Programm – als solches bedeutet es für die, die jetzt die Spielregeln im Griff haben, Verzicht und Zurückhaltung, für die anderen anstrengend zu erarbeitendes Neuland. Das sind nicht die besten Startvoraussetzungen.

Michael Hafner

Michael Hafner

Technologiehistoriker, Comic-Verleger, Datenanalyst

Sonst noch neu

Christine Lagorio-Chafkin, We are the Nerds

Reddit ist seit dieser Woche börsenotiert. Die Reddit-Story erzählt, wie die Geschichte vieler Onlineplattformen der letzten 20 Jahre, wie Neugierde und Experimentierfreude Extremen und Radikalisierungen in alle Richtungen weichen müssen.

Ben Smith, Traffic

Die BuzzFeed-Story – eine Kulturgeschichte des Verhältnisses von Medien und Internet in den letzten zwanzig Jahren.

AI und Medien: Zurück in die Zukunft der kleinen LLMs

KI-Strategien der dritten und vierten Generation setzen zunehmend auf eigene, reduzierte und kontrollierbare Modelle. Wer auf generative Multi-Purpose-LLMs wie Chat GPT setzt, hat keine besonders ausgereifte KI-Strategie. Gerade in der Medienbranche ist das gut zu beobachten.

Meine Bücher