Douglas Rushkoff: Survival of the Richest

Tech-Milliardäre und andere Gallionsfiguren angkündigter digitaler Revolutionen sehnen sich in den Mutterleib zurück und bauen sich mit digitalen Räumen Simulationen dieser geschütztesten aller Umgebungen, in der ihnen nichts Böses widerfahren kann. Das ist eine der Thesen des bekennenden Marxisten Rushkoff in seiner Kritik digitaler Machbarkeitsphantasien. Ausgangspunkt seines Buchs ist eine Unterhaltung mit Milliardären, die Beratung beim Bau geschützter Umgebungen zum Überleben des “Ereignisses” suchten.

Das “Ereignis” kann eine fatale Pandemie, ein Nuklearkrieg oder sozialer Flächenbrand sein. Rushkoffs Kritik an der Frage: Selbsternannte Macher beschäftigen sich nicht mehr mit der Suche nach Lösungen (von Problemen, die oft ihre Innovationen geschaffen haben), sondern damit, wie sie drohenden Konsequenzen ausweichen können. Rushkoff nennt das das “Mindset”: Das Mindset beschreibt die Einstellung, Innovation und Disruption am Fließband produzieren und in Geschäftsgelegenheiten verwandeln zu wollen, technische Lösungen für alles zu suchen und Lösungen vor allem in der Erstellung neuer Produkte zu sehen. Das Mindset optimiert – dafür strukturiert es alles nach seinen Bedürfnissen und ignoriert, was nicht angepasst werden kann.

Der moderne Businesscase, beobachtet Rushkoff treffend, funktioniert wie eine streng nach dem Heldenreise-Schema gestrickte Erzählung mit Klimax und Katharsis. Übersteigerte und als essenziell dargestellte Probleme, die bislang niemandes Problem waren, werden zur Schicksalsfrage der Menschheit und schließlich einer überzeugenden Lösung zugeführt. TED Talks sind eine weitere Ausprägung dieser formalistischen Inszenierungen, in denen Inhalte recht beliebig ausgetauscht werden können. Religion und Leitprinzip dieser Inszenierungen ist vereinfachter Behaviorismus, der Menschen zu Reaktionsautomaten reduziert, die von der erweckten Businessperson gesteuert werden können.

Peter Thiels Ausführungen sind hier die prägendsten; wer Thiel nicht im Original lesen möchte, findet einen guten Überblick bei Adrian Daub.

Der technikorientierte und oberflächlich extrem rationale Schematismus zielt darauf ab, Abläufe als notwendig, effizient, sinnvoll und einem höheren Ziel folgend darzustellen. Die eigentliche Leistung dieses Konstrukts ist es aber, die real im Hintergrund stattfindende Arbeit unsichtbar zu machen. Rushkoff vergleicht das mit der Erfindung des Speiseaufzugs im Haus von Thomas Jefferson: Die Entlastung des Hauspersonals war der kleinste Schritt, die hatten schon viel geschleppt, bevor sie den Speiseaufzug befüllten. Der nahm ihnen nur das letzte Stockwerk ab und reduzierte den Personalbedarf im Speisezimmer bei den leichten Arbeiten.

Der vermeintliche hyperrationale Homo Oeconomicus ist schon länger als Chimäre in Verruf. Rein vernunftorientierte Ansätze, die die Hartnäckigkeit realweltlicher Probleme ignorieren, bieten eindimensionale Lösungen, die tatsächlich erst zu Lösungen erklärt werden müssen. Sonst käme niemand auf die Idee, sie als Lösungen zu betrachten. Die Eindimensionalität dieser Ideen findet sich auch in der Kritik der modernen Wissenschaftstheorie; am wenigsten unter Schwurbelverdacht (für Postmoderne-Phobiker) ist hier wohl David Bloor.

Der moderne Elite-Kapitalist ist ja durchaus für Alternativen offen und experimentiert mit Ayahuasca oder anderen Kaktus- und Krötengiften, um seinen Horizont zu erweitern. Rushkoff beschreibt einige nach Ayahuasca-Experiences entstandene Businesspläne und wundert sich zurecht, wie leer die innere Welt der Erleuchteten vorher gewesen sein muss, wenn sie diese Ideen nur unter psychedelischen Einflüssen entwickeln konnten.

Für die Innovativen, Techsmarten und Erfolgreichen sind diese Einwände kein Hindernis. Das zeigt alljährlich die erstaunliche Selbstzufriedenheit in Davos oder Alpbach: Die gleichen Menschen besprechen jedes Jahr die gleichen Themen, finden die gleichen Ideen gut, feiern produktive und inspirierende Gespräche – und treffen einander doch im nächsten Jahr bei großteils dem gleichen Stand der Dinge wieder, um einmal mehr das gleiche zu besprechen und die gleichen Ideen (die schon die letzten Jahre im Sand verlaufen sind) zu feiern.

Was als Philanthrokapitalismus begann (reiche Menschen wie Bill Gates setzen ihr Vermögen für ein paar gute Zwecke ein und versuchen, zumindest selbsterhaltende Geschäftsmodelle zu etablieren) ist zur Legitimation extraktiver Institutionen geworden: Eine dünne Tech- und Businesselite gibt “Lösungen” vor, die vermeintlich die Probleme der Welt lösen. Tatsächlich muss sich die Welt an diese Lösungen anpassen, damit überhaupt die zu lösenden Probleme existieren. Dann funktioniert auch das Geschäftsmodell der Tech-Elite. Extraktive Institutionen sind, wie Acemoglu und Robinson ausführen, ein wesentlicher Grund, warum Nationen und Organisationen scheitern.

Werden also technische Eliten Probleme lösen? Nein, sagt Rushkoff, sie haben sie eher verursacht und tragen durch ihre Lösungsansätze dazu bei, dass sie bestehen bleiben. Vielleicht wird ja auch KI, sofern sie eines Tages eigene Gedanken fasst, das Mindset ihrer Erfinder übernehmen und versuchen, sie wie das Bedienpersonal eines Speiseaufzugs unsichtbar zu machen.

Brendan Ballou: Plunder

Investmentbanken, früher der Gottseibeiuns des Heuschreckenkapitalismus, unterliegen seit der Finanzkrise von 2008 einigermaßen strengen Regeln. Damit sind die fragwürdigen Geschäfte, die Subprime Crash und Finanzkrise herbeigeführt haben, nicht verschwunden. Die Geschäfte macht jetzt nur jemnand anderer. Privates Kapital füllt die Lücke, die der Rückzug der Banken eröffnet hat. Private Equity, also Kapital, das abseits öffentlicher Börsen Unternehmensbeteiligungen sammelt, unterliegt wenigen Regeln, lebt vom Ausnutzen von Gesetzes- und Steuerschlupflöchern und vom Tempo. Unternehmen, an denen Private Equity-Konzerne Beteiligungen erworben haben, werden restrukturiert, oft in Franchisesysteme verwandelt, in Sell&Lease Back-Modelle gedrängt oder dazu gezwungen, Dienstleistungen oder Lieferungen von anderen zum gleichen Private Equity-Konzern gehörenden Unternehmen zu beziehen. Das verwandelt florierende Unternehmen schnell in Pleitekandidaten, das senkt die Servicequalität für Kunden und das begünstigt die Entstehung von Geschäftsmodellen, die auf leicht ausbeut- und erpressbare Kunden angewiesen sind. Nicht umsonst floriert das Private Equity Business stark in Pflegeeinrichtungen, in denen Personal reduziert wird, oder in Gefängnissen, in denen die Qualität der Ernährung herabgesetzt wird oder Insassen gezwungen werden, für simple Dienstleistungen wie Telefonanrufe horrende Preise zu bezahlen.

Brendan Ballou war auf Private Equity und Kartellrecht spezialisierter Staatsanwalt in den USA und auch in die Ermittlungen gegen die Kapitol-Stürmer involviert. Das ist leider auch schon das Spannendste an diesem Buch. „Plunder“ ist eine etwas uninspiriert dahinerzählte Sammlung von Aufregern, deren Menge eher abstumpft als sensibilisiert.

Aufregend sind die auf dem Spiel stehenden Beträge, die schnell in Milliardenhöhen schnellen und von Europa aus absurd fantastisch wirken. Das Buch schließt mit einer 30seitigen Aufzählung von Gesetzes- oder Steuerlücken, die geschlossen werden müssten, um Private Equity in geregelte Bahnen zu lenken. Im Kontext von zahlreichen anderen Regulierungsdebatten ist das eine richtungsweisende Sammlung, aber sie verliert sich ein wenig in der Vielfalt der behandelten Themen. Private Equity-Geschäftsmodelle sind ein Aspekt mehr, der für den Nutzen Weniger Nachteile für Viele bringt und nicht einmal ansatzweise Mehrwert stiftet. Das ist ein Muster, das heute oft zu beobachten ist und das teilweise astronomische Verschiebungen bewirkt. Ballous Erzählung bleibt aber blass, arbeitet keine Trends und Muster heraus – und stammt außerdem aus der Ära vor Trumps zweiter Präsidentschaft, die noch einmal alles über den Haufen wirft und nachteilige Entwicklungen beschleunigt. Sozial- und politkritische Bücher aus den USA altern zur Zeit besonders schnell.

Anu Bradford: Digital Empires

Das Internet ist nicht mehr global. Diverse Internetvarianten stehen einander gegenüber, bekämpfen einander teilweise, suchen mit verschiedenen Mitteln Vorherrschaft und Marktmacht und konkurrieren um Einfluss in noch unentschiedenen Märkten. Anu Bradford beschreibt, wie unterschiedliche Formen von Digitalpolitik in den USA, in China und in der EU unterschiedliche Prioritäten setzen. Ihre Schlussfolgerung ist geradezu versöhnlich: Europa werde sich durchsetzen, denn auch in den USA mache sich zunehmend Kritik am rein marktorientierten Governancemodell breit, die überbordende Macht der Techkonzerne werde kritisch betrachtet und es gebe mehr und mehr Bereitschaft, auch von den USA aus Technologie und Digitalmarkt in Regeln zu fassen.

Das Buch erschien 2023, bevor sich abzeichnete, dass eine zweite Trump-Präsidentschaft Realität werden könnte.

Der Sturm auf das Kapitol vom Jänner 2021 ist eines der Beispiele, das auch den USA die politische Macht und Gefahr digitaler Politik vor Augen geführt habe. Der Großteil der von Biden verabschiedeten Digitalregelungen ist schon wieder – im ersten Monat von Trumps Regierungszeit – außer Kraft gesetzt. Die von Bradford nur kurz als absurd gestreifte Option, die USA könnten sich auf die digitale Seite Chinas und damit Russlands stellen, ist dabei, Realität zu werden. 

Die Diagnose dieses Buches steht damit auf wackligen Beinen, die Analyse ist umso relevanter.

Bradford beschreibt das US-Internet-Governance-Modell als marktorientiertes und freiheitsbetontes, das staatliche Einmischung vermeide und Regeln als Innovationshürde betrachte.

Gegenpol dazu ist das chinesische Modell, das Staat und Partei an erster Stelle sieht, Innovation an staatliche Vorgaben und Programme bindet und massiv in Märkte und Geschäftsmodelle eingreift, um mögliche Fehlentwicklungen zu korrigieren.

Europa verfolgt ein rechtegetriebenes Modell, in dem Daten- und Konsumentenschutz im Vordergrund stehen. Damit kommen weniger eigene Innovationen in den Markt, aber Europa gibt vor, nach welchen Regeln Innovation in den Markt kommt. Denn solange Europa ein interessanter Markt für globale Unternehmen ist, sind diese bereit, Auflagen zu erfüllen.

Bradford nennt diese Dreiteilung die horizontale Seite des Kampfs um digitale Vorherrschaft. Dazu kommt die vertikale Dimension, in der einander Staaten, Unternehmen und Zivilgesellschaft gegenüberstehen.

Das freiheitsorientierte Digitalmodell der USA basiert teilweise auf veralteten Voraussetzungen. Die Section 230-Regel, die Betreiber digitale Dienste weitestgehend von der Verantwortung für Inhalte freispricht, stammt aus den Neunziger Jahren. Damals waren Dienstebetreiber vorrangig Provider, die Server und Leitungen zur Verfügung stellten und tatsächlich nichts mit Inhalten zu tun hatten. Das hat sich deutlich verändert. Eine andere Schwäche des digitalen Freiheitsgedankens: Die USA halten sich selbst nicht daran. Aufgedeckte Überwachungs- und Spionagefälle zeichnen ein anderes Bild als das des vom Staat unberührten Internet. Und um kritische Märkte zu erschließen, werden die Freiheitsprinzipien ebenfalls flexibel gehandhabt. Apple macht 20 Prozent seines globalen Umsatzes in China, hat dazu eine eigene, kontrollierte Appstore-Instanz ins Leben gerufen und lagert die Daten chinesischer Nutzer in einem chinesischen Datawarehouse, dess Betreiber im Zugriff der chinesichen Regierung steht. Microsoft hat noch vor dem Ausbruch des Ukraine-Krieges russische Cyberattacken auf ukrainische Behörden-Netzwerke registriert und Regierungen informiert. Die USA treffen damit auf öfters auf Kritik. Ein Kritikpunkt betrifft Scheinheiligkeit und Glaubwürdigkeit, ein andere die Skepsis von Staat gegenüber digitalen Freiheit.

Beides spielt letztlich dem chinesischen Modell in die Hände. Autokraten aller Größenordnungen in Europa, Afrika und Asien sind gegenüber Möglichkeiten, das Internet strikt zu regulieren, durchaus aufgeschlossen. Wo Staatsinteressen im Vordergrund stehen, sollen Einzelinteressen kontrolliert und zurückgedrängt werden können. China bietet dafür Infrastruktur, Überwachungstechnologie und Governancemodelle, die auch die stärksten Unternehmen klein halten. Die Kommunistische Partei verhängt Milliardenstrafen gegen börsenotierte Konzerne, ordnet Merger oder Aufteilungen an und verbietet chinesischen Konzernen Börsegänge in den USA, wenn dafür Daten offengelegt werden müssten. Alibaba-Gründer Jack Ma ist Parteimitglied. Soziale Harmonie ist die Keule, mit der Abweichungen wieder eingefangen und notfalls eingestampft werden. Der Sturm auf das US Kapitol im Jänner 2021 sei in chinesischen Medien ein Paradebeispiel dafür, was passiere, wenn digitale Medien nicht im Sinne der Gemeinschaft kontrolliert würden. Zensur und Medienkontrolle funktioniert sehr gut – vor allem auch, weil Jahrzehnte von Zensur und kontrollierten Medien dazu geführt haben, dass Menschen den Umgang mit Medien und Information verlernt haben. China gibt strenge Regeln vor, sperrt andere aus dem chinesischen Markt aus, drängt selbst aber sehr aktiv auf andere Märkte.

Bei der Einschätzung der Capitol Riots treffen einander China und Europa, allerdings von verschiedenen Seiten. In Europa stehen Bürgerrechte im Vordergrund, nicht der Staat. Das prägt die Digitalgesetzgebung – und das bringt Europa den Ruf ein, Innovation durch Regeln abzuwürgen. Diesen Einwand betrachtet Bradford allerdings skeptisch. Auch vor der DSGVO, der ersten großen und tiefgreifenden Digitalregelung, sei wenig erfolgreiche Innovation aus Europa gekommen. Relevanter seien Probleme wie Sprachbarrieren, fehlende Regelungen für einen einheitlichen Binnenmarkt und der Umgang mit unternehmerischem oder finanziellem Risiko. Überdies seit die EU-Verwaltung, die nur ein Prozent des EU-BIP ausmache, deutlich kleiner dimensioniert als die US-Verwaltung, die 20 Prozent des US-BIP verschlinge. Europäische Regulierung wird als innovationsbremsend, protektionistisch und revanchistisch gegen erfolgreiche US-Konzerne kritisiert. Allerdings verfolgen europäische Regulierungen auch marktverzerrende Förderungen – und richten sich damit auch gegen staatliche Einflussnahme auf den Digitalmarkt.

Was Europa laut Bradfords Analyse zugutekommen kann, ist ein stärker aufkeimendes Bewusstsein um die Relevanz digitaler Souveränität. Die USA verfolgen dieses Ziel mit Macht- und geldorientiertem Imperialismus, China setzt auf Infrastrukturimperialismus, die EU hält mit Regulierungsimperialismus dagegen. Nur letzterer steht allen Staaten offen. Bradford bezeichnet es als Brussels Effect, wenn sich auch Staaten und Unternehmen, die das gar nicht müssten, an EU-Prinizipien orientieren. Das geschieht einerseits aus politischen Gründen, um demokratische Einflussnahme zu sichern, andererseits aus wirtschaftlichen: Wenn Unternehmen strenge EU-Auflagen erfüllen, um in der EU operieren zu dürfen, wenden sie diese Grundsätze überall an, weil das oft effizienter ist, als unterschiedliche Standards und Regelsysteme zu verwalten. Damit gewinnt insgesamt Europa wieder ein wenig Oberhand – zumindest so lange, wie sich US-Konzerne nicht ausdrücklich gegen die EU stellen.  Letzteres zeichnet sich gerade ab.

China betreibt neben seinem Infrastrukturimperialismus, der als neue Digitale Seidenstraße Technologie, Infrastruktur, chinesische Standards, in Hard- und Software verbaute chinesische Grundsätze und chinesische Überwachungstechnologie exportiert, noch eine zweite Strategie. Es ist großteils Folge chinesischer Initiative, dass Digitalthemen in den letzten Jahren jetzt auch stärker auf UN-Ebene verhandelt und reguliert werden. Das entzieht die Digitalgesetzgebung ein Stück weit dem Einfluss von EU und USA, das erhöht staatlichen Einfluss dort, wo bislang zivilgesellschaftlich verwaltet wurde, und das schafft eine neue Bühne, auf der Staaten auf eine multipolare Welt pochen können, die nicht nur vom Westen geprägt werden soll, auf der man sich Einmischung in innere Angelegenheiten verbitten kann und die Platz für flexible Interpretationen von Menschenrechten bietet. Letzteres ist eine beliebte Diskursstrategie von Autokraten. Russland gefällt das. Und die Entscheidungen zu UN Global Digital Compact und UN Cybercrime Convention dokumentieren das.

Diese schleichend autoritäre Tendenz in UN-Digitalpolitik, das Kippen der USA und der großen US-Techkonzerne, die Annäherungen zwischen den USA und Russland, der Erfolgslauf chinesischer Technologie und die Schwäche Europas gegenüber anderen Weltregionen säen Zweifel an Bradfords Europa-optimistischer Diagnose. Und selbst wenn sich Europa durchsetzt, wenn der Regulierungs- und Bürgerrechtsgedanke siegt: Was kann man sich darum kaufen? In welche reale Macht lässt sich das ummünzen? Wie verleiht das Stärke?

Vielleicht sind das auch genau die falschen Fragen: Weisen solche Fragen darauf hin, dass Fragesteller bereits den Wert von Freiheit und Privatsphäre für alle über Bord geworfen haben und sich stattdessen mit der Vorstellung von Macht für wenige anfreunden. 

Anne Applebaum, Die Achse der Autokraten

Ein Autokrat kommt nicht allein. Annäherungsversuche und Handelsbeziehungen haben aus einst ärmlichen Staaten, deren Drohgebärden wenig Realität enthielten, mächtige Gegner gemacht. Und mittlerweile sind viele Autokratien stark und selbstbewusst genug, einander auch gegenseitig zu stützen. Embargos gegen international geächtete Staaten wirken heute kaum noch – denn diese finden problemlos neue Handelspartner, neue Märkte und andere Freunde. Auch die sehr breit unterstützten Embargos gegen Russland zeigen aktuell erst recht langsam Wirkung. 

Applebaum beschreibt, wie Netzwerke autokratisch regierter Staaten im Großen ähnlich gut funktionieren wie Pfuschernetzwerke im Kleinen: Man braucht fast nichts mehr von den anderen, alle Bedürfnisse können auf der eigenen, dunklen Seite der Macht gedeckt werden.

Ein zweiter relevanter Aspekt in Applebaums Buch ist die Möglichkeit neuer Erzählungen. Moderne Autokratische Staaten sind nicht mehr in Opposition gegen den Westen (oder Norden, oder Kapitalismus). Sie erzählen eigene Geschichten von Diversität, Multilateralismus und Multipolarität. Und sie stellen sich selbstbewusst gegen „Einmischung in innere Angelegenheiten unter dem Vorwand von Demokratie und Menschenrechten“. Diese Floskel ist wörtlich häufig in digitalpolitischen Diskussionen zu hören. Mit der – von Russland dominierten – UN Cybercrime Convention haben sich autoritäre Staaten eine Grundlage geschaffen, solche „Einmischungen“ abwehren und auch verfolgen zu müssen. Unterzeichner dieser Convention (auch Österreich will unterzeichnen) müssten ihnen dabei helfen, diese Einmischer, also beispielsweise NGOs oder Dissidenten im Exil, zu verfolgen. In seiner Zustimmung zum UN Global Digital Compact legt China eine eigenartige Interpretation von Menschenrechten an den Tag und verwehrt sich ebenfalls gegen „Einmischung“. Das wichtigste Menschenrecht sei das Recht auf Wirtschaftswachstum.

Multipolarität, eigene Interpretationen von Menschenrechten, Nichteinmischung – mit diesen Schlagworten punkten Autokratien auch bei afrikanischen und südamerikanischen Staaten, die gar nicht grundsätzlich autokratische Tendenzen haben, für die das Begriffsgemisch aber eine willkommene Grundlage zur selbstbewussten Distanzierung von Westen und Norden bietet.

Diese neuen Erzählungen tragen zu Misstrauen und neuen Streitthemen bei. Sie sind auch Kern der zeitgemäßen autokratischen Taktik gegenüber Opposition und Dissidenten. Diskreditierung und Rufmord sind effizienter als Gewalt, Folter und Mord, die am Ende neue Märtyrer schaffen. 

Diese Kombination aus Misstrauen, Medienmanipulation und Uminterpretation von Menschenrechten und demokratischen Grundsätzen ist der eigentliche Sprengstoff, den der Aufstieg von Autokratien birgt. Deren neue Erzählungen sind erfolgreich – und in einer zunehmend kaputten Medien-, Politik- und Kulturwelt kennt bald kaum noch jemand jener, die mit diesen autokratischen Erzählungen aufwachsen, deren Grundlage. Menschenrechte, Liberalismus und Freiheit werden so zunehmend zu Zerrbildern – durch jene, die sie ungeschickt verteidigen fast ebenso wie durch jene, die sie attackieren.  

Daron Acemoglu, James Robinson: Warum Nationen scheitern

Es ist erstaunlich, wie schnell manche Bücher altern, ohne deswegen zwingend an Gültigkeit zu verlieren. „Warum Nationen scheitern“ erschien im Original 2012, auf Deutsch 2013. Die Krim war noch nicht besetzt, die Ukraine war noch nicht überfallen, China und Indien boomten – das sind nur einige Aspekte, die sich in den vergangenen Jahren drastisch verändert haben.

Acemoglu und Robinson entwickeln eine Theorie zur Entstehung von Wohlstand und Armut, die sich nicht an geographischen oder kulturellen Unterschieden oder an mentalitätspezifischen Vorurteilen orientiert. Einfach zusammengefasst: Institutionen, die Macht kontrollieren und beschränken, Beteiligung zulassen, Kontrolle ausüben und durchsetzen können, sind förderlich für die Entwicklung eines günstigen Gesellschafts- und WIrtschaftsumfelds. Sie bezeichnen das als inklusive Institutionen. Das Gegenstück sind extraktive Institutionen, die an Abschöpfung orientiert sind, sich der Kontrolle entziehen und so nur einer kleinen Schicht jener, die schon Macht haben, Macht und Wohlstand ermöglichen. Grundlage für inklusive Institutionen ist in der Regel ein zentralisiertes Staatswesen, das Regeln entwickeln und durchsetzen kann. 

Verschiedene Faktoren begünstigen oder behindern diese Entwicklung. Systeme des Kolonialismus sind in alle Regel extraktiv und verstärken bereits vorhandene extraktive Institutionen – die Folgen sind korrupte Staatsgebilde, die vor allem bis in die 80er und 90er Jahre in Afrika und Lateinamerika besonders ausgeprägt waren. 

Unterschiedliche Effekte hatte etwa die Pest des Spätmittelalters in Europa. Die enormen Todeszahlen und die dezimierte Bevölkerung sorgte in Westeuropa für Risse im rigiden Feudalsystem – es war nicht mehr selbstverständlich, dass überall Menschen verfügbar waren, die zur Arbeit gezwungen werden konnten und die keine Wahl hatten. Menschen hatten zumindest beschränkte Wahlmöglichkeiten. In Osteuropa schlug die Entwicklung in die entgegengesetzte Richtung aus. Die neuerdings knappe Ressource Mensch wurde strenger kontrolliert, Leibeigenschaft, vor allem in Polen wurde noch deutlich strenger. 

Digitalwirtschaft und Digitalpolitik tragen heute auch, bemerken mehrere Autoren, Züge von Feudalherrschaft: Viele arbeiten ohne Entlohnung (indem sie Inhalte und Nutzungsdaten generieren), wenige kassieren. Die Nutzung ist rückläufig – wird auch hier in absehbarer Zeit die Entwicklung in die andere Richtung ausschlagen, sodass Plattformen sich wieder darum bemühen müssen, User zu bekommen? Was wird die Rolle der Pest übernehmen?

Andere Faktoren, die inklusive Institutionen ausbremsen, sind beispielsweise scheinbare Freiheiten. Acemoglu und Robinson führen die Robber Barons in den USA des 19. Jahrhunderts an – Vanderbilt, Morgan oder Rockefeller bauten schnell Monopole auf, die ihnen nützlich waren, der Entwicklung ihrer Branche aber nicht.

Auch das ist eine Entwicklung, die sich heute sehr deutlich am Beispiel des digitalen Kapitalismus nachvollziehen lässt. Die Dominanz von Plattformen steht in Wechselwirkung zu Alles-oder-nichts-Märkten, auf denen kein Platz für zweite oder dritte ist. Den Nachteil der so entstehenden Monopole für Innovation und Kunden haben beispielsweise Viktor Mayer-Schönberger und Thomas Ramge beschrieben.

Ein öfters missverstandener Aspekt in der Theorie von Acemoglu und Robinson ist das Verhältnis von inklusiven Institutionen und Freiheit. Freiheit per se spielt hier eine untergeordnete Rolle. Beteiligung ist relevanter – und die Möglichkeit, Grenzen zu bestimmen und durchzusetzen. Theoriefixierte Papier-Liberale übersehen das oft und gern und lesen die Theorie als eindimensionales Plädoyer für den Wegfall von Einschränkungen. Das ist ein Missverständnis.

Möglich ist, dass mit dem Wissen um dieses Missverständnis die Theorie von Acemoglu und Robinson auch als Inspiration zu Digitalgesetzgebung herangezogen werden kann. Digitalwirtschaft hat sich, zumindest im Umfeld der großen Plattformen, in den vergangenen Jahren zu einer extraktiven Institution entwickelt: Macht und Einkommen sind auf wenige verteilt, für Neue ist es schwer, Fuß zu fassen, das Wachtstums-Geschäftsmodell hat seinen Höhepunkt schon überschritten, problematische Auswirkungen werden sichtbar. Wie kommt man von hier wieder in ein inklusiveres Umfeld, so wie es die früheren Jahre des digitalen Kapitalismus versprochen haben?

Geht es nach Acemoglu und Robinson, dann braucht es dazu eine zentralisierte Macht, die Regeln gestalten und durchsetzen kann.

Die übliche Reaktion auf Ansätze zu solchen Überlegungen war, sie schnell vom Tisch zu wischen – das Netz ist global und es gibt nun mal keine globale Macht. Der erste Teil dieses Satzes stimmt allerdings nicht. Anu Bradford zeigt in „Digital Empires“ (mehr dazu in aller Kürze hier und bald ausführlicher auf diesem Kanal), dass es längst schon drei oder vier verschiedene Internetbereiche gibt. Das Netz in China hat wenig mit dem in den USA zu tun und auch in Europa entwickeln sich eigene Ausprägungen, in Russland ohnehin. Heute stehen einander mehrere konkurrierende Netzmodelle gegenüber. Politik hat die Möglichkeit, die Grundlagen dafür zu schaffen, dass sich die eine oder andere Variante durchsetzt. Der Weg dorthin ist nicht vorgezeichnet und es ist auch überhaupt nicht klar, dass das funktionieren wird. Es ist nur absehbar, dass die aktuelle Entwicklung nur wenigen Menschen nützt. Ob das ein Problem ist oder vielleicht doch wünschenswert, das ist eine politische Entscheidung. Politik sollte allerdings die eigenen Grundlagen schaffen, um hier handlungsfähig zu bleiben.

Dazu gehören vor allem Kontrolle über die Infrastruktur als Mittel, Regeln auch durchsetzen zu können. 

Alternativen zu den lähmenden Winner Takes it All-Modellen, die den Digitalmarkt aktuell plattgemacht haben, könnten neue inklusive Institutionen unserer Zeit sein. 

Alexej Navalny, Patriot

Ein Populist zieht ins Weiße Haus ein, entpuppt sich als Faschist und stürzt die USA ins Chaos. Nächstes Jahr, pünktlich zu Trumps zweiter Amtseinführung, wird Sinclair Lewis‘ Roman „Das ist bei uns nicht möglich“, 90 Jahre alt. Bemerkenswert ist weniger, dass dieses Buch als Blaupause für eine politische Diagnose der Gegenwart gelesen werden kann – die Schattenseiten politischer Systeme sind seit den römischen Kaisern und vermutlich noch länger (dann aber weniger gut dokumentiert) ziemlich unverändert. Bemerkenswert ist, dass Lewis in den USA 1934 anhand der Berichte seiner Frau, die als Journalistin Deutschland bereiste, ein recht präzises Bild faschistischer Machtübernahme inklusive SA-Schlägertrupps, Schutzhaft und Konzentrationslagern zeichnen konnte. 

Literatur ist manchmal präziser als die Realität. Alexej Navalnys Autobiografie “Patriot” bewegt sich zwischen präziser Dokumentation und politischer Vision. Navalny erzählt seine Geschichte, beschreibt seine Anliegen, die Reaktion des russischen Staates, ein schnell eskalierendes Katz-und-Maus-Spiel, das überraschend schnell auf die Frage zugespitzt wird, ob Navalny sein Leben für seine Politik riskieren soll. Ihm blieb keine Möglichkeit, über diese Frage selbst zu entscheiden. Ein mörderischer Machtapparat hat von Navalnys Entscheidung weg, nach Russland zurückzukehren, seinen Tod vorbereitet und dabei schon mit Details wie der Umleitung des Flugzeugs auf einen kleineren Flughafen außerhalb Moskaus darauf geachtet, über möglichst viele Aspekte die Kontrolle zu behalten. 

Mit der Verhaftung kippt Navalnys Erzählung von einer Autobiografie in ein verschiedenen Zwängen unterworfenes Gefängnistagebuch. Er beschreibt Krankheiten, Hungerstreik, erholt sich wieder, wird verlegt, unter verschärften Bedingungen weggesperrt, weiter von der Außenwelt isoliert, ist eigentlich guter Dinge – dann endet der Text. Navalny starb. Seinen letzten Tagebucheinträgen nach eher unerwartet. Die allerletzten Einträge konnten vermutlich nicht mehr aus dem Gefängnis gebracht werden. 

Im Gegensatz zu Sinclair Lewis‘ Phantasie-Diktatur ist die russische Diktatur stabil. Bei Lewis stürzen Palastintrigen den Diktator, die nächste Generation folgt, die Herrschaft endet nicht, aber der Widerstand fasst neuen Mut. In Navalnys Russland fehlen diese Lichtblicke. Reichtum sichert Macht ab, diese schafft weiteren Reichtum. Navalny tritt gegen Lügen auf, die sich seit der Sowjetzeit wenig verändert haben („Uns geht es gut“) und setzt die Wahrheit seiner Inhaftierung, seines Sterbens dagegen. Wäre er nicht aus dem deutschen Exil nach seiner Vergiftung nach Russland zurückgekehrt, wie könnte er dann glaubhaft behaupten, dass er Veränderung in Russland für möglich halte? Diesen Gedanken wiederholt er mehrfach. 

J.D. Vance beschreibt in “Hillbilly Elegy” eine Kindheit, die in den Grundzügen jener aus Annie Ernaux‘ „Scham“ ähnelt. Drogen, Alkohol und Gewalt zuhause, das Gefühl von Unzulänglichkeiten, jugendliche Planlosigkeit. Letzteres sind Elemente einer relativ normalen Jugend. Vance betont Zusammenhänge zwischen schwindender Leistungsbereitschaft, planlosen Konsum-Ersatzhandlungen, die auch bei guten Einkommen zu Armut führen und Unsicherheit. Gleichzeitig beschreibt er seinen Weg aus dieser Misere an eine Elite-Uni; er schreibt sein Buch nach einigen Jahren als Anwalt einer multinationalen Kanzlei. Bei seinem Erscheinen 2016 wurde Hillbilly Elegy als kritische Diagnose von Trump-Triumph und Brexit gelesen, heute ist Vance Trumps Vizepräsident.

Mich macht das Buch etwas ratlos. Drogenabhängige Eltern sind schlecht für Karriere und Lebensperspektiven, keine Frage. Wer nicht in die Fußstapfen seiner Eltern tritt, sieht sich vielen ungeahnten Fragen gegenüber, geschenkt. Die Versuchung, aufzugeben ist groß, Faulheit, Selbstzufriedenheit, Bescheidenheit, Ruhe und Resignation sind manchmal schwer zu unterscheiden. 

Unzufriedene Menschen mit wenig Perspektive werden leicht zu politischen Irrgängern gegen ihre eigenen Interessen – diese Diagnose überrascht mich bei Vance ebenso wenig wie bei Didier Eribons Rückkehr nach Reims. Anders als Eribon ist Vance allerdings kein französischer Intellektueller, als amerikanischem Juristen stehen ihm Perspektiven offen, die es in anderen Teilen der Welt schlicht nicht gibt. Elite-Unis, an denen Lehrende relevante Karriere- und Entwicklungsratschläge geben, an denen Headhunter Studierende vom ersten Studienjahr an casten und deren Abschlüsse im Jobmarkt einen echten Unterschied gegenüber Abschlüssen anderer Unis machen – in Kleinstaaten wie Österreich ist das eher unüblich. 

Vance Geschichte zeigt aber, welche Dynamiken sich in Gang setzen lassen. Wenn man rechtzeitig den notwendigen Ehrgeiz und die Bereitschaft, mitzuspielen, entwickelt. 

Formal betrachtet unterscheiden sich Vance Schilderungen seiner Kindheit streckenweise kaum von der Kindheit, die Annie Ernaux in „La Honte“ beschreibt. Schlechter Umgang mit Geld, Unsicherheit über die eigene soziale Rolle und Position, Gewalt gegen Frauen, Alkohol, Drogen – letztlich das normale Leben, dem junge Menschen ausgesetzt sind, die sich noch nicht entschlossen haben, wo sie sich anschließen. Vance hatte die Chance auf eine sichere und weitgehend selbstbestimmte Karriere, auch ohne Bestseller und Politik wäre er heute gut verdienender Jurist. Ernaux beschreibt dagegen Scham als prägendes Gefühl ihrer eigenen Herkunft gegenüber. Man darf dabei auch fragen, ob das, aus der Tastatur einer sehr erfolgreichen Autorin, etwas kokett ist. Ähnliches kann man natürlich auch bei Vance fragen, denn die Armut seiner Protagonisten ist oft ein schlichtes Konsumproblem. Wer will, kann darin von Ausbeutung lesen, wer es anders lesen will, liest hier vom Konsum der Ausgebeuteten als stärkstem Motor der Ausbeutung. 

Vances und Ernauxs Bücher sind alte Texte. Sie beschreiben Vergangenheit und Utopien, sie handeln von einer Zeit, in der Dinge besser wurden. Sinclair Lewis’ Text lebt von zeitloser Scheinaktualität, in der sich dankbar viele vermeintliche Gegenwarts- und Zukunftsbezüge finden lassen. Navalnys Text ist dokumentarisch, und er ist in all der realen Trostlosigkeit, die sich hinter der fröhlichen Sprache und dem Mut nicht verstecken kann, der eigentlich relevante Text unserer Zeit. Es wäre auch zu kurz gegriffen, „Patriot“ nur als russische Geschichte zu lesen, sich – mit Lewis’ Titel – zu denken: „Das ist bei uns nicht möglich“. Der Streit um das Sagbare wird uns auch in Europa in den nächsten Jahren beschäftigen, unter der Flagge der wenig wahrheitsorientierten Rede- und Meinungsfreiheit werden politische Problemdiagnosen zurückgedrängt. Ein Konzert von vorgeblich kritischen Zustimmern übertönt Dissens und Dissidenz, leere Floskeln von Freiheit (egal ob von Rassisten, Impfschwurblern oder papieren-libertären “Ökonomen”) formen die Marschmusik, die vielleicht nicht gleich in Straflager führt, aber es normal erscheinen lässt, wenn Politiker von Fahndungslisten und Säuberungen schwadronieren und ihre Macht auf Lüge aufbauen. Letzteres haben Putin, Trump, AfD und FPÖ gemeinsam. 

Über Navalnys Buch wird schon wieder, so kurz nach seinem Erscheinen, viel zu wenig geredet.  

Oswald Wiener, Probleme der Künstlichen Intelligenz

Die Rede von Intelligenz ist der Fehler in der Diskussion künstlicher Intelligenz, meint Oswald Wiener. Die Suche nach Intelligenz in Rechenprozessen wirft Fragen auf, deren Grundbegriffe selbst noch stets viel Interpretationsspielraum aufweisen und deren wesentliche Merkmale zu unbestimmt sind, um klar diskutiert werden zu können. Das betrifft die Frage nach dem Wesen künstlicher Intelligenz, nach Fortschritten auf diesem Gebiet und nach der Bedeutung solcher Fortschritte. 

Wiener beschäftigt sich stattdessen mit mechanistischen Fragestellungen nach der Entstehung von Gedanken, geistigen Abbildern und Vorstellungen. Diese scheinen ihm die relevanten Merkmale des menschlichen Geistes zu sein, die ein Algorithmus aufweisen müsste, um Spuren von Intelligenz für sich in Anspruch nehmen zu können. 

Gleich zu Beginn dieses Textes – es ist eine Kompilation aus Vorträgen von Anfang der 90er Jahre – verwehrt sich Wiener gegen Behaviorismus als adäquate Beschreibungstechnik menschlichen Verhaltens. Behaviorismus, der heute durchaus wieder Auferstehung feiert, reduziert menschliches Verhalten auf ein Reiz-Reaktions-Schema, in dem die Gründe für Reaktionen recht egal sind. Das ist ein leichter Weg zu einfach quantifizierten Theorien darüber, wie sich menschliches Verhalten steuern lässt. Für Wiener wäre so ein Zugang allenfalls für Marsmenschen (die keinen Zugang zu menschlichen Überlegungen haben) oder für Beamten (denen oberflächlicher Formalismus zur regelgesteuerten Entscheidungsfindung ausreicht) zulässig. 

Wiener betont stattdessen die Relevanz von Selbstbeobachtung und der Zusammenhänge von Wahrnehmung, Vorstellung und Begriffsbildung. Geistige Prozesse müssen verstanden werden – implizit ist das eine Voraussetzung, um sie nachbauen zu können. Wiener und seine Zeitgenossen hatten damals – vor 35 Jahren – eine scheint es deutlich aktivere KI vor Augen, als wir sie heute erreicht haben. 

Wiener beschreibt geistige Prozesse und Begriffsbildung in der Sprache der Automatentheorie der theoretischen Informatik. Hier gibt es Eingaben, es werden Zeichenketten gebildet, verschiedene Zeichenketten aus unterschiedlichen Automaten können sich aneinanderreihen und werden in die Welt zurückgeschrieben. Solche Prozesse schaffen Neues und sie sind Bestandteil ihrer Umwelt. Automaten können nicht getrennt von ihrer Umwelt beschrieben werden und sie gestalten ihre Umwelt. Die Merkmale eines Gegenstands, meint Wiener, sind nicht nur Merkmale des Wahrgenommenen, sondern auch der Maschine, die die Wahrnehmung und das durch sie entstandene Abbild produziert hat. 

Hier treffen einander Heisenbergs Diagnose der fehlenden Abgrenzung von Beobachter, Theorie und Welt, Datenmodelle, die Repräsentation durch Relation ersetzen und Konstruktivismus. Wiener selbst erwähnt nichts davon, er erwähnt allenfalls Strukturen. Wiener ist allerdings kein Strukturalist, der bestehende Strukturen oder deren Wirkung als Grundlage der Realität ansieht. Dazu ist seine Auffassung vom Verhältnis von Geist und Umfeld zu dynamisch; beide bedingen und gestalten einander. 

Sinnesorgane, die Wahrnehmungen liefern und so Automaten in Gang setzen, sind für den Automaten teil der Außenwelt, für die Außenwelt Teil des Automaten, können als passive Rezeptoren gesehen werden oder als prägende Gestalter, denen entscheidende Rolle dabei zukommt, was in welcher Form mit welcher Relevanz weitergegeben wird. Schön ist in diesem Zusammenhang die Formulierung von Sinnesorganen als epistemischer Panzer: Strenger als Theorie bestimmen Sinnesorgane über Wahrnehmung und deren Einordnung. 

Relevante Bestandteile dieser Prozesse vermisst Wiener in KI. In aktueller real existierender KI müsste er wohl noch mehr davon vermissen. GPTs bilde zwar auch Zeichenketten, aber nicht nach eigenen Regeln oder mit einem Ziel, sondern nach wie vor eher über die einfache Technik der n-Grams: Chat GPT „denkt“, indem es Zeichenwahrscheinlichkeiten berechnet. Je höher der N-Wert ist, also die Menge der Zeichen, die gleichzeitig berücksichtigt werden, desto näher rücken die Ergebnisse dieser vermeintlichen Denkprozesse an menschliche Sprache. Kreative Intelligenz dagegen fasse solche trivialen Maschinen und Abläufe zu neuen Klassen und Verfahren zusammen. Ablaufende Zeichenketten, Algorithmen und Automaten sind also nur Zutaten, derer sich Intelligenz bedient, um intelligent zu sein. Die Illusion der Intelligenz von Maschinen entstehe vielmehr durch unangebrachte Analogien und Versuche, die Rechenleistung von Maschinen nachzuvollziehen, also durch die Vermenschlichung von Maschinen. 

Wiener verwendet auch bereits – 1990 – den Begriff der Halluzination. „Halluzinierte Übergänge“ sind Entscheidungen der Maschine, die Logik oder Algorithmen überspringen, es sind Fehlentscheidungen, die von Beobachtern als Indizien für Intelligenz interpretiert werden. 

Intelligenz dagegen müsse gezielt solche neuen Verfahren anwenden oder neue Mechanismen erzeugen, um ihrer eigenen Theorie gerecht zu werden. Wiener stellt aber auch selbst die Frage, ob menschliches Denken das für sich in Anspruch nehmen kann, oder ob auch der Mensch grundsätzlich auf der Ebene eines flachen Formalismus verbleibt, den Wiener bei Automaten diagnostiziert. Letzteres ist eine Frage der Abstraktionslevels, in denen Entscheidungen betrachtet werden. Wo sie innerhalb bestimmter Regeln betrachtet werden, schaffen sie nichts Neues, denn die Regeln geben bereits den Weg vor. Wo Regeln außer Acht gelassen werden, sind neue Wege möglich, es fehlen allerdings – noch – Kriterien, nach denen über die Qualität dieser Wege entschieden werden könnte. 

Das ist eine pragmatische Variante von Gödels Unvollständigkeitstheorem: Konsistente Systeme sind unvollständig. In ihren Grenzen funktionieren sie schlüssig. Der Versuch, diese Grenzen auszudehnen, geht zulasten der Konsistenz. Nur mit dem Versuch, Grenzen auszudehnen, können aber Antworten auf neue Fragen gesucht werden. Und nur so können Begründungen für die Wahl der Grenzen geliefert werden. Das es keine rational begründbaren letzten Gründe für Rationalität gibt, ist eine der konsistenten, aber unzufriedenstellenden Wahrheiten der Wissenschaftstheorie. 

Wiener erwähnt Gödel; Schrödinger bleibt unerwähnt. Schrödingers Frage aus „Was ist Leben?“ beschreibt einen ähnlichen Perspektivenwechsel: Gesetzmäßigkeiten entstehen durch Zufälle und Statistik und sie funktionieren innerhalb dieses Rahmens. Je kleiner die betrachtete Gesamtheit wird, desto geringer wird aber der ausgleichende Effekt der Statistik. Für Schrödinger bleibt die Frage offen, wie Gene – die aus einer vergleichsweise verschwindend kleinen Menge von Molekülen bestehen – die Entwicklung des Lebens sicherstellen können, die sich nach immer gleichen Regeln vollzieht. 

Wiener streift diese Fragen nur und kehrt dann schnell zu Pragmatischerem zurück. Ein pragmatisch klingender Vorschlag ist die Überlegung, Intelligenz in künstlicher Intelligenz durch Emergenz zu ersetzen: Entsteht hier etwas Neues, etwas, das nicht zwingend aus den vorangegangenen Schritten folgt? Das wäre eine nützliche Zielsetzung für produktive und kreative Technik. Aber letztlich auch eine müßige. Über Emergenz streitet die Wissenschaftsphilosophie fast so viel wie über Intelligenz (eigentlich mehr, weil Intelligenz in dieser Disziplin kaum Thema ist). Manche Autoren sehen in Algorithmen das Gegenteil von Emergenz, denn Algorithmen legen den nächsten Schritt immer genau fest und lassen dabei keinen Spielraum. Andere gestehen immerhin Fehlern in den Abläufen (die vielleicht durch undefiniertes Variablen oder falsche Speicherbelegungen entstehen) kreatives Potenzial zu. 

Emergenz statt Intelligenz – diese Verschiebung macht die Einschätzung von KI und ihren Folgen nicht leichter. Aber Emergenz kann gerade auch in der Analyse von Artificial General Intelligence ein nützliches Kriterium sein: Schafft vermeintliche Intelligenz es, Systemgrenzen und Medienbrüche zu überwinden? Oder bleibt sie in den festgelegten Regeln verhaftet und kann diese um ein Vielfaches schnelle auslegen und austesten als jeder Mensch, wodurch der Eindruck neuartiger Entscheidungen entsteht – der aber letztlich Interpretation eines Betrachters ist, der sich selbst Intelligenz zuschreibt? Jede funktionierende KI, die ihren Zweck erfüllt, wäre damit ein Beweis für Gödels Unvollständigkeitstheorem. Und jede KI, die offene Fragen aufwirft, ebenso.

Julian Togelius, Artificial General Intelligence

Künstliche Intelligenz wird wahlweise die Welt zerstören, unfassbare Produktivitätsboosts anstoßen, Unvorstellbares in Bewegung setzen, Dinge bewirken, die wir uns noch gar nicht vorstellen können – und so weiter und so fort. Wer in den vergangenen Jahren eine Minute auf LinkedIn verbracht hat, weiß das. 

Wer sich dieser Angstlust mit weniger Begeisterung ergibt, gilt als verbohrter Bremser, der noch nicht verstanden hat, was alles auf uns hereinbrechen wird, und warum er oder sie dringend persönliche KI-Coaches und -Gurus braucht, die ihn oder sie durch diesen Dschungel navigieren. 

Umso wichtiger, dass ein renommierter Informatiker in einem technisch renommierten Verlag für einen nüchternen Umgang mit KI plädiert.

Der KI-Zirkus tourt seit gut 60 Jahren. Während aktuell digitale Übermachtsphantasien Oberhand haben, traute man Computern anfangs weniger zu. Sie würden nie intelligent sein, hieß es, sonst könnten sie Schach spielen. Oder Alpha Go. Oder Texte schreiben. Sobald ein Ziel erreicht war, hieß es: Das erfordert keine Intelligenz; ein nächstes Ziel stand im Raum.

Die grundlegenden Voraussetzungen haben sich nicht geändert, trotzdem behaupten heute viele, computergenerierte Weltherrschaft für ebenso realistisch zu halten wie den digital motivierten Weltuntergang. 

Aktuelle Intelligenzen wie Chat GPT sind hochspezialisiert, in Maßen flexibel – und man könnte auch hier diskutieren, ob sie intelligent sind. Large Language Models funktionieren mit Wahrscheinlichkeitsprognosen und reproduzieren, was bisher am häufigsten produziert (also geschrieben) wurde. Das ist weder besonders komplex noch visionär. Vor über hundert Jahren beschrieb der Wiener Wissenschaftsjournalist Leo Gilbert in seinem Roman „Seine Exzellenz, der Android” annähernd diese Methode als Intelligenzrezept seines Bots.

Intelligenz ist ein schwammiger Begriff, der sich nicht klar abgrenzen lässt und in der Praxis immer ein bewegliches Ziel darstellt. Künstliche Intelligenz vereinfacht das Problem nicht. Und gerade in Hinblick auf die Vorstellung Allgemeiner Künstlicher Intelligenz multipliziert sich das Problem eher, als einfacher zu werden. Intelligenz ist kein klarer Begriff, allgemein ist interpretierbar und sogar über künstlich könnte man streiten. Intelligenz kann nur dann gemessen oder verglichen werden, wenn die Aufgabenstellungen klar sind. Damit ist Intelligenz aber immer eine spezifische Eigenschaft und keine allgemeine. Es ist sogar eher beweisbar, dass es keine allgemeine überlegene Intelligenz geben kann. Wenn bestimmte Intelligenzen (oder mutmaßliche intelligente Algorithmen) auf eine Vielzahl von Problemstellungen angewendet werden, ist zu erwarten, dass alle vergleichbar gut oder schlecht abschneiden werden. Manche Algorithmen lösen bestimmte Problemarten besser, dafür scheitern sie an anderen – in der Gesamtwertung werden alle einander ähneln. Das ist die Informatik-Variante des Free Lunch-Theorems; irgendwann muss immer von irgendwem bezahlt werden.

Was sollte also Allgemeine Künstliche Intelligenz sein? Ist sie besonders menschlich? Deckt sie eine breite Palette ab? Ist sie eher alienlike? Braucht sie einen Körper oder nicht? Die Debatte kennt viele Ansätze, alle sind reichlich unkonkret. Die Minimalvariante von AGI reicht von sprachlicher Flexibilität bis zur Fähigkeit, Systemgrenzen zu überwinden und unvorhergesehene Lösungen zu finden. Letzteres sind Intelligenzen, die ihre Softwaregrenzen überwinden, um die Welt der Büroklammernproduktion wegen zu vernichten (wie in den berühmten Beispielen von Nick Bostrom), die die Menschheit versklaven, um mächtiger zu werden (wie Skynet in Terminator), oder die die Codes für Nukleararsenale knacken und diese selbständig zünden. Bislang ist das Science Fiction.

GPT 4 jedenfalls ist keine AGI. GPT 4 errät Texte und befolgt Regeln. Regeln, die von Menschen festgelegt worden sind und die bestimmten, was es lernt und innerhalb welcher Grenzen es sich bewegt.

Kann AGI über Methoden geschaffen werden, die Evolution und natürlicher Auslese nacheifern, also über die gleichen Methoden, die menschliche Intelligenz geschaffen haben? Reinforcement Learning wäre die Version der Evolution, die einen steuernden Schöpfer kennt, der zwischen Richtig und Falsch, Gut und Böse entscheidet. Open Ended Learning ist eine flexiblere Variante, die keine Ziele vorgibt, Methoden offen lässt – und damit auch die Frage offen lässt, was und wie AGI eigentlich lernt. Ist AGI ein Spiegel menschlicher Intelligenz oder etwas ganz anderes?

In erster Linie ist AGI eine Projektionsfläche für KI-Spekulanten, die sich für gerade genehme Zwecke einsetzen lässt.

Die Versuchung der Analogie zu menschlicher Intelligenz verführt zu einem weiteren großteils sinnlosen Scheingefecht: Kann künstliche Intelligenz Bewusstsein entwickeln? Bewusstsein ist nun ein ebenso unscharfer Begriff wie Intelligenz. Es ist nur eine leichte Zuspitzung, die Frage nach Bewusstsein Künstlicher Intelligenz zu einer anderen Frage zusammenzukürzen: Kann irgendwas irgendwas entwickeln? Togelius verweist auf David Chalmers’ Gedankenexperimente – die nur in einem klar abgegrenzten Rahmen und mit vielen Einschränkungen Sinn ergeben.

Künstliche Intelligenzen können sich selbst und andere Künstliche Intelligenzen trainieren. Die Fortschritte dabei bewegen sich aber in überschaubaren klar abgesteckten Bereichen. Um größere Sprünge zu machen, müsste KI nicht zur zusätzliche Software entwickeln und neue Trainingsdaten beschaffen, KI müsste auch neue Hardware bauen, um zusätzliche Rechenleistung bereitzustellen, mit der größere Entwicklungssprünge möglich wären. Das sind Hürden, die Software alleine nicht nehmen kann – KI braucht Helfer bei der Vernichtung der Menschheit oder anderen Aktivitäten, die die technischen Allmachtsphantasien befriedigen würden. KI wird das Heft nicht selbst in die Hand nehmen. Mit KI können schädliche Prozesse in Gang gesetzt, beschleunigt und vervielfältigt werden, aber KI entwickelt ebensowenig zerstörerische Eigendynamik wie Nuklearenergie. In Punkto unumkehrbare Eigendynamik hat Klimawandel im Ranking der aktuellen Supergefahren jeglicher Killer-KI einiges voraus.

Large Language Models sind für Togelius keine Schritte in Richtung einer Allgemeinen Künstlichen Intelligenz. Entwicklungen, die der Idee der Allgemeinen Intelligenz am nächsten kommen, sieht Togelius in Open Ended Learning. Hier ist Flexibilität zu erwarten – um den Preis, dass Menschen weder nachvollziehen können, was oder wie derart offen gestaltete Intelligenzen gelernt haben. 

Dennoch schließt Togelius mit einem kurzen Plädoyer gegen Entwicklungsbeschränkungen. Denn KI setzt keinen Geist frei, enthält keine Magie und ist keine unkontrollierbare Macht. Es sei denn, Beschränkungen, künstliche Zugangshürden und andere erzwungene Intransparenzen erschweren die kritische technisch fundierte Auseinandersetzung mit KI.