Neil Lawrence, The Atomic Human

Neil Lawrence, The Atomic Human

Strategien für die Unabhängigkeit von AI, verpackt in eine Geschichte der Informatik.

Menschen denken besser als Maschinen. Menschen haben auch mehr Möglichkeiten, relevante Umgebungen und Abhängigkeiten einzubeziehen. Aber beim Tempo des Datenaustausches sind Menschen Maschinen um ein Vielfaches unterlegen. Die Bandbreite, mit der Menschen kommunizieren (und damit lernen, vermitteln, regieren, analysieren) können, ist ein Bruchteil der Bandbreite, die Maschinen zur Verfügung steht.

Das menschliche Gehirn, meint Lawrence, ist ein Formel 1-Bolide auf Fahrradrädern. Maschinelle Intelligenz ist dagegen ein Gokart, aber mit angemessener Bereifung – es bringt seine Power problemlos auf die Straße. 

Das eröffnet die Frage: Können Maschinen ihren Bandbreiten-Vorteil ausnützen? Wie können Menschen diese Bandbreitendifferenz überbrücken von von Maschinen profitieren? Und was wird vom Menschen übrig bleiben, wenn mehr und mehr einst Menschen vorbehaltene Aufgaben an Maschinen delegiert sind? 

Letzteres ist die titelgebende Frage dieses Buch: Atomic ist das Unteilbare, das was nicht systematisiert und automatisiert werden kann. 

Lawrence holt in seinem Buch weit aus und erzählt eine ganze Geschichte der Informatik aus der Perspektive des Machine Learning-Experten. Die Kriegs-Erfolge mit der Entschlüsselung von Enigma und Lorenz Cipher, der Bau der ersten programmierbaren Computer, die Idee, die Funktionsweise biologischer Neuronen nachzubauen (noch heute das Leitbild des Deep Learning) sind alles direkte Schritte auf dem Weg zu aktuellen AI Versionen.

Einer der kritischsten Punkte in der Entwicklung hin zu mächtigen künstlichen Intelligenzen sieht Lawrence in der Rollout-Geschwindigkeit. Während bei Microsoft um die Jahrtausendwende Produktentwicklungszyklen noch zwei Jahre dauerten – es dauerte also bis zu zwei Jahre, bis eine Coding-Idee den Weg in ein veröffentlichtes Produkt fand -, verkürzten Entwicklungsorgaisationen bei Social Media Plattformen diese Phase auf wenige Tage. Facebook führte früh wöchentliche Deployments ein. Das Tempo war dank viele Teams und kleiner Tasks möglich – über die bald niemand außer einer technischen Überwachungslogik den Überblick hatte. Technisch passten die Entwicklungsschrittte zusammen, was Features und Schnittstellen für das Gesamtprodukt und dessen Möglichkeiten bedeutete, geriet außer Sichtweite. Die Facebook-Führungsebene mag tatsächlich überrascht gewesen sein, als Trollfabriken und Cambridge Analytica den Social Graph ausnützten – vielleicht hatte man wirklich noch nie so auf das eigene Produkt geblickt. Man hatte eine Maschinenwelt geschaffen, die nicht mehr nach menschlichen Regeln und nicht für Menschen funktioniert. Maschinen mit ihrer höheren Kommunikationsbandbreite können sich auch über so schnell wachsende und sich verändernde Systeme austauschen. Menschen können das nicht. Menschen fehlt der Überblick, Menschen fehlt die versichernde, einen Zusammenhang herstellende gemeinsame Grundlage. Gerade weil Menschen nicht so schnell und präzise kommunizieren können, sind sie auf dieses grundlegende Vorverständnis angewiesen, auf einen für alle geltenden Rahmen. Maschinell geschaffene Welten stellen diesen Rahmen in Frage, Desinformation stellt ihn in Frage, AI kennt ihn gar nicht, sondern simuliert ihn allenfalls. Wo AI entscheidet, sind menschliche Gewissheiten nicht mehr gewiss. Das ist einer der Punkte, die Mark Coeckelbergh in seinen AI-Studien immer wieder betont.

Deshalb sind Nachvollziehbarkeit und Transparenz wichtige Sicherheitskriterien für AI. Sie bedeuten nicht nur, ob wir AI-Entscheidungen nachvollziehen können und eine Chance haben, sie einschätzen zu können. Transparenz und Nachvollziehbarkeit entscheiden auch darüber, wer über den Zugang zu Information entscheidet: Entscheiden Menschen, mit welchen Informationen AI zu welchem Zweck gefüttert wird? Oder entscheidet AI, welche Einblick der Mensch noch bekommt, nachdem AI-Systeme ihre Entscheidungen getroffen haben?

AI hat das Potenzial, zu einem System Zero zu werden, schreibt Lawrence in Anlehnung an Daniel Kahnemanns System 1 und System 2: System 1 ist schnelles Denken, das spontane und intuitive Entscheidungen trifft. System 2 ist langsames Denken, das reflektiert und hinterfragt. System Zero wäre eine vorgelagerte Ebene, die Entscheidungen vorwegnimmt, filtert, uns einschränkt und bestimmt, worüber zu denken wir überhaupt noch Gelegenheit haben.

AI sollte nicht vorrangig als Effizienzwerkzeug zur Automatisierung gesehen werden, meint Lawrence. AI könnte auch ein nützliches Introspektionstool sein, das uns lehrt, wir Denken funktioniert, wie Technik funktioniert, wodurch wir uns von Maschinen unterscheiden, was sie besser können und was wir ihnen niemals überlassen sollten.

Ich bin mittlerweile überzeugt: Der wichtigste positive Effekt von AI, so es einen gibt, wird es sein, dass Menschen sich mit Logik, Datenstrukturen und Datenformaten auseinandersetzen müssen. Das verschafft einen handfesten Vorsprung in einer digitalen Welt. Die Schattenseite: Damit sinkt der Anteil der potenziellen AI-Profiteure noch einmal deutlich.

Michael Hafner

Michael Hafner

Daten- und Digitalisierungsexperte, Wissenschafts- und Technologiehistoriker, Informatiker und Journalist

Sonst noch neu

Peter Thiel: Zero to One

Vielleicht liegt ja in dieser Mischung banaler und kurzsichtiger Tunnelblickperspektiven tatsächlich die überzeugendste Erfolgsstrategie.

Peter Reichl: Homo cyber

Homo cyber steht für Passivität und Ausgeliefertsein. Im Gegensatz zum Homo faber gestaltet der Homo cyber sein Leben nicht.

Alex Tapscott: Web3

Blockchain ist eine schlüssige und nützliche Technologie, aber die konkreten Anwendungsfälle abseits von Bitcoin halten bislang mit den geweckten Erwartungen nicht mit.

Kai-Fu Lee: AI Superpowers

Im Vergleich der AI Superpowers sieht der ehemalige Google China-Chef Tugenden wie eine Kultur des Scheiterns, radikalen Marktfit und grenzenlosen Einsatz eher bei China.

Meine Bücher