Catrin Misselhorn: Künstliche Intelligenz und Empathie

Catrin Misselhorn: Künstliche Intelligenz und Empathie

Roboter und Künstliche Intelligenzen haben keine Emotion. Allerdings sind sie sehr wohl moralische Akteure - denn sie können zur Verrohung von Menschen beitragen.

Werden Roboter unsere besten Freunde? Sollen wir Mitgefühl mit virtuellen Agenten haben? Ersetzen virtuelle Interaktionen Freundschaft, sind digitale Sexpuppen die besseren Paartherapeuten? 

Misselhorn holt in dem kleinen Band weit aus, erklärt einige Grundlagen von Empathie und Emotion – und kommt immer wieder an den Punkt: Menschen können recht bald mit allem möglichen empathisch sein, auch mit Bots und virtuellen Assistenten. Künstliche Intelligenzen, Roboter und andere digitale Surrogate können das allerdings nicht. Die Beziehung bleibt einseitig. 

Menschen könnten also durchaus von Robotern Empathie lernen, könnte man meinen – Misselhorn teilt diese Perspektive allerdings nicht. Zum einen ist auch die Empathie von Menschen gegenüber Robotern beschränkt: Menschen fühlen dann mit Robotern, wenn diese entweder einfache aber eindeutig erkennbare Androiden sind, oder wenn sie abstrahierte Intelligenzen sind, von denen nur sprachliche Äußerungen erkennbar sind. Sehr menschenähnliche Roboter dagegen befinden sich im uncanny valley, im unheimlichen Tal drastisch sinkender Empathie, denn sehr menschenähnlichen Robotern wird sehr kritisch begegnet. 

Der wesentlichere Kritikpunkt allerdings bezieht sich auf potenziell negative Auswirkungen von Empathie, die unempathischen Gegenständen entgegengebracht werden. Wenn Menschen emotionales Investment in Roboter oder Künstliche Intelligenzen, also in Gegenstände, stecken, wird sich das eher negativ auf ihre eigenen emotionalen Fähigkeiten auswirken Das gilt für unerwiderte Zuneigung ebenso wie für hingenommenen Missbrauch: Misselhorn diskutiert Überlegungen, ob nicht etwa sexuelle Gewaltphantasien therapeutisch gegenüber Robotern ausgelebt werden könnten und kommt zu dem Schluss, dass sich auch diese Strategie eher negativ auf Empathie und emotionale Intelligenz von Menschen auswirken würde. Täter lernen Missbrauch, sonst nichts. Die Fragestellung ist keine theoretische; aktuell steht der Versandhändler Shein wegen kindlicher Sexpuppen in Kritik. 

Roboter und Künstliche Intelligenz sind also sehr wohl moralisch relevante Größen in der Diskussion von Empathie und Intelligenz, folgert Misselhorn – allerdings eher im Umkehrschluss. Unempathisches Verhalten gegenüber Robotern trage dazu bei, Menschen im Allgemeinen an unempathisches Verhalten zu gewöhnen. Emotionale Erwartungen an Roboter und KI seien allerdings auch eher Quelle als Lösung von emotionalen Problemen – manchmal tragischerweise auch eher die Quelle jener Probleme, als deren Lösung sie verkauft würden. 

Michael Hafner

Michael Hafner

Daten- und Digitalisierungsexperte, Wissenschafts- und Technologiehistoriker, Informatiker und Journalist

Sonst noch neu

Ulf Poschardt: Shitbürgertum

Poschardt ist ein wenig lustig, dabei aber ein exzessiver Langweiler. Wieder ein Buch, das besser auch ein E-Mail hätte sein können.

Ray Kurzweil: The Singularity is Nearer

Autonomie ist wichtiger als Intelligenz. Aber Kurzweils Hoffnung auf technische Problemlösungen für alles ignoriert Politik und andere menschliche Schwächen – und auch einige andere sachliche Entwicklungen unserer Zeit.

Meine Bücher