Werden Roboter unsere besten Freunde? Sollen wir Mitgefühl mit virtuellen Agenten haben? Ersetzen virtuelle Interaktionen Freundschaft, sind digitale Sexpuppen die besseren Paartherapeuten?
Misselhorn holt in dem kleinen Band weit aus, erklärt einige Grundlagen von Empathie und Emotion – und kommt immer wieder an den Punkt: Menschen können recht bald mit allem möglichen empathisch sein, auch mit Bots und virtuellen Assistenten. Künstliche Intelligenzen, Roboter und andere digitale Surrogate können das allerdings nicht. Die Beziehung bleibt einseitig.
Menschen könnten also durchaus von Robotern Empathie lernen, könnte man meinen – Misselhorn teilt diese Perspektive allerdings nicht. Zum einen ist auch die Empathie von Menschen gegenüber Robotern beschränkt: Menschen fühlen dann mit Robotern, wenn diese entweder einfache aber eindeutig erkennbare Androiden sind, oder wenn sie abstrahierte Intelligenzen sind, von denen nur sprachliche Äußerungen erkennbar sind. Sehr menschenähnliche Roboter dagegen befinden sich im uncanny valley, im unheimlichen Tal drastisch sinkender Empathie, denn sehr menschenähnlichen Robotern wird sehr kritisch begegnet.
Der wesentlichere Kritikpunkt allerdings bezieht sich auf potenziell negative Auswirkungen von Empathie, die unempathischen Gegenständen entgegengebracht werden. Wenn Menschen emotionales Investment in Roboter oder Künstliche Intelligenzen, also in Gegenstände, stecken, wird sich das eher negativ auf ihre eigenen emotionalen Fähigkeiten auswirken Das gilt für unerwiderte Zuneigung ebenso wie für hingenommenen Missbrauch: Misselhorn diskutiert Überlegungen, ob nicht etwa sexuelle Gewaltphantasien therapeutisch gegenüber Robotern ausgelebt werden könnten und kommt zu dem Schluss, dass sich auch diese Strategie eher negativ auf Empathie und emotionale Intelligenz von Menschen auswirken würde. Täter lernen Missbrauch, sonst nichts. Die Fragestellung ist keine theoretische; aktuell steht der Versandhändler Shein wegen kindlicher Sexpuppen in Kritik.
Roboter und Künstliche Intelligenz sind also sehr wohl moralisch relevante Größen in der Diskussion von Empathie und Intelligenz, folgert Misselhorn – allerdings eher im Umkehrschluss. Unempathisches Verhalten gegenüber Robotern trage dazu bei, Menschen im Allgemeinen an unempathisches Verhalten zu gewöhnen. Emotionale Erwartungen an Roboter und KI seien allerdings auch eher Quelle als Lösung von emotionalen Problemen – manchmal tragischerweise auch eher die Quelle jener Probleme, als deren Lösung sie verkauft würden.






