Wie entwirft man einen liebenswerten Roboter?

In einem TED Talk beschreibt die Roboter-Ethikerin Kate Darling vom MIT, wie sie einem Freund einen kleinen Dinosaurier-Roboter vorführte. Dieser kleine Roboter namens Pleo hatte einige Sensoren und Motoren eingebaut, er konnte herumlaufen und seinen Kopf bewegen, aber er konnte auch erkennen, ob er aufrecht stand oder lag. Wenn er lag oder herunterhing, fing er an zu weinen. Darlings Freund untersuchte den Roboter, während er ihn auf den Kopf hielt, was den Roboter zum Weinen brachte. Darling fühlte sich dabei so unwohl, dass sie den Roboter von ihrer Freundin zurücknahm.

Pleo Spielzeugroboter

Ihre Reaktion darauf, dieses Mitleid mit dem Dinosaurier-Roboter, der letztlich nichts weiter als ein Spielzeug war, erstaunte sie selbst, und sie fragte sich, warum wir emotionale Verbindungen zu Maschinen aufbauen.

Darlings Reaktion war nicht ungewöhnlich; das passiert auch anderen. In P. W. Singers Buch „Wired for War“ sprechen amerikanische Soldaten vom „Robo-Hospital“ und nicht von der „Joint Robotics Repair Facility“, wohin sie ihre Drohnen und Entminungsroboter zur Reparatur schicken. Dieselben Soldaten geben ihren Robotern „Begräbnisse mit vollen militärischen Ehren“. Und zu guter Letzt haben wir bereits von den umgestürzten Kiwibots erfahren, die von Passanten sofort wieder aufgerichtet werden, weil sie so ‚traurig‘ aussahen. All das zeigt uns, dass wir Menschen sehr schnell in der Lage sind, solche emotionalen Verbindungen herzustellen. Alles, was sich bewegt und nach Leben aussieht, kann unser Mitgefühl wecken.

AlphaSophia and me

FUTURE MINDSET:
How to forecast and design your future

How can we predict the future and better prepare for it? This is a question that many companies are asking themselves, and one that also has consequences for their personal futures.

This online course teaches a set of tools that students can use to discover for themselves signs of what may be coming, how to influence them to make better decisions today. With this knowledge and tools, students will be able to shape their own personal future or that of their company and organization.

REGISTER for this course!
Watch. the promotion video!

Neben dem Dinosaurier-Roboter gibt es eine Reihe weiterer Roboter für Kinder, die sichtbar Emotionen ausdrücken und so interessante Reaktionen bei ihnen hervorrufen. Jeder, der Kinder im Vorschulalter hat, weiß aus eigener leidvoller Erfahrung, dass sie bei Spielen immer gewinnen wollen. Wenn nicht, dann riskiert man einen Nervenzusammenbruch.

Aber jetzt kommen Cozmo und Vector auf die Bühne, zwei kleine Roboter mit ausgeprägten Persönlichkeiten. Diese kleinen blockförmigen Roboter auf Rädern haben eine armähnliche Hebevorrichtung, mit der sie Würfel anheben, bewegen und umdrehen können. Wenn sie bei den Spielen erfolgreich sind, feiern sie ihren Sieg, indem sie die Arme heben, sich im Kreis drehen, Jubelgeräusche machen und mit den Augen blinzeln. Verlieren sie jedoch, ärgern sie sich lautstark und werfen sich vor Wut umher.


Kinder sind von ihnen so angetan und reagieren so ehrfürchtig, dass die Erfinder dieser Roboter Dialoge von Kindern belauschen konnten, in denen sich zwei Fünfjährige gegenseitig zuflüsterten, den Roboter gewinnen zu lassen, damit er nicht böse wird.

Diese ausgeprägte Persönlichkeit von Spielzeugrobotern ist etwas, worüber sich Sherry Turkle in ihrem Buch Alone Together den Kopf zerbrochen hat. Sie glaubt, dass es relativ einfach ist, eine Maschine so zu bauen, dass sie leicht zu bedienen wäre – auch wenn viele leidgeprüfte Nutzer von Maschinen und Software das Gegenteil berichten. Als ehemaliger Softwareentwickler kenne ich die Herausforderung, Benutzeroberflächen für Anwender intuitiv verständlich und einfach zu bedienen zu machen. Keineswegs eine leichte Aufgabe.

Aber Turkle will Maschinen eine liebenswerte und gewinnende Persönlichkeit geben, und das ist eine Aufgabe auf einem anderen Schwierigkeitsgrad. Das sieht auch der Informatiker John Lester so:

In Zukunft werden wir unsere Werkzeuge nicht nur benutzen oder uns an ihnen erfreuen, wir werden uns sogar für sie interessieren und sie pflegen wollen. Sie werden uns lehren, wie wir sie behandeln und wie wir mit ihnen umgehen sollen. Wir werden dazu übergehen, unsere Werkzeuge zu lieben; und unsere Werkzeuge werden sich dahin entwickeln, liebenswert zu werden.

Was macht einen Roboter oder eine KI sympathisch? Mit dieser Frage kämpfen die Chatbot-Hersteller, die mit ein und derselben Technologie sehr zwiespältige Erfolge hatten. So erlebte Microsoft mit seinem englischsprachigen Twitter-Chatbot Tay ein kleines Desaster, als dieser auf Twitter entfesselt wurde. Innerhalb weniger Stunden verwandelte sich dieser Bot, der sich als 16-jähriges Teenager-Mädchen ausgab, in einen unhöflichen und rassistischen Twitter-Teilnehmer. Die exakt gleiche Technologie, die in chinesischen Netzwerken als Xiaoice bekannt ist, sammelte dagegen Millionen von Anhängern. Was war der Unterschied?

Wie die Stanford-Forscher herausfanden, liegt das vor allem daran, wie die KI beworben wird. Die Erwartungen der Menschen, die mit ihr interagieren, werden bei einem Bot, der sich selbst als Kleinkind anpreist, geringer sein als bei einem, der auf dem Niveau von menschlichen Experten angepriesen wird.

Heute werden KI-Agenten oft mit einer Art Metapher assoziiert. Einige, wie Siri und Alexa, werden als Verwaltungsassistenten angesehen; Xiaoice wird als „Freund“ projiziert und Woebot als „Psychotherapeut“. Solche Metaphern sollen uns helfen, zu verstehen und vorherzusagen, wie diese KI-Agenten eingesetzt werden sollen und wie sie sich verhalten werden.

Menschen sind im Allgemeinen sehr nachsichtig mit Maschinen, wie bereits ELIZA, ein primitiver Chatbot, der sich als Psychotherapeut ausgab, gezeigt hat. ELIZA wurde 1964 am MIT von Joseph Weizenbaum als Psychotherapieprogramm entwickelt und sollte zeigen, wie oberflächlich solche künstlichen Dialoge sind. Es war darauf ausgelegt, ein überzeugendes Gespräch zu führen.

Weizenbaum argumentierte, dass Berufe, die echtes Einfühlungsvermögen erfordern, wie z. B. im medizinischen Bereich, in der Altenpflege, bei Soldaten oder auch im Kundensupport, niemals von einer Maschine ausgeführt werden sollten. Ausgedehnte Interaktionen von Menschen mit Maschinen, die keine echte Empathie zeigen, isolieren den Menschen und lassen ihn weniger wertvoll erscheinen.

Es stellte sich jedoch heraus, dass genau das Gegenteil der Fall war. Die Probanden, die mit ELIZA kommunizierten, waren überzeugt, dass hinter der Maschine ein Mensch saß, der antwortete. Ja, selbst wenn sie genau verstanden, dass es sich um eine Maschine handelte, fragten sie nach dem Ende des Experiments, ob sie noch etwas Zeit allein mit der Maschine verbringen könnten. Berichten zufolge bat sogar Weizenbaums eigene Sekretärin um einen „privaten Termin“ mit ELIZA.

At the very least, the expectation seems to be a contribution to how to develop lovable and thus also human-acceptable artificial intelligence, bots and robots. Cute eyes or looks alone are not it, anyway. And this is where it gets really exciting, because the definition of ‚lovable‘ is probably at least as unclear as our definitions of terms like feeling, emotion or consciousness.


Dieser Artikel ist zum Teil ein Auszug aus meinem Buch Wenn Affen von Affen lernen: Wie künstliche Intelligenz uns wirklich menschlich macht. Erschienen im Februar 2020 im Plassen-Verlag.

Jetzt auf Amazon
und im Buchhandel!

Wenn Affen von Affen lernen

Was ist Intelligenz im künstlichen und menschlichen Sinn? Können Maschinen Bewusstsein entwickeln und wie würden wir das erkennen? Sind Maschinen fähig, Empathie zu zeigen und zu fühlen?
Innovations-Guru Dr. Mario Herger gibt darauf Antworten. Er verdeutlicht die vielfältigen Chancen und positiven Auswirkungen von KI auf alle Aspekte des gesellschaftlichen und wirtschaftlichen Lebens. Spannende Gespräche mit KI-Vordenkern und KI-Praktikern aus dem Silicon Valley vermitteln dem Leser wertvolle neue Erkenntnisse und Mindsets. Ein unentbehrlicher KI-Ratgeber für Gegenwart und Zukunft!

Kommentar verfassen