Ist der Missbrauch von Robotern und KI durch Menschen akzeptabel?

LinkedIn-Benutzer Nick Dimichino wurde vor kurzem Zeuge eines verstörenden Verhaltens auf einem Flug. Er beobachtete wie ein anderer Passagier den Chatbot Claude der in San Francisco beheimateten Firma Anthropic benutzte, und dabei drei Stunden lang gegenüber dem Chatbot verbal ausfällig wurde.

Würden wir jemanden einstellen oder mit ihm Umgang pflegen wollen, von dem wir wissen, dass er Roboter schlägt, vergewaltigt oder missbraucht? Wir würden sicherlich jemanden, der Katzen foltert oder seine Kinder oder den Partner schlägt, nicht einstellen wollen oder den Umgang pflegen. Wir würden wohl die Polizei verständigen. Aber wie ist das bei Robotern oder Ki-Sprachmodellen?

Kinder neigen dazu, mit Sprachassistenten wie Siri oder Alexa recht grob umzugehen. Da diese immer freundlich und hilfsbereit reagieren, testen Kinder die Grenzen, indem sie ihnen immer größere Beleidigungen an den Kopf werfen. Gute Eltern wollen allerdings, dass ihre Kinder „Bitte“ und „Danke“ sagen. Doch muss man das bei einer KI oder einem Roboter auch? Vor allem, wenn wir von den Unternehmen hören, dass diese Höflichkeitsfloskeln Rechenzeit und somit Energie und Kühlwasser verbrauchen. Ökologisch gesinnte und auf Höflichkeit bedachte Eltern geraten hier in die Zwickmühle.

Japanische Robotiker beobachteten, wie Kinder in einem Einkaufszentrum einen Serviceroboter blockierten und malträtierten, indem sie sich ihm in den Weg stellten und sogar auf ihn einzuschlagen begannen. Eine Lösung der Japaner das zu vermeiden war, dass der Roboter sobald sich ihm kleine Menschen näherten er die Nähe von großen Menschen, also Erwachsenen, aufsuchte. Denn diese tendieren dazu, die Kinder von der Aggression dem Roboter gegenüber abzuhalten.

Patrick Lin, Direktor der „Ethics and Emerging Sciences Group“ der California Polytechnic State University, sieht in Robotern, die für diese Zwecke eingesetzt werden, einen möglichen Rückschritt. Denn dadurch werden wir Menschen weniger menschlich, da wir Gewalt anwenden, anstatt zu verhandeln und Übereinkommen zu treffen.

Die Roboterethikerin Kate Darling vom MIT schildert in einem TED-Talk, wie sie einem Freund einen kleinen Dinosaurierroboter zeigte. Dieser kleine Roboter namens Pleo hatte einige Sensoren und Motoren eingebaut, er konnte herumlaufen und den Kopf bewegen, aber auch feststellen, ob er aufrecht stand oder lag. Wenn er lag oder nach unten hing, fing er an zu weinen. Darlings Freund untersuchte den Roboter und hielt ihn dabei verkehrt herum, was dazu führte, dass der Roboter weinte. Darling fühlte sich dabei so unangenehm, dass sie ihrem Freund den Roboter wieder abnahm. Ihre Reaktion darauf, dieses Mitleid mit dem Dinosaurierroboter, der letztendlich ja nichts Weiteres als ein Spielzeug war, erstaunte sie selbst, und sie stellte sich die Frage, warum wir emotionale Verbindungen zu Maschinen aufbauen.

Ein anderes Beispiel können wir im folgenden Video sehen, wo ein Lieferroboter auf vier Rädern von Serve Robotics mangels Hände den Knopf einer Ampelanlage nicht betätigen kann und deshalb umstehende Menschen um Hilfe bittet. Einer der Passanten weigert sich dem Roboter zu helfen, weil er der Meinung ist, dass solche Roboter Menschen Arbeitsplätze und den Platz in der Welt wegnehmen. Er lässt es nicht dabei, er beschimpft sogar den Roboter und sagt ihm was er über ihn denkt.

Würde ein Mensch einen anderen Menschen solcherart beschimpfen, würden wir sicherlich aufmerksam werden und vielleicht einschreiten. Doch mit dem Aggressor würden wir uns eher nicht solidarisieren. Würde er nun auf den Menschen grundlos einschlagen, dann wäre der Moment für uns gekommen die Polizei zu rufen.

Da Menschen dazu tendieren, auch Maschinen in Form von Robotern oder eben eines Chatbots zu anthropomorphisieren, wird verständlich, wieso unsere Reaktion gegenüber diesem Missbrauch wie in den Beispielen zu solchen viszeralen Reaktionen in uns führt. Wir leiden mit ihnen mit und verurteilen diejenigen, die dieses Leid zuführen.

Als Konsequenz werden wir wohl auch diskutieren müssen, inwieweit Robotern oder KI-Modellen in Zukunft auch Rechte zugewiesen werden, damit solcher Missbrauch nicht ungestraft stattfinden kann und als Ergebnis auch auf Menschen angewandt wird. Jemandem der eine Maschine missbraucht wird wohl auch zugetraut bei anderen Menschen nicht Halt zu machen.

Kommentar verfassen