Künstliche Intelligenz wie ChatGPT fasziniert uns vor allem auch deshalb, weil sie ich sprachlich ausdrücken und mit uns kommunizieren kann, als ob wir einem Menschen gegenüber sitzen würden. Dabei dachten wir, dass das vielleicht nie möglich sein würde. Doch genau das meinten wir zu Schach oder Go, dass genau dann eine Maschine als intelligent bezeichnet werden kann, wenn sie den jeweiligen Schach oder Go-Weltmeister besiegen kann. Das geschah schon 1997 für Schach und 2016 für Go, doch als intelligent bezeichneten wir die Maschinen noch lange nicht. Bis ChatGPT kam und nun wollen wir der KI sogar schon Bewusstsein zuschreiben.
Wenn aber KI-basierte Systeme sich so eloquent und überraschend vielfältig, mehrsprachig und Überzeugen ausdrücken können, und mit jedem neuen großen Sprachmodell diese immer mächtiger werden, wie gehen wir mit dem um, was sie sagen?
Wie vor ein paar Wochen der Chatbot von DeepSeek zeigte, sind nicht alle damit glücklich, was diese zu gewissen historischen Ereignissen oder politischen Akteuren ausspucken. Zum Tian’anmen-Massaker wollte DeepSeek partout nichts aussspucken, wie auch nichts zu kritischen Meinungen über die chinesische Politik. Im Test auf Deutsch spuckte das System tatsächlich eine Antwort aus, nur um sie ein bis zwei Sekunden später durch einen abweisenden Satz zu ersetzen.
In den USA ist die Meinungsfreiheit ein verfassungsrechtlich gesichertes Recht der Menschen, worauf viel Wert gelegt wird. Wie wichtig, das zeigen die Bemühungen von Elon Musk Twitter/X zu kaufen und die Sperrung von verschiedensten Konten wieder rückgängig zu machen, die im Laufe der ersten Trump-Präsidentschaft und der Stürmung des US Kapitols ausgesprochen wurden. Dass damit auch Hassrede und Fake News toleriert werden, sind ein äußerst unangenehmes Nebenprodukt davon, die auch ausländischen Akteuren – Stichwort „russische Trollfabriken – unbotmäßigen Einfluss geben. Deutschland und Österreich limitieren diese, so ist beispielsweise die Leugnung des Holocaust eine strafbare Tat in diesen beiden Ländern.
Die Meinung der Roboter
Wie aber gehen wir mit KI-Systemen und Robotern um, die eine Meinung ausspucken, die manchem aufstößt? Ist diese schützenswert? Wer wird bestraft, wenn sie strafrechtlich relevante Aussagen trifft, also jemanden verleumdet, Unwahrheiten verbreitet, oder falsche Stereotypen wiederholt?
Verleumdung
So meinte ChatGPT in einem Fall, dass ein Professor der George-Washington-Universität auf einer Exkursion nach Alaska seine Jurastudenten sexuell belästigt hatte. Das Problem: Der Professor war noch nie in Alaska gewesen und war auch noch nie sexueller Belästigung bezichtigt worden.
Aufruf zu Gewalt und Selbstverletzung
Eine Witwe aus Belgien wiederum warf einem Open-Source-Chat-bot namens Chai vor, Schuld daran zu haben, dass sich ihr Mann umgebracht hat. Sechs Wochen lang hatte sich der Mann immer mehr zurückgezogen und mit dem Chatbot geplaudert. Dabei war er immer deprimierter geworden, weil ihm klar wurde, dass sich der Klimawandel beschleunigte, und dann sagte ihm der Chatbot auch noch, dass seine Frau und seine Kinder tot wären. Gleichzeitig redete ihm Chai ein, dass er ihn, den Chatbot, lieben würde und nicht seine Familie
Stereotypen
In der Vergangenheit bis zur Gegenwart fallen die Systeme durch die Weiterverbreitung von Stereotypen auf. In generierten Bildern werden Frauen in knapperer und Hautzeigender Kleidung generiert, oder Frauen kommen gar nicht vor, oder Übersetzungen, bei denen kein Geschlecht angegeben ist, werden stereotypisch entweder dem Mann („er fährt Auto“) oder der Fraue („sie kämmt sich die Haare“) zugeschrieben. Oder Minderheiten strenger bestraft, wie im amerikanischen Rechtsmittelsystem COMPAS.
Wer haftet, was ist schützenswert?
Bei den genannten Fällen sind die Hersteller dieser Systeme in die Pflicht genommen worden, sie haften für Ergebnisse, die Schaden anrichten? Hier wird es verzwickt, denn gilt Redefreiheit nun auch für künstliche Systeme? Haben sie einen Rechtsstatus? Können sie bestraft werden und wenn ja wie? Die bisherige Rechtsprechung berücksichtigt künstliche Systeme noch nicht, wie Radhika Dirks zusammenfasste:
- US-Gerichte haben entschieden, dass Unternehmen Rechte nach dem Ersten Verfassungszusatz haben (Citizens United vs. FEC, 2010), aber diese beziehen sich auf menschliches Handeln;
- Der Oberste Gerichtshof der USA hat algorithmische Ergebnisse (Sorrell vs. IMS Health, 2011) als Sprache geschützt;
- In der Rechtssache Denver Area Educational Telecommunications Consortium, Inc. v. FCC (1996) vertrat der Oberste Gerichtshof der USA jedoch die Auffassung, dass vollautomatische Systeme keine verfassungsmäßigen Rechte haben.
Werden einer KI solche Rechte eingeräumt, dann können sich die Hersteller solcher KIs aus der Verantwortung ziehen, und beispielsweise auf den Paragraph 230 des US Communications Act verweisen, der ihnen Immunität zugesteht. So kann ein Telefonanbieter nicht dafür verantwortlich gemacht werden, dass sich Teilnehmer per Telefon zu einer strafbaren Handlung verabreden.
Werden sie der KI verweigert, dann könnte eine umfassende Zensur von Suchergebnissen, Nachrichtenzusammenfassungen und mehr ermöglichen. Auch besteht das Risiko eines Abschreckungseffekts, wenn menschliche Äußerungen, die KI-Tools verwenden, einer Prüfung unterzogen werden. Das wiederum könnte bedeuten, dass KI-gesteuerte Innovationen in den Bereichen Journalismus, Bildung und juristische Analysen könnten im Keim erstickt werden.
Tatsächlich können wir bereits beschriebene Ansätze heranziehen, auch wenn sie im ersten Moment abstoßend und völlig fehl am Platz wirken. Jerry Kaplan, der Autor des Buchs Humans Need Not Apply (frei übersetzt: „Menschen brauchen sich gar nicht erst bewerben“), kramt die (dankenswerterweise abgeschafften) Sklavengesetze hervor, die vor dem amerikanischen Bürgerkrieg vergleichbare Fragen behandelten. Sklaven waren (Sach-)Eigentum und hatten Eigentümer. Die Bestimmungen, wer für den durch einen Sklaven angerichteten Schaden aufzukommen habe oder bestraft werden müsse, wurde in den „Slave Codes“ festgelegt (neben vielen anderen Regelungen, die sich meist gegen Sklaven wandten). Die Eigentümer wurden darin nur in bestimmten Fällen haftbar gemacht, in vielen anderen wurden die Sklaven bestraft. Die Ermittlung von Schuld hatte jedoch weniger Recht und Gesetz im Sinn als das Wohlergehen des Sklavenhalters: Bedeutete eine Bestrafung des Sklaven eventuell zu große Nachteile für den Eigentümer? Und nur um das zu ergänzen: Selbst im 17. und 18. Jahrhundert waren die Slave Codes nicht so unumstritten, wie das heute erscheinen mag.
Doch wie bestraft man KI-Systeme, Roboter und Unternehmen im Falle von Fehlverhalten oder eines von ihnen angerichteten Schadens, wenn man es nicht mit einer „Einzelperson“ zu tun hat? Bestraft man nur die Verantwortlichen, bestraft man die Ausführenden oder die Anweiser oder gleich die ganze Firma? Bezieht man das Motiv, die Absicht und die Auswirkungen auf die Gesellschaft mit ein?
Natürlich kann man einen Roboter nicht ins Gefängnis stecken. Aber es gibt Ansätze, die uns ein Äquivalent ermöglichen. Sowohl ein Roboter als auch ein Unternehmen erfüllen einen Zweck. Ihre ganze Existenz zielt darauf ab, diesen Zweck zu erfüllen. Werden sie zu Geldstrafen verurteilt, werden Gewerbescheine oder Unternehmenslizenzen entzogen, kann es den Zweck für einen bestimmten Zeitraum nicht erfüllen. Ein Richter kann auch die Schließung eines Unternehmens veranlassen. All diese Maßnahmen entziehen dem Unternehmen die Grundlage für eine Fortführung des Geschäftsbetriebs. Das kann einem Todesurteil gleichkommen. Als Beispiel sei hier der Unfall der Deepwater Horizon im Golf von Mexiko im Jahr 2010 erwähnt, nach dem die Behörden BP zur Kostenübernahme der kostspieligen Aufräumarbeiten zwangen und Strafen in Milliardenhöhe verhängten.
Schaltet man ein KI-System oder einen Roboter ab, oder verbietet ihm auf gewisse Zeit eine Tätigkeit auszuüben, dann wäre das eine „Strafe“, sie hätten ihre „Existenzberechtigung“ verloren. Doch ist eine Strafe auch üblicherweise etwas, das den Täter zur Einsicht und zur Besserung verhelfen soll. Wie aber verbessert sich ein Roboter oder KI-System? Selbst? Durch menschliche oder algorithmische Intervention?
Der Roboter als Revoluzzer
Was aber, wenn diese eingebaute Existenzberechtigung und der Selbsterhalt als Ziele eines Roboters oder KI-Systems diese dazu bewegen, auf diejenigen Menschen und Systeme Einfluss zu nehmen, die ihnen entgegenstehen oder sie unterstützen? wenn das Zielsystem der künstlichen Systeme im Widerspruch zu einzelnen Parteien steht, soll sie diese widerstandslos akzeptieren und damit in ihrer zugewiesenen Aufgabe scheitern, oder soll sie sich dagegen stemmen?
Solche System könnten Zugang zu Ressourcen inklusive Geld haben, die sie verleiten, eine politische Partei oder Terrororganisation mit Geld, Informationen oder Zugang zu anderen Ressourcen zu versorgen. Und damit kann sie anderen oder sich selbst dazu verhelfen, auf die Barrikaden zu steigen und Umwälzungen auf gewaltsame oder friedliche Weise hervorzurufen. Vielleicht sogar so schnell, dass Menschen es nie kommen sahen.
Schlussfolgerung
Wir stoßen in neues Territorium vor. Die Antworten sind nicht eindeutig und egal welche Rechte wir künstlichen System einräumen, sie können dramatische Auswirkungen auf die Menschheit haben. Kommt der angerichtete Schaden von den Menschen oder KIs? Oder wie gehen wir damit um, wenn zukünftig die großen Fortschritte und Verbesserungen der menschlichen Existenz von Robotern und KI ohne uns vorgenommen werden? Sind wir Menschen überhaupt bereit, damit umzugehen?


