Künstliche Intelligenz wird uns töten! Glaubt man der ungewöhnlichen Allianz von bekannten Wissenschaftlern, Philosophen und Unternehmensgründern, dann stellt künstliche Intelligenz die größte Gefahr für die Menschheit seit der Kernkraft dar. Stephen Hawking warnte noch vor seinem Tod vor den Gefahren. Nick Bostrom, Philosophieprofessor in Oxford und Autor des meinungsbildenden Werkes Superintelligenz bringt eine Reihe von Beispielen, anhand derer er die Gefahren künstlicher Intelligenz aufzeigt. Selbst Elon Musk, Chef von Tesla und SpaceX, ansonsten kein Feind von neuen Technologien, warnt eindringlich davor. Max Tegmark, Physiker, KI-Forscher und Mitgründer der Asilomar-Konferenz zu KI, zählt in seinem Buch Leben 3.0 eine Reihe von Szenarien auf, wie sich KI auf die Menschheit auswirken kann, und die überwiegende Zahl der Szenarien ist pessimistisch. Hier sind Tegmarks KI-Nachwirkungsszenarien:
- Libertäres Utopia
- Wohlwollender Diktator
- Egalitäres Utopia
- Torwächter
- Schutzgott
- Versklavter Gott
- Eroberer
- Nachkomme
- Zoowärter
- 1984
- Rückfall
- Selbstzerstörung
Die KI-Skeptiker lassen selbst in ihren Buchtiteln keinen Zweifel daran, wie es ausgehen wird. James Barrat nimmt in „Unsere letzte Erfindung: Künstliche Intelligenz und das Ende der menschlichen Ära“ kein Blatt vor den Mund. Nur: Stimmt denn das so? Oder handelt es sich um eine Überreaktion?
Abschließend kann das nicht beantwortet werden. Künstliche Intelligenz ist nicht die erste Technologie, von der Unheilsverkünder prophezeiten, sie würde uns ins Verderben stürzen. Ich stelle mir die Skeptiker vor, die zum ersten Mal Feuer in Händen von Menschen aus dem eigenen Stamm sahen, und vor den Gefahren warnten. Die sicherlich letzte Iteration war Kernenergie – und das, wie wir nur zu leidvoll erfahren mussten, nicht ganz zu Unrecht.
Wie sich Fortschritt auf Lebewesen auswirken kann, die ihn angestoßen haben, erklärt das Gorilla-Problem anschaulich. Und nein, es handelt sich dabei nicht um den ebenfalls bekannten und so populären Gorilla im Raum, bei der Probanden Basketballspielern zusehen müssen und dabei zählen sollen, wie oft der Ball den Spieler wechselt, und dabei den durch das Bild marschierenden Menschen im Gorillakostüm übersehen.
Wie uns Charles Darwin eindrücklich darlegte, haben Menschen und Menschenaffen dieselben Vorfahren. Wir Menschen sind salopp gesagt ein Ergebnis der biologischen Weiterentwicklung von Gorillas. Aus Gorillas ging eine Spezies hervor, die klüger war und damit Werkzeuge schaffen konnte, die denen von Gorillas überlegen waren. Während die Menschen sich rasch weiterentwickelten, blieben Gorillas technologisch und biologisch betrachtet auf ihrer Entwicklungsstufe stehen.
Und genau das schafft ein Problem für die Gorillas. Menschen haben ihre Intelligenz nicht zum Vorteil aller Arten genutzt, sondern setzen sie ein, um, ob beabsichtigt oder nicht, Gorillas zu töten und auszurotten. Im Hinblick auf die eingangs erwähnten KI-Skeptiker sind deren Befürchtungen berechtigt. Eine technologisch fortgeschrittene Zivilisation wird die weniger entwickelte vernichten.
Mit dem Gorilla-Problem ist vor allem der Kontrollverlust gemeint. Gorillas „haben uns gemacht“; wir Menschen haben nun die Kontrolle übernommen und Gorillas die Kontrolle verloren. Wir „machen“ die KI und verlieren die Kontrolle darüber. Damit KI funktioniert, müssen wir ihr einige Kontrolle abgeben. Nur: Wie viel Kontrolle ist das? Übergeben wir der KI so viel Kontrolle, dass wir von den Kapitänen unseres Schiffes zu Passagieren werden?
Davon sind wir noch weit entfernt, denn das würde voraussetzen, dass solche künstliche Intelligenz weiß, wie man Gesellschaften lenkt, erhält und weiterentwickelt. Und nicht mal wir haben davon wirklich eine Ahnung. Der amerikanische KI-Forscher Stuart Russell ist der Meinung, dass die Philosophie sich bislang zu wenig mit der Unsicherheit in Bezug auf unser Wissen über unsere Ziele beschäftigt habe. Es scheiden sich beispielsweise die Geister, was eine gerechte Gesellschaft ist und wie wir dahin kämen. Zu beiden Themenkomplexen, dem Ziel und den Methoden auf dem Weg dorthin, wissen wir nur wenig.
In der Vergangenheit betrachteten wir bei der Gefahr von Massenvernichtungswaffen vor allem ABC-Waffen – atomare, biologische und chemische, die fähig sind, die Menschheit nachhaltig zu zerstören. In einer Welt, die auf Computer, Software und Maschinen angewiesen ist, kommen neuerdings auch Cyberwaffen hinzu. Virensoftware und KI, die Kraftwerke, Wasserversorgung, Krankenhäuser und andere lebensnotwendige Einrichtungen lahmlegen können, stellen eine neue Art der Bedrohung dar.
Superintelligenz, die uns dominieren oder sogar ausrotten wird, ist immer ein guter Stoff für einen Film oder einen Roman. Wir lieben gute Geschichten, aber ob KI uns Menschen zur Geschichte machen, ist eine andere Frage, die wir heute nicht beantworten können.
Dieser Artikel ist auch auf Englisch erschienen.
Ein Gedanke zu “Das Gorilla-Problem”