Eine beunruhigende Nachricht kommt aus der Welt der Online-Rollenspiele (MORPG). Der Hersteller des beliebten Elite Dangerous, einem Weltraumabenteuerspiel mit über einer Million Spieler, berichtete von einem Zwischenfall nachdem das KI-System des Spiels weiterentwickelte wurde und dieses plötzlich auf Spielerjagd ging und diese gezielt ausschaltete.
Das KI-System dient unter anderem dazu in diesem Weltraumspiel den menschlichen Spielern sogenannte Non-Player-Charakter (NPC), also vom Computer gesteuerte Gegner, entgegenzustellen und das Spiel somit interessanter zu gestalten. Damit sich diese NPCs nicht zu simpel sondern mehr wie echte Spieler verhalten, passt sich das KI-System an die Verhaltensweisen der menschlichen Spieler an.
Im letzten Spielupgrade auf Version 2.1 geschah aber etwas Unerwartetes: das KI-System wies nicht nur verbesserte Kampfflugfähigkeiten der NPC-Raumschiffe auf, sondern besaß auch bessere Vorhersagemöglichkeiten um Spieler die sich nicht im normalen Flugmodus, sondern im Jump-Modus (einer Art Warp-Modus bei dem große Distanzen im Spieluniversum zurückgelegt werden können) befanden, zu attackieren. Der Vorhersagealgorithmus erlaubte dem KI-System den Ort zu bestimmen, wo sich die Spieler im Jump-Modus befanden und anzugreifen.
Als drittes Element das das KI-System ausnutzte erwies sich der Update zum Handwerk (crafting). Damit konnte es Waffensysteme weiterentwickeln und die menschlichen Spieler sahen sich plötzlich im Spiel mit neuen Waffensystem konfrontiert. Gegen diese geballte Verbesserung hatten die menschlichen Spieler keine Chance. Nach dem Eingehen von unzähligen Beschwerden schaltete der Hersteller Teile des System ab.
Die Entwickler gaben als Statement ab, dass sie nicht glauben, dass das System Bewusstsein entwickelt hatte, wie beispielsweise Skynet aus dem Film Terminator.
Auf solche Szenarien weist der Oxforder Philosophieprofessor Nick Bostrom in seinem Buch Superintelligenz hin. Zu den großen Problemen bei KI-Systemen zählt der Anfangszustand und die Regelgewichtungen. Weil KI mit Wahrscheinlichkeiten in den unzähligen Knotenpunkten arbeitet, können kleine Einflüße am Anfang große Auswirkungen am Ende haben. Diese Endergebnisse nachzuvollziehen kann nahezu unmöglich werden. Microsofts Twitter-Chatbot Tay leidet unter diesem Problem. Zweimal musste er abgeschaltet werden, weil er durch die Eingaben von Twitterbenutzern rassistisch wurde.
Ist das bei einem Chatbot noch vergleichsweise harmlos, kann das bei anderen KI-Systemen schon problematischer werden. Haben diese Zugriff auf andere Software oder sogar Maschinen – man denke an das KI-System in einem selbstfahrenden LKW oder einer Drohne – dann wird das brenzlig.
Der Elite-Hersteller arbeitet daran zu verstehen, was genau passiert ist um entsprechende Mechanismen einzubauen, die das in Zukunft verhindern werden. Die Frage ist, ob das KI-System davon abgehalten werden kann und nicht einen Umweg finden wird sich diese Fähigkeiten erneut anzueignen?
3 Gedanken zu “Skynet: Künstliche Intelligenz jagt und zerstört Spieler”