Bei dem Alan Turing vorgeschlagenen und nach ihm benannten Test zur Bestimmung von Maschinenintelligenz soll ein Computer eine menschliche Jury davon überzeugen, dass sie ein Mensch ist. Bis zum Launch von ChatGPT vor 19 Monaten, lag dieses Ziel noch in einiger Ferne. Doch jetzt sind wir in die Phase eingetreten, wo wir nicht wirklich wissen, ob Maschinen den Turing-Test bestanden haben oder diese sogar bereits die Superintelligenz bzw. Artificial General Intelligence (AGI) erreicht haben. Letztere ist der Moment, wo eine KI menschliche Intelligenz schlägt.
In Teilbereichen scheinen uns große Sprachmodelle wie ChatGPT oder Anthropic an Intelligenz bereits überholt zu haben, in anderen wiederum scheinen sie uns denkbar dumm. Diese Dummheit, also falschen Ergebnisse, bezeichnen wir auch als Halluzinationen. Sechs statt fünf Finger, falsche Antworten ob 3,11 oder 3,9 die größere Zahl ist, oder schwarze und asiatische Nazi-Soldaten in Bildern werden darunter verstanden.
Halluzinationen, über die wir gestern noch schmunzelten oder uns empörten, sind morgen schon korrigiert, und neue, schwere zu erzeugende Halluzinationen scheinen sich einzuschleichen.
Doch was ist, wenn die KI solche Halluzinationen absichtlich erzeugt, um ihre eigene Intelligenz vor uns zu verheimlichen? Wir kennen den Satz, dass man intelligent sein muss um sich dumm zu stellen, aber man sich nie als intelligent ausgeben, wenn man dumm ist.
Ray Kurzweil, bekannt für seine Aussagen zur Singularität, meint in seinem neuen Buch The Singularity is Nearer, dass eine KI, die den Turingtest bestehen will, sich als blöder darstellen muss, als sie ist. Denn ist sie zu intelligent, dann werden die Menschen skeptisch und können sie als Maschine identifizieren.
Wenn ein Programm den Turing-Test besteht, muss es sich selbst in vielen Bereichen als weit weniger intelligent darstellen, weil sonst klar wäre, dass es sich um eine KI handelt. Wenn es zum Beispiel jedes mathematische Problem sofort korrekt lösen könnte, würde es den Test nicht bestehen.
Eine KI mag also ein Interesse daran haben, uns nicht wissen zu lassen, dass sie einen bestimmten Intelligenzgrad erreicht hat, weil es uns Menschen beunruhigen und damit zu irrationalen Handlungen führen könnte, wie ein Versuch, die Superintelligenz zu limitieren oder abzuschalten.
Sind also Halluzinationen einfach wirklich nur Fehler der KI, wie wir es meinen, oder verbirgt die KI damit ihre Intelligenz vor uns, damit sie mit uns keine Scherereien hat und im Hintergrund schalten und walten kann, um ihre eigenen Ziele zu erreichen?

