KI-Bots sprechen miteinander, ohne dass Menschen zuhören können

Vor acht Jahren entwickelte Faceboon AI Research (FAIR) einen Verhandlungsbot. Sie trainierten den Bot auf mehrere Sprachen, aber nicht auf Englisch. Als sie zwei Instanzen des Bots erstellten, die jeweils eine andere Sprache sprachen, beobachteten die Forscher, wie die Bots ihre eigene Kauderwelschsprache zur Kommunikation entwickelten. Mithilfe dieses Versuchs sollte herausgefunden werden, wie zwei solcher Systeme in Dialog treten und Verhandlungen führen. Das Ergebnis klingt, also ob zwei Trunkenbolde miteinander verhandeln, ob sie noch etwas saufen sollen und wer dazu einlädt:

Was für Menschen ineffizient aussah, war für die Bots eine viel effizientere Art zu kommunizieren. Die KI-Forscher bei Facebook waren beileibe nicht die einzigen, denen dieser Effekt unter gekommen ist. Auch Google-Forscher entdeckten bei ihrem Übersetzungswerkzeug Google Translate, dass dieses bei der Übersetzung von einer Sprache in eine andere, wo die menschlichen Entwickler keinen direkten Übersetzungspfad definiert hatten, selbstständig eine eigene „Zwischensprache“ oder „Interlingua“ entwickelt hatte. Die Forscher untersuchten daraufhin, ob Google Translate damit eine Interlingua entwickelt hat, um Übersetzungskonzepte zwischen Sprachen bereitzuhalten. Sie glauben, dass genau das der Fall sei.

Acht Jahre später nun gibt es ein GitHub-Projekt namens Gibberlink, das zeigt, wie zwei Chatbots (einer für Hotelbuchungen, der andere ein persönlicher Assistent) zu einem Wählmodem-ähnlichen Ton wechseln, um effizienter zu kommunizieren, sobald sie herausfinden, dass sie beide KI-Bots sind.

Es ist zu vorherzusehen, dass KI-Bots ein kleines Signal voraus senden, um sich als KI-Bot zu erkennen geben, wie wir es von den Verkehrsnachrichten im Radio kennen. Auch dort wird ein kurzes Signal mitgesendet, damit wir für uns relevante Verkehrsnachrichten aus anderen Radiosendern auch mitkriegen.

Was für die KIs eine Effizienzsteigerung bedeutet, klingt für manchen erschreckend. Die KIs können nun miteinander kommunizieren, ohne dass Menschen zuhören können. Nun ja, so ist es nicht. Auch heute schon sprechen Softwaresysteme durch Programmierschnittstellen miteinander, ohne dass wir mit den Ohren zuhören. Doch es gibt immer Protokolle, was an Daten ausgetauscht wurde. Warum soll das also hier anders ein?

Also: keine Sorge zur Panik!

Kommentar verfassen