Von Desinformation (der absichtlich falschen Information) und Mißinformation (der unabsichtlich falschen Information) haben wir mehr als genug gehört. Auch vom Bullshit, der absichtlich von jemanden vorgebracht wird, dem es aber auch so ziemlich egal ist, was die anderen dann darüber und über ihn denken, haben wir mehr als genug an Dosis in den letzten Jahren erhalten.
Nach dem Bullshit kommt dank KI nun das, was wir bislang noch euphemistisch als Halluzination beschrieben haben und nun „Botshit“ nennen. Und der unterscheidet sich gleich in mehreren Aspekten vom Bullshit. Denn erstens erzeugt ihn die KI, der es nicht mehr egal sein kann, was die Leute darüber und die KI selbst denken, und zweitens trägt ihn die KI auch noch mit einer Überzeugung vor, die ihresgleichen sucht.
Die wissenschaftlichere Definition von Botshit wird in der Studie Beware of Botshit: How to manage the epistemic risks of generative Chatbots (Vorsicht vor Botshit: Wie man die epistemischen Risiken von generativen Chatbots beherrscht) vorgenommen:
Chatbots können kohärent klingende, aber ungenaue oder erfundene Inhalte produzieren, die als „Halluzinationen“ bezeichnet werden. Wenn Menschen diese unwahren Inhalte für Aufgaben verwenden, werden sie zu dem, was wir ‚Botshit‘ nennen
Die Studienautoren aus Kanada, Italien und Großbritannien stellen dabei die Definition, die Typen und die daraus gewonnen Erkenntnisse zwischen Bullshit und Botshit gegenüber:
| Bullshit | Botshit | |
| Definition | Von Menschen erzeugte Inhalte, die keinen Bezug zur Wahrheit haben Wahrheit, die ein Mensch dann für Kommunikations- und Entscheidungsaufgaben anwendet | Chatbot-generierte Inhalte, die nicht auf der Wahrheit beruhen (Halluzinationen) und dann unkritisch von einem Menschen für Kommunikation und Entscheidungsfindung verwendet werden. |
| Typen | Pseudo-begründeter Bullshit: Aussagen, die tiefgründig und bedeutungsvoll erscheinen Persuasiver Bullshit: Aussagen, die darauf abzielen, zu beeindrucken oder zu überreden Ausweichendes Bullshit: Aussagen, die die Wahrheit strategisch umgehen Sozialer Bullshit: Aussagen, die necken, übertreiben, scherzen oder trollen | Intrinsischer Botshit: die menschliche Anwendung einer Chatbot-Antwort, die den Trainingsdaten des Chatbots widerspricht Extrinsischer Botshit: die menschliche Anwendung einer Chatbot-Antwort, die nicht durch die Trainingsdaten des Chatbots als wahr oder falsch verifiziert werden kann |
| Erkenntnisse | Menschen erzeugen und nutzen mit größerer Wahrscheinlichkeit Bullshit: – Je unintelligenter, unehrlicher und unaufrichtiger sie sind – Die Erwartungen an sie, eine Meinung zu haben sind hoch, und sie erwarten, dass sie damit durchkommen – Wenn ihre Chefs häufig Blödsinn von sich geben Menschen glauben und verbreiten mit größerer Wahrscheinlichkeit Bullshit: – Wenn sie eine geringe Fähigkeit zum analytischen Denken haben – Wenn sie glauben, dass er von einem Wissenschaftler kommt – Wenn sie ansprechend ist, mit bestehenden Überzeugungen übereinstimmt und glaubwürdig erscheint | Chatbots sind eher in der Lage Halluzinationen für den Menschen zu nutzen und in Botshit verwandeln, wenn folgendes zutrifft: – Datenerfassung, Vorverarbeitung und Probleme bei der Tokenisierung begrenzen den faktischen Wissensabgleich zwischen den Trainingsdaten und der erwünschten Antwort – Zweideutige Aufforderungen führen den Chatbot in die Irre – Probleme mit dem Training und der Modellierung des LLM-Transformators – Probleme mit Feinabstimmungsbemühungen, die auf der Unsicherheit bei der Wahrheit beruhen |
Unter welchen Umständen eine Nachprüfung der präsentierten Ergebnisse von Chatbots nach Botshit ist, wird in einer Matrix dargestellt:
| Wichtig | Authentifizierte Chatbot-Arbeit Nutzer stellen Chatbots skeptisch Aufgaben und überprüfen dann die Antworten sorgfältig auf sachliche Richtigkeit, logische Kohärenz und Wahrheitsgehalt überprüfen. Beispiele: rechtliche, sicherheitstechnische und budgetäre Aufgaben. | Automatisierte Chatbot-Arbeit Benutzer weisen Chatbots systematisch Routine- und Standardaufgaben zu und nutzen dann die Antworten für eine effiziente und losgelöste Ausführung. Beispiele: Aufgaben zur Bewertung und Auswahl von Bewerbungen. |
| Unwichtig | Erweiterte Chatbot-Arbeit Benutzer fordern Chatbots offen auf, Ideen und Konzepte zu generieren, und bewerten, organisieren, kombinieren und wählen dann aus den generierten Antworten aus. Beispiele: Brainstorming und Aufgaben zur Ideengenerierung. | Autonome Chatbot-Arbeit Benutzer delegieren selektiv Aufgaben an Chatbots, die über eine entsprechende Ausbildung und Fachkenntnisse verfügen, und lassen die Chatbots dann lernen und sich anpassen. Beispiele: Support- und Assistenzaufgaben. |
| Schwer verifizierbar | Leicht verifizierbar |
Diese Definition, Aufschlüsselung und Kategorisierung soll Anwendern und Entwicklern von generativen Text-KIs dabei helfen, die Aussagen der Chatbots besser einzuordnen und dabei verstehen, wo es kritisch wird, nochmals nachzuprüfen und entsprechende Prüfmechanismen in autonomen KI-Assistenten einzubauen. Die Autoren haben dazu noch eine übersichtlichere Präsentation vorbereitet, die hier betrachtet werden kann:

Wer noch tiefer in generative KI eintauchen will,
dem/der sei mein neuestes Buch ans Herz gelegt:
Kreative Intelligenz: Wie ChatGPT und Co die Welt verändern werden.
Erhältlich im Buchhandel, beim Verlag und auf Amazon.
KREATIVE INTELLIGENZ
Über ChatGPT hat man viel gelesen in der letzten Zeit: die künstliche Intelligenz, die ganze Bücher schreiben kann und der bereits jetzt unterstellt wird, Legionen von Autoren, Textern und Übersetzern arbeitslos zu machen. Und ChatGPT ist nicht allein, die KI-Familie wächst beständig. So malt DALL-E Bilder, Face Generator simuliert Gesichter und MusicLM komponiert Musik. Was erleben wir da? Das Ende der Zivilisation oder den Beginn von etwas völlig Neuem? Zukunftsforscher Dr. Mario Herger ordnet die neuesten Entwicklungen aus dem Silicon Valley ein und zeigt auf, welche teils bahnbrechenden Veränderungen unmittelbar vor der Tür stehen.

