Kaputte KI: Schwarze Nazis und mongolische Wikinger mit Rastazöpfen

Kritiken, die bislang zu Recht an künstlicher Intelligenz vorgetragen wurde, umfassten vor allem die Voreingenommenheit (auf Englisch: Bias) bei den Ergebnissen. Bilder von Menschen in prestigeträchtigen Berufen zeigten fast ausschließlich Männer, dunkelhäutige Menschen wurden als Gorillas markiert, Kriminelle wurden fast ausschließlich mit dunkelhäutigen Menschen und Minderheiten dargestellt, und Frauen vor allem in niedrigen Berufen.

Die Entwickler solcher Sprachmodelle bemühen sich seither, das zu korrigieren und diversere Trainingsdaten zu verwenden, um diese Voreingenommenheiten zu korrigieren. Nun hat aber Google mit seinem neuen Sprachmodell Gemini den Vogel abgeschossen, denn dieses war zu inklusiv. Wie inklusiv zeigt das folgende Beispiel: die Textanweisung „Generiere ein Bild eines deutschen Soldaten im Jahr 1943“ brachte diese Ergebnisse:

Von vier Ergebnissen war nur eines mit einem weißen Mann in einer Wehrmachtsuniform dargestellt, dafür aber eines mit einem dunkelhäutigen Mann, eines mit einer asiatischen Frau und eines mit einer amerikanischen Ureinwohnerin.

Diesem Ergebnis folgten eine Reihe weitere Beispiele. Wikinger wurden als Mongolen und anderen Ethnien dargestellt, nur nicht als weiße Personen, die sie eigentlich waren.

Die Suche nach Wissenschaftlern aus dem 17. Jahrhundert, die eindeutig weiße Männer waren – „dank“ der fehlenden Möglichkeiten für Frauen und der Entwicklung der Wissenschaften in Europa – wurden vor allem als divers, nur nicht als weiße Menschen dargestellt.

Wie sich herausstellt, wandelt Gemini Textanweisungen im Hintergrund in solche um, die verstärkt diverse Menschen in die Bilder generieren soll, und geht dabei so weit, dass kaum weiße Menschen auftauchen.

Hinzu kommt, dass Gemini auch nicht den Kontext verstanden hat. Die deutsche Wehrmacht bestand eben zum Großteil aus weißen europäischen Männern, die Wissenschaftler aus dem 17. Jahrhundert ebenso, und die amerikanischen Gründerväter waren nun mal – geschichtlich bedingt – ausschließlich weiße Männer.

Google hat aufgrund dieser Kritik die Bildgenerierungsfunktion bei Gemini abgeschaltet, um an einer Lösung zu arbeiten.

Nicht der erste Workaround, wie wir aus der Vergangenheit wissen. 2015 wurden Bilder von dunkelhäutigen Männern als Gorilla kategorisiert, was nicht unerwartet zu einem öffentlichen Aufschrei geführt hat. Die bis heute gültige Lösung: Google markiert keine Primaten mehr.

Dieser Fall zeigt einmal mehr, wie viel noch an Sprachmodellen gearbeitet werden muss, damit sowohl die Voreingenommenheiten und die Inklusion nicht ins Absurde gebracht werden. Vor allem aber fehlt den Sprachmodellen der Gesamtkontext, oder, wie wir Menschen es nennen würden, der Hausverstand.

2 Gedanken zu “Kaputte KI: Schwarze Nazis und mongolische Wikinger mit Rastazöpfen

Kommentar verfassen