Computertomographie (C) Wikipedia

Röntgenbilder verraten KI die menschliche Rasse und Experten wissen nicht wie

Vor mehr als vier Jahren zeigten Forscher der Stanford University in einer Studie, dass eine künstliche Intelligenz (KI) anhand von Porträtfotos die sexuelle Orientierung einer Person besser als Menschen bestimmen konnte. Die KI war in der Lage, mit bis zu 81 Prozent Genauigkeit zu erkennen, ob jemand homosexuell war oder nicht. Mit fünf Bildern pro Person als Ausgangsmaterial stieg die Zuverlässigkeit sogar auf bis zu 91 Prozent. Das Ergebnis führte schon damals zu Gänsehaut sowohl in der LGBTQ-Community, als auch bei Menschenrechtsaktivisten. Man kann sich leicht vorstellen, dass Staaten, die Homosexualität unter Strafe stellen, solch ein Verfahren anwenden könnten, um gegen ihre Mitbürger vorzugehen. Das weckt schmerzhafte Erinnerung an die Rassenlehre des Dritten Reichs.

In der Stanford-Studie hatten die Forscher selbst noch recht gut verstanden, aufgrund welcher Kriterien die KI die Unterscheidung treffen konnte. Es handelte sich dabei um gewisse Merkmale in den Gesichtern, wie sie auf den Testfotos abgebildet waren. Doch eine neue Studie lässt die Froscher rätseln, wie die KI zu ihren Schlüssen kommt.

Eine Studie einer amerikanischen Forschergruppe zeigt, wie es einer KI gelingt, aus Röntgen- und Computertomographiebildern asiatische, schwarze und weiße Patienten zu unterscheiden. Das überraschende dabei ist, dass menschliche Experten selbst keine solche Klassifizierung treffen können, ja es bislang nicht mal Kriterien zu einer solchen Unterscheidung gibt.

Die KI-Modelle wurden dabei an einem ImageNet mit einem Datensatz von Röntgenbildern von Brustkorb, Gliedmaßen, Brust und und Wirbelsäule trainiert. Diese Bilder hatten eine von den Patienten selbstberichtete Kategorie nach Rassenzugehörigkeit. Die KI war dann in der Lage zwischen 80 und 97 Prozent die richtige Zuordnung zu treffen.

Die Studienautoren versuchten die Ergebnisse der KI nachzuvollziehen und durch Parameter wie Alter, Geschlecht, Körpermasse oder Gewebedichte zu bestimmen, doch stellten sich diese als wenig aussagekräftig heraus. Die KI war sogar in der Lage zu einem richtigen Ergebnis zu kommen, wenn die Bilder in schlechter Qualität vorlagen.

Die Studienautoren selbst sind alarmiert. Ohne zu verstehen, wie die KI zu ihren Aussagen kommt besteht die Gefahr, dass die KI die Rasse des Patienten zu Vorschlägen und Entscheidungen Menschen vorliegen könnten, die bestimmte Gruppen benachteiligen. Und die menschlichen Experten würden das nicht mal mitkriegen und nachvollziehen können.

Hier ist was die Forscher selbst sagten:

Wir betonen, dass die Fähigkeit des Modells zur Vorhersage der selbstberichteten Rasse an sich nicht von Bedeutung ist. Unsere Erkenntnisse, dass KI die selbstberichtete Rasse trivial vorhersagen kann – sogar aus beschädigten, beschnittenen und verrauschten medizinischen Bildern – in einer Umgebung, in der klinische Experten dies nicht können, schafft jedoch ein enormes Risiko für alle Modelleinsätze in der medizinischen Bildgebung: Wenn ein KI-Modell heimlich sein Wissen über die selbstberichtete Rasse nutzt, um alle schwarzen Patienten falsch zu klassifizieren, wären Radiologen nicht in der Lage, dies anhand derselben Daten zu erkennen, auf die das Modell Zugriff hat.

Als Menschen erkennen wir, dass neuronale Netzwerke Informationen, wie sie in Röntgen- und Computertomographeaufnahmen vorliegen, in einer Weise interpretieren können, wie wir als Menschen sie bisher nicht gesehen haben. Zu verstehen, wie ein neuronales Netzwerk das schafft bietet uns die Möglichkeit mögliche kognitive Verzerrungen und Benachteiligungen zu erkennen, zu mildern oder gänzlich zu verhindern.

2 Gedanken zu “Röntgenbilder verraten KI die menschliche Rasse und Experten wissen nicht wie

  1. LIeber Mario, spannender Beitrag! Nur… es gibt keine Rassen. Das ist seit mehreren Jahren wissenschaftlich eindeutig festgestellt. Selbst wenn die KI-Forscher den Begriff verwenden, fände ich es angemessen(er), wenn Du ihn nicht verwendest oder aber zumindest darauf hinweist, dass er irreführend ist. Und das hat nichts mit Befindlichkeiten, über die sich – wie bei gendergerechter Sprache – ggf. streiten ließe o.ä. zu tun. Es ist schlicht sachlich falsch. Ein lesenswerter Artikel dazu findet sich hier: https://bit.ly/37G8Psa .
    Viele Grüße Peter

    1. Die verlinkte Studie selbst spricht von „Rasse“ (race) und „Rassenidentität“ (race identity). Welches andere Wort könnte ich Deiner Meinung nach hier verwenden?

      Dazu muss man auch sagen, dass die USA sehr wohl Rasse als Begriff und Einteilung verwenden, in Deutschland der Begriff aber anders gesehen wird.

Kommentar verfassen