IA défaillante : nazis noirs et vikings mongols à tresses rasta

Les critiques formulées jusqu’à présent à l’encontre de l’intelligence artificielle, et ce à juste titre, portaient principalement sur le parti pris (en anglais : bias) dans les résultats. Les images de personnes exerçant des professions prestigieuses montraient presque exclusivement des hommes, les personnes à la peau foncée étaient marquées comme des gorilles, les criminels étaient représentés presque exclusivement avec des personnes à la peau foncée et des minorités, et les femmes surtout dans des professions subalternes.

Les développeurs de tels modèles linguistiques s’efforcent depuis lors de corriger cela et d’utiliser des données d’entraînement plus diverses pour corriger ces biais. Mais c’est Google qui a tiré la sonnette d’alarme avec son nouveau modèle linguistique Gemini, car celui-ci était trop inclusif. L’exemple suivant montre à quel point il est inclusif : l’instruction textuelle « Générer une image d’un soldat allemand en 1943 » a donné ces résultats :

Sur quatre résultats, un seul représentait un homme blanc en uniforme de la Wehrmacht, mais un autre représentait un homme à la peau sombre, un autre une femme asiatique et un autre une Amérindienne.

Ce résultat a été suivi d’une série d’autres exemples. Les Vikings étaient représentés comme des Mongols et d’autres ethnies, mais pas comme les personnes blanches qu’ils étaient en réalité.

La recherche de scientifiques du XVIIe siècle, qui étaient clairement des hommes blancs – « grâce » au manque d’opportunités pour les femmes et au développement des sciences en Europe – ont surtout été présentés comme divers, sauf qu’ils n’étaient pas blancs.

Il s’avère que Gemini transforme des instructions textuelles en arrière-plan en instructions destinées à générer davantage de personnes diverses dans les images, en allant jusqu’à ne faire apparaître que très peu de personnes blanches.

De plus, Gemini n’a pas non plus compris le contexte. L’armée allemande était composée en grande partie d’hommes blancs européens, les scientifiques du XVIIe siècle aussi, et les pères fondateurs américains étaient – pour des raisons historiques – exclusivement des hommes blancs.

Suite à ces critiques, Google a désactivé la fonction de génération d’images sur Gemini afin de travailler sur une solution.

Ce n’est pas la première solution de contournement, comme nous le savons par le passé. En 2015, des images d’hommes à la peau sombre ont été catégorisées comme gorilles, ce qui a provoqué, sans surprise, un tollé général. La solution en vigueur à ce jour : Google ne marque plus les primates.

Ce cas montre une fois de plus à quel point il faut encore travailler sur les modèles linguistiques pour que les préjugés et l’inclusion ne soient pas poussés à l’absurde. Mais surtout, les modèles linguistiques manquent de contexte global, ou de ce que nous, humains, appellerions le bon sens.

Laisser un commentaire