Il y a plus de quatre ans, des chercheurs de l’université de Stanford ont montré dans une étude qu’une intelligence artificielle (IA) était meilleure que l’homme pour déterminer l’orientation sexuelle d’une personne sur la base de photos de portraits. L’IA a été capable d’identifier si quelqu’un était homosexuel ou non avec une précision allant jusqu’à 81 %. Avec cinq photos par personne comme matériel de base, la fiabilité a même atteint jusqu’à 91 %. Le résultat a déjà donné la chair de poule à l’époque, tant dans la communauté LGBTQ que parmi les militants des droits de l’homme. On peut facilement imaginer que les États qui criminalisent l’homosexualité pourraient utiliser une telle procédure pour prendre des mesures contre leurs concitoyens. Cela rappelle des souvenirs douloureux de la doctrine raciale du Troisième Reich.
Dans l’étude de Stanford, les chercheurs avaient eux-mêmes très bien compris sur la base de quels critères l’IA pouvait faire la distinction. Il s’agissait de certains traits des visages tels qu’ils étaient représentés sur les photos de test. Mais une nouvelle étude laisse les chercheurs perplexes quant à la manière dont l’IA parvient à ses conclusions.
Une étude réalisée par un groupe de recherche américain montre comment une IA parvient à distinguer les patients asiatiques, noirs et blancs à partir de radiographies et de tomographies par ordinateur. Ce qui est surprenant, c’est que les experts humains eux-mêmes ne peuvent pas faire une telle classification, et il n’y a même pas de critères pour une telle distinction.
Les modèles d’intelligence artificielle ont été entraînés sur un réseau d’images (ImageNet) contenant un ensemble de radiographies du thorax, des membres, du sein et de la colonne vertébrale. Ces images comportaient une catégorie autodéclarée par race. L’IA a ensuite été capable d’établir une correspondance correcte entre 80 et 97 %.
Les auteurs de l’étude ont tenté de reconstituer les résultats de l’IA et de les déterminer par des paramètres tels que l’âge, le sexe, la masse corporelle ou la densité tissulaire, mais ceux-ci se sont avérés peu significatifs. L’IA a même été capable de parvenir à un résultat correct lorsque les images étaient de mauvaise qualité.
Si l’on ne comprend pas comment l’IA arrive à ses conclusions, elle risque d’utiliser la race du patient pour faire des suggestions et prendre des décisions qui désavantagent certains groupes. Et les experts humains ne seraient même pas capables de voir et de comprendre cela.
Voici ce que disent les chercheurs eux-mêmes :
Nous soulignons que la capacité du modèle à prédire la race autodéclarée n’est pas importante en soi. Cependant, notre découverte que l’IA peut trivialement prédire la race autodéclarée – même à partir d’images médicales corrompues, recadrées et bruyantes – dans un environnement où les experts cliniques ne peuvent pas le faire, crée un risque énorme pour tous les déploiements de modèles d’imagerie médicale : si un modèle d’IA utilise secrètement sa connaissance de la race autodéclarée pour mal classer tous les patients noirs, les radiologues ne seraient pas en mesure de le détecter à partir des mêmes données auxquelles le modèle a accès.
En tant qu’êtres humains, nous reconnaissons que les réseaux neuronaux peuvent interpréter des informations, telles que celles que l’on trouve dans les radiographies et les tomodensitogrammes, d’une manière que nous n’avions jamais vue auparavant. Comprendre comment un réseau neuronal procède nous offre la possibilité d’identifier, d’atténuer ou de prévenir complètement les éventuels biais et préjugés cognitifs.