Les stéréotypes de genre dans l’IA de traduction de Google.

Le biais des données causé par des données mal traitées apparaît de plus en plus comme un problème important dans le développement de l’intelligence artificielle. Il est important de savoir que l’IA d’aujourd’hui est alimentée par des millions et des millions de données grâce à l’apprentissage automatique. La provenance de ces données, ainsi que les personnes qui les sélectionnent et les compilent, sont essentielles dans ce processus. Si un tel ensemble de données, censé reconnaître des visages, comporte principalement des visages à la peau claire ou plus d’hommes que de femmes, ces visages sont bien reconnus, mais l’IA commet alors plus d’erreurs avec les femmes ou les personnes à la peau foncée, ou même en combinaison avec la reconnaissance faciale des femmes à la peau foncée.

Si cela n’est pas si tragique avec la reconnaissance faciale, avec d’autres systèmes, cela peut être une question de vie ou de mort, de prison ou de liberté, de crédit ou de rejet. Un autre écueil est que les stéréotypes humains sont ancrés et approfondis dans le système. Anna Kholina, une Russe vivant à Helsinki, a découvert un tel cas. Elle a demandé à Google Translate, un logiciel de traduction en ligne basé sur l’IA, de traduire quelques phrases du finnois, langue neutre, vers l’anglais. Le résultat reflète les stéréotypes de genre. Les phrases que le système associait à des activités typiquement féminines ont été traduites avec le cas féminin, tandis que celles qui concernaient des activités typiquement masculines ont été traduites avec le cas masculin.

Ces traductions posent un problème lorsqu’il s’agit d’éradiquer les stéréotypes de genre. Le fait que les femmes aient le droit de voter, d’étudier et d’exercer des professions, et que même des rôles qui n’étaient ouverts qu’aux hommes jusqu’à récemment puissent être exercés comme une évidence, ne va pas de soi et a également beaucoup à voir avec le langage et la mise en évidence des opportunités.

Continuer de lire « Les stéréotypes de genre dans l’IA de traduction de Google. »