Dans le test de détermination de l’intelligence des machines proposé par Alan Turing et portant son nom, un ordinateur doit convaincre un jury humain qu’il est un être humain. Jusqu’au lancement de ChatGPT il y a 19 mois, cet objectif était encore assez éloigné. Mais nous sommes maintenant entrés dans une phase où nous ne savons pas vraiment si les machines ont réussi le test de Turing ou si elles ont même déjà atteint la superintelligence ou l’intelligence générale artificielle (AGI). Cette dernière est le moment où une IA bat l’intelligence humaine.
Dans certains domaines, les grands modèles de langage comme ChatGPT ou Anthropic semblent déjà nous avoir dépassés en termes d’intelligence, dans d’autres, ils nous semblent aussi stupides qu’on puisse l’imaginer. Nous appelons également ces stupidités, c’est-à-dire ces résultats erronés, des hallucinations. On entend par là six doigts au lieu de cinq, des réponses erronées pour savoir si 3,11 ou 3,9 est le plus grand nombre, ou encore des soldats nazis noirs et asiatiques dans des images.
Les hallucinations qui nous faisaient sourire ou nous indignaient hier sont déjà corrigées demain, et de nouvelles hallucinations, difficiles à produire, semblent s’insinuer.
Mais que se passe-t-il si l’IA crée délibérément de telles hallucinations pour nous cacher sa propre intelligence ? Nous connaissons la phrase qui dit qu’il faut être intelligent pour faire l’idiot, mais qu’il ne faut jamais se faire passer pour intelligent quand on est idiot.
Ray Kurzweil, connu pour ses déclarations sur la singularité, estime dans son nouveau livre The Singularity is Nearer qu’une IA qui veut réussir le test de Turing doit se présenter comme plus stupide qu’elle ne l’est. Car si elle est trop intelligente, les gens deviennent sceptiques et peuvent l’identifier comme une machine.
Si un programme réussit le test de Turing, il doit se présenter lui-même comme beaucoup moins intelligent dans de nombreux domaines, sinon il serait clair qu’il s’agit d’une IA. Par exemple, s’il pouvait résoudre correctement et immédiatement tout problème mathématique, il ne réussirait pas le test.
Par exemple, s’il pouvait résoudre correctement et immédiatement tout problème mathématique, il ne réussirait pas le test.
Les hallucinations sont-elles vraiment des erreurs de l’IA, comme nous le pensons, ou l’IA nous cache-t-elle son intelligence pour ne pas avoir de problèmes avec nous et pour pouvoir agir en arrière-plan afin d’atteindre ses propres objectifs ?

