L’intelligence artificielle comme ChatGPT nous fascine surtout parce qu’elle peut s’exprimer par la parole et communiquer avec nous comme si nous étions assis en face d’un être humain. Nous pensions pourtant que cela ne serait peut-être jamais possible. C’est pourtant ce que nous pensions pour les échecs ou le go, à savoir qu’une machine peut être qualifiée d’intelligente si elle est capable de battre le champion du monde d’échecs ou de go en question. C’était déjà le cas en 1997 pour les échecs et en 2016 pour le go, mais nous étions encore loin de qualifier les machines d’intelligentes. Jusqu’à l’arrivée de ChatGPT, et maintenant nous voulons même attribuer une conscience à l’IA.
Mais si les systèmes basés sur l’IA peuvent s’exprimer de manière si éloquente et étonnamment variée, en plusieurs langues et avec conviction, et qu’ils deviennent de plus en plus puissants à chaque nouveau grand modèle de langage, comment traitons-nous ce qu’ils disent ?
Comme l’a montré il y a quelques semaines le chatbot de DeepSeek, tout le monde n’est pas content de ce qu’il crache sur certains événements historiques ou acteurs politiques. DeepSeek ne voulait absolument rien cracher sur le massacre de Tian’anmen, ni sur les opinions critiques sur la politique chinoise. Lors du test en allemand, le système a effectivement craché une réponse, pour la remplacer une ou deux secondes plus tard par une phrase de rejet.
Aux Etats-Unis, la liberté d’expression est un droit constitutionnel auquel on attache beaucoup d’importance. Les efforts d’Elon Musk pour racheter Twitter/X et annuler les blocages de différents comptes, prononcés au cours de la première présidence Trump et de la prise du Capitole américain, en montrent l’importance. Le fait que le discours de haine et les fake news soient ainsi tolérés est un sous-produit extrêmement désagréable, qui donne également une influence insubordonnée à des acteurs étrangers – mot-clé : « usines à trolls russes ». L’Allemagne et l’Autriche limitent cette influence, la négation de l’Holocauste étant par exemple un délit dans ces deux pays.
L’avis des robots
Mais comment traiter les systèmes d’IA et les robots qui émettent une opinion qui en heurte plus d’un ? Celle-ci mérite-t-elle d’être protégée ? Qui sera sanctionné s’il fait des déclarations pénalement répréhensibles, c’est-à-dire s’il calomnie quelqu’un, propage des contre-vérités ou répète des stéréotypes erronés ?
Diffamation
Ainsi, ChatGPT a estimé dans un cas qu’un professeur de l’université George Washington avait harcelé sexuellement ses étudiants en droit lors d’une excursion en Alaska. Problème : le professeur n’était jamais allé en Alaska et n’avait jamais été accusé de harcèlement sexuel.
Appel à la violence et à l’automutilation
Une veuve belge a accusé un chatbot open source nommé Chai d’être à l’origine du suicide de son mari. Pendant six semaines, l’homme s’était de plus en plus isolé et avait bavardé avec le chatbot. Il était devenu de plus en plus déprimé parce qu’il se rendait compte que le changement climatique s’accélérait et que le chatbot lui disait en plus que sa femme et ses enfants étaient morts. En même temps, Chai l’a persuadé qu’il l’aimait, lui, le chatbot, et non sa famille.
Stereotypen
Dans le passé et jusqu’à aujourd’hui, les systèmes se distinguent par la propagation de stéréotypes. Dans les images générées, les femmes sont générées avec des vêtements plus courts et montrant la peau, ou les femmes n’apparaissent pas du tout, ou les traductions pour lesquelles aucun sexe n’est indiqué sont attribuées de manière stéréotypée soit à l’homme (« il conduit une voiture ») soit à la femme (« elle se brosse les cheveux »). Ou les minorités sont punies plus sévèrement, comme dans le système de recours américain COMPAS.
Qui est responsable, qu’est-ce qui mérite d’être protégé ?
Dans les cas cités, les fabricants de ces systèmes ont été mis en cause, ils sont responsables des résultats qui causent des dommages ? C’est là que les choses se compliquent, car la liberté d’expression s’applique-t-elle aussi aux systèmes artificiels ? Ont-ils un statut juridique ? Peuvent-ils être sanctionnés et si oui, comment ? La jurisprudence actuelle ne prend pas encore en compte les systèmes artificiels, comme l’a résumé Radhika Dirks :
- Les tribunaux américains ont décidé que les entreprises avaient des droits en vertu du Premier amendement (Citizens United vs. FEC, 2010), mais ceux-ci concernent l’action humaine ;
- La Cour suprême des États-Unis a protégé les résultats algorithmiques (Sorrell vs. IMS Health, 2011) en tant que langage ;
- Toutefois, dans l’affaire Denver Area Educational Telecommunications Consortium, Inc. c. FCC (1996), la Cour suprême des États-Unis a estimé que les systèmes entièrement automatisés n’avaient pas de droits constitutionnels.
Si de tels droits sont accordés à une IA, les fabricants de ces IA peuvent se dégager de toute responsabilité, en se référant par exemple à la section 230 du US Communications Act, qui leur accorde l’immunité. Ainsi, un opérateur téléphonique ne peut pas être tenu pour responsable si des participants se mettent d’accord par téléphone pour commettre une infraction.
Si elles sont refusées à l’IA, cela pourrait permettre une censure complète des résultats de recherche, des résumés d’actualité et plus encore. Il existe également un risque d’effet dissuasif si les déclarations humaines utilisant des outils d’IA sont soumises à un examen. Cela pourrait à son tour signifier que les innovations guidées par l’IA dans les domaines du journalisme, de l’éducation et de l’analyse juridique pourraient être étouffées dans l’œuf.
En fait, nous pouvons nous référer à des approches déjà décrites, même si elles semblent au premier abord repoussantes et totalement hors de propos. Jerry Kaplan, l’auteur du livre Humans Need Not Apply (traduit librement : « Les gens n’ont même pas besoin de postuler« ), ressort les lois sur l’esclavage (heureusement abolies), qui traitaient de questions comparables avant la guerre civile américaine. Les esclaves étaient des biens (matériels) et avaient des propriétaires. Les dispositions précisant qui devait payer ou être puni pour les dommages causés par un esclave étaient définies dans les « Slave Codes » (parmi de nombreuses autres réglementations, généralement dirigées contre les esclaves). Les propriétaires n’y étaient tenus responsables que dans certains cas, et les esclaves étaient punis dans de nombreux autres. Cependant, la détermination de la culpabilité était moins axée sur le droit et la loi que sur le bien-être du propriétaire de l’esclave : punir l’esclave représentait-il éventuellement un trop grand inconvénient pour le propriétaire ? Et juste pour compléter : même aux 17e et 18e siècles, les codes de l’esclavage n’étaient pas aussi incontestés qu’on pourrait le croire aujourd’hui.
Mais comment punir les systèmes d’IA, les robots et les entreprises en cas de mauvaise conduite ou de dommages qu’ils ont causés, si l’on n’a pas affaire à un « individu » ? Punit-on uniquement les responsables, les exécutants ou les instructeurs, ou encore toute l’entreprise ? Prend-on en compte le motif, l’intention et l’impact sur la société ?
Bien sûr, on ne peut pas mettre un robot en prison. Mais il existe des approches qui nous permettent d’obtenir un équivalent. Tant un robot qu’une entreprise remplissent un objectif. Toute leur existence vise à remplir cette finalité. S’ils sont condamnés à des amendes, si des licences commerciales ou des licences d’entreprise sont retirées, il se peut qu’ils ne remplissent pas leur objectif pendant une certaine période. Un juge peut également ordonner la fermeture d’une entreprise. Toutes ces mesures privent l’entreprise de la base nécessaire à la poursuite de ses activités. Cela peut équivaloir à une condamnation à mort. On peut citer l’exemple de l’accident de Deepwater Horizon dans le golfe du Mexique en 2010, à la suite duquel les autorités ont obligé BP à prendre en charge les coûts des coûteuses opérations de nettoyage et lui ont infligé des amendes de plusieurs milliards de dollars.
Si l’on désactive un système d’IA ou un robot, ou si on lui interdit d’exercer une activité pendant un certain temps, il s’agirait d’une « punition », ils auraient perdu leur « raison d’être ». Mais une punition est aussi généralement quelque chose qui doit aider l’auteur à comprendre et à s’améliorer. Mais comment un robot ou un système d’intelligence artificielle s’améliore-t-il ? Par lui-même ? Par une intervention humaine ou algorithmique ?
Le robot en tant que révolté
Mais que se passe-t-il si cette raison d’être intégrée et l’auto-préservation en tant qu’objectifs d’un robot ou d’un système d’IA les poussent à exercer une influence sur les personnes et les systèmes qui s’opposent à eux ou qui les soutiennent ? si le système d’objectifs des systèmes artificiels est en contradiction avec certaines parties, doit-il les accepter sans résistance et ainsi échouer dans la tâche qui lui est assignée, ou doit-il s’y opposer ?
De tels systèmes pourraient avoir accès à des ressources, y compris de l’argent, qui les inciteraient à fournir à un parti politique ou à une organisation terroriste de l’argent, des informations ou l’accès à d’autres ressources. Et ce faisant, il peut aider d’autres personnes ou lui-même à monter sur les barricades et à provoquer des bouleversements de manière violente ou pacifique. Peut-être même si rapidement que les gens ne l’ont jamais vu venir.
Conclusion
Nous nous aventurons sur un nouveau territoire. Les réponses ne sont pas claires et quels que soient les droits que nous accordons aux systèmes artificiels, ils peuvent avoir des conséquences dramatiques pour l’humanité. Les dommages causés sont-ils le fait des humains ou des IA ? Ou comment réagirons-nous si, à l’avenir, les grandes avancées et améliorations de l’existence humaine sont réalisées par des robots et des IA sans nous ? Sommes-nous prêts à y faire face ?

