Apprentissage Automatique et Démocratie

Lorsque Mary Shelley a écrit son roman « Frankenstein » à l’âge de 20 ans, elle a touché une corde sensible de l’époque. Le phénomène de l’électricité, qui faisait frémir les pattes des grenouilles mortes, avait captivé l’imagination des gens. Rétrospectivement, il ne semble guère étonnant que des poètes imaginatifs se soient emparés du phénomène et aient créé un personnage de roman auquel cette force mystérieuse donnerait vie.

Chaque nouvelle technologie nous incite à décrire les systèmes naturels ou la technologie par une autre technologie. Lorsque les machines mécaniques sont entrées dans notre monde, nous avons expliqué les orbites des planètes et des étoiles en termes mécaniques. Avec l’électricité, nous avons comparé le fonctionnement du cerveau. L’internet a été décrit par un sénateur américain en termes de fonctionnement des tuyaux et des fils dans une installation de drainage.

Avec l’intelligence artificielle, c’est une autre technologie qui nous arrive, que les profanes, comme l’électricité à l’époque de Mary Shelley, ne comprennent que très peu et à laquelle on attribue des pouvoirs quasi mythiques. Tout comme le monstre incompris de la Création de Frankenstein était l’incarnation de l’électricité, le menaçant Terminator symbolise l’IA.

Dans le même temps, les principes fondamentaux de l’intelligence artificielle, tels que l’apprentissage automatique, se prêtent à la description d’autres processus. De telles analogies nous permettent parfois de jeter un regard différent sur un fait supposé bien connu. Dans le cas présent, nous pouvons soumettre la démocratie à une telle analogie avec l’IA. Et il s’avère que certaines similitudes sont frappantes. Mais analysons un instant les différents composants de l’IA.

Apprentissage Automatique

Dans l’état actuel de l’apprentissage machine (ML), de grandes quantités de données sont requises comme informations, qui sont filtrées à partir des données par des algorithmes dans les différents nœuds du réseau neuronal, disposés en plusieurs couches et en parallèle, et transmises à d’autres nœuds pour traitement. Une fois tous les nœuds parcourus, le système d’apprentissage automatique produit un résultat, qui est ensuite évalué par des testeurs humains. Chaque évaluation du résultat par des humains sert de retour d’information pour le système, qui ajuste les paramètres des algorithmes des différents nœuds en traitant à nouveau ces données et les nouvelles, améliorant ainsi le résultat étape par étape.

Avec cette approche, de grandes quantités de données (informations) sont maintenant nécessaires pour ajuster le système de manière appropriée, ou comme on l’appelle, l’entraîner. Elle est donc bien adaptée lorsque de grandes quantités de données sont déjà disponibles, comme de grandes quantités d’images de chats sur Internet, à condition que l’on veuille entraîner le système à reconnaître les chats, ou que l’on puisse les générer, par exemple en conduisant des véhicules de test autonomes sur des pistes d’essai ou sur des routes publiques dans un trafic régulier.

Pour évaluer la qualité de l’entraînement du système d’apprentissage automatique, on utilise, par exemple, le taux de reconnaissance des objets dans les images. Dans quel pourcentage de cas l’IA a-t-elle correctement reconnu le chat ? Et comment ce taux de reconnaissance se compare-t-il aux valeurs de comparaison humaines ? Les experts en IA doivent éviter plusieurs écueils lors de la formation du système.

Cela commence par les données, qui doivent être sélectionnées et traitées de manière appropriée pour reconnaître toutes les éventualités à un taux aussi élevé. Par exemple, s’il y a un nombre disproportionné de visages à la peau claire dans les données d’entraînement pour la reconnaissance des visages, le taux de reconnaissance des visages à la peau foncée est généralement inférieur à la moyenne. Dans le secteur, on parle de « partialité ». Le terme n’est pas choisi au hasard, car il est utilisé dans la recherche en psychologie et en comportement pour désigner différents types de biais cognitifs. Nos propres défauts de pensée, de perception, de mémoire et de jugement se retrouvent automatiquement et, pour beaucoup, inconsciemment dans les données avec lesquelles les systèmes d’IA sont formés.

Wenn Affen von Affen lernen

Wenn Affen von Affen lernen

Qu’est-ce que l’intelligence au sens artificiel et humain ?

Ce livre peut être acheté auprès de l’éditeur, d’Amazon ou des librairies.

La mauvaise nouvelle est que nous n’obtiendrons jamais de biais d’un système d’IA. Nous pouvons la réduire, mais nous courons toujours le risque de l’augmenter ailleurs.

D’autres difficultés surgissent dans la mesure où le système d’apprentissage automatique est autorisé à ajuster les paramètres de l’algorithme de chaque nœud. S’il est autorisé à changer trop peu, le système devient rigide et peut être déstabilisé par des changements même minimes dans les informations. Le système a été « surajusté », c’est-à-dire fortement optimisé pour certaines données. Le cas contraire se produit lorsque l’on laisse les paramètres s’ajuster trop automatiquement. La fourchette de comportement pour les mêmes données ou des données très similaires peut alors être trop large, et le système ne réagit plus de manière prévisible et trop surprenante.

Le terrain d’entente avec la démocratie

L’apprentissage automatique et la démocratie présentent donc certaines similitudes. Tous deux comptent un grand nombre d’acteurs qui transmettent et influencent l’information. Les décisions sont prises grâce à la coopération des nombreux participants. Dans l’apprentissage automatique, ce sont les nœuds, dans la démocratie, les électeurs et les décideurs, mais aussi les institutions et autres organisations. Les deux systèmes sont relativement moins hiérarchisés et ils souffrent des mêmes faiblesses. La manière dont l’information est transmise, et la souplesse ou la rigidité avec laquelle ils y répondent, les rendent plus ou moins efficaces. L’ajustement des paramètres dans les nœuds neuronaux correspond au flux naturel de sortie et d’entrée dans les institutions démocratiques. S’il n’y a pas d’échange, pas d’ajustement, le système devient trop rigide et son efficacité est limitée face à des informations nouvelles et divergentes. S’il y a trop d’entrées et de sorties, les connaissances institutionnelles et le réseau se perdent, ce qui entraîne à nouveau des inefficacités.

Ce sont les aspects plus techniques dans lesquels l’apprentissage automatique et la démocratie sont similaires. Là où ils s’affrontent, c’est au moment où l’intelligence artificielle interfère avec les processus démocratiques. Les systèmes d’IA présentant des préjugés – qui, comme mentionné précédemment, ne pourront jamais être complètement éradiqués – peuvent désavantager les électeurs ou les empêcher de participer au processus démocratique. Par exemple, si les minorités de couleur, de sexe ou d’origine ethnique sont davantage criminalisées ou autrement désavantagées par ces systèmes, cela a un impact négatif sur le processus démocratique et sur leur représentation, et donc sur le traitement de ces désavantages systémiques par des préjugés.

Les dictatures, qui sont le plus souvent hiérarchiques, peuvent traiter les informations et prendre des décisions très efficacement dans des environnements stables. Tous les groupes n’ont pas besoin d’être impliqués dans le processus de décision. Ce type correspond à l’IA déterministe telle qu’elle a été développée à ses débuts jusqu’à il y a deux décennies. Mais elle a été abandonnée car les arbres de décision devenaient trop complexes et trop sujets aux crises. Chaque décision avait été pré-réfléchie par les experts de l’IA. Une information qui n’avait pas été pensée à l’avance dans l’arbre a conduit à un problème.

Les dictatures deviennent rapidement inefficaces lorsqu’elles sont confrontées à l’incertitude, comme l’ont montré, par exemple, les plans quinquennaux de l’Union soviétique. Les nouvelles technologies et les nouvelles demandes n’ont pas pu être anticipées et ont entraîné une pénurie d’approvisionnement qui s’est répercutée en cascade sur tous les secteurs du système. De même, les systèmes hiérarchiques tels que les dictatures ont tendance à s’intéresser de près à l’information – après tout, ils espionnent délibérément tout et tout le monde et mettent en place un énorme appareil à cet effet – mais les informations désagréables qui ne cadrent pas avec l’idéologie sont ignorées ou le fournisseur de ces informations est détruit.

Les contrastes

L’avantage de l’IA telle que nous la connaissons aujourd’hui est aussi son plus grand inconvénient. Dans les domaines où des quantités suffisantes de données n’existent pas ou ne peuvent être créées, il fonctionne de manière sous-optimale. De plus, nous, les humains, avons tendance à considérer les informations et les modèles que nous reconnaissons comme étant en dehors de nos attentes ou de nos expériences sous un angle différent grâce à de nouveaux cadres ou modèles de pensée. Nous interrogeons les données en essayant d’identifier les causalités, les raisons pour lesquelles elles sont différentes. L’IA d’aujourd’hui est incapable de reconnaître de telles causalités, de développer de nouveaux modèles de pensée, ou même de créer de telles analogies, comme même les jeunes enfants peuvent le faire de manière ludique dans les jeux de rôles. Un morceau de bois devient rapidement une voiture, un phénomène céleste un ovni avec des extraterrestres. Une IA qui ne peut reconnaître que des chats ne sait même pas ce qu’est un chat et à quoi il sert. Et il ne sait rien des chiens, des feuilles, du soleil ou du vent.

Les cadres de pensée et les analogies que les systèmes d’IA utilisent ainsi sont donnés par les humains. Et les humains les alimentent avec des données générées et sélectionnées par des humains. Les systèmes démocratiques, en revanche, grâce aux acteurs humains, peuvent précisément procéder à ces ajustements des cadres et modèles de réflexion, et apporter de nouvelles informations lorsque les données et résultats existants ne permettent plus de relever les défis.

Les démocraties sont particulièrement douées pour cela, en tout cas mieux que les dictatures. Les opinions, les expériences et les informations dissidentes sont supprimées dans les dictatures, et dans les démocraties, elles sont sinon encouragées, du moins tolérées. Cela préserve des perspectives et des expériences importantes pour le système, qui peuvent être ramenées des marges vers le centre en cas de changements et d’incertitudes dans les conditions environnantes, et qui, grâce à leurs caractéristiques, peuvent contenir des approches pour les nouveaux défis. Une démocratie reçoit ce type d’informations et de cadres de pensée, même si c’est souvent de manière accidentelle ; les dictatures, en revanche, cherchent activement à les détruire. L’IA elle-même ne connaît même pas ces concepts.

L’optimisation de la démocratie

Aujourd’hui, les mathématiciens en particulier tentent de créer des approches qui, si elles n’éradiquent pas les faiblesses des systèmes démocratiques grâce à des algorithmes appropriés, visent au moins à les optimiser. À l’université de Harvard, par exemple, un tel cours est proposé depuis cette année par la School of Engineering and Applied Sciences. Si déjà dans les premières démocraties à Athènes, les citoyens masculins et adultes de la ville étaient admis aux élections, qui devaient également être présents, et que les femmes ou les esclaves ne pouvaient pas participer à la prise de décision, la démocratie américaine était aussi initialement limitée aux hommes. Et ils recevaient alors selon le nombre d’esclaves dans leur propriété ou dans leur état, des parts électorales correspondantes.

La démocratie, cependant, n’est pas un problème d’optimisation comme en mathématiques. De nombreux systèmes démocratiques ont été délibérément construits avec certains biais pour diverses raisons. Le système du collège électoral aux États-Unis, comme c’est déjà le cas au Royaume-Uni, donne à un parti majoritaire une plus grande part des voix, avec la volonté de créer plus rapidement un gouvernement fonctionnel. Dans chaque circonscription, les gagnants obtiennent alors tous les mandats. Dans d’autres pays, il y a une plus grande représentation lors des votes, ce qui est censé conduire plus souvent à des coalitions et donc à un besoin de compromis. Ainsi. D’autres possibilités de biais démocratique sont concevables et utilisées. Par exemple, certaines régions ou zones métropolitaines sont favorisées plus que d’autres en raison de leur force économique ou de parts de population sans droit de vote, comme un grand nombre d’enfants.

Conclusio

Comme nous pouvons le constater, l’apprentissage automatique et l’IA nous permettent de jeter un regard neuf sur le fonctionnement des systèmes démocratiques. L’interaction des acteurs démocratiques ressemble à certains égards à celle des réseaux neuronaux. Les méthodes que les systèmes ML/AI améliorent pourraient constituer une approche pour les démocraties. Et, grâce aux lacunes de l’IA d’aujourd’hui, ils affinent notre vision des forces réelles des démocraties et, inversement, de ce que l’IA et le ML peuvent apprendre des démocraties.

Recommendation podcast

Le physicien théoricien Sean Carroll a abordé ce sujet avec son invité Henry Farrell sur le podcast Mindscape et a inspiré ce billet.

Laisser un commentaire