Depuis leur fondation, les États-Unis ont une approche intéressante des nouvelles technologies et des nouveaux défis : lorsqu’ils atteignent une certaine masse critique, les Américains créent une agence ou une autorité chargée de s’en occuper exclusivement, à la fois en termes de réglementation, d’analyse d’impact, mais aussi de besoins et de demandes du gouvernement américain et donc des contribuables.
En 1970, par exemple, l’Agence de protection de l’environnement (EPA) a été l’une des premières au monde à être créée, alors que les premières préoccupations concernant l’impact des activités humaines sur l’environnement étaient déjà apparues dans les années 1950. L’agence allemande équivalente, par comparaison, n’a été créée qu’en 1986. Outre les quelque deux douzaines de ministères, il existe également environ quatre douzaines d’organismes de type agence et des centaines d’agences plus petites. Alors que dans d’autres pays, les agences sont souvent soumises à des changements majeurs et sont fusionnées ou supprimées – comme le montre l’histoire du ministère autrichien de l’environnement, par exemple – aux États-Unis, elles font preuve d’une grande résistance. Une fois établis, ils restent attachés à leurs tâches et assurent la continuité. Ce n’est pas toujours un avantage, comme on a pu le constater au CDC pendant la pandémie, où la seule tâche pour laquelle il a été créé – le contrôle des maladies – a échoué lamentablement aux États-Unis. Ou le Bureau des alcools, tabacs, armes à feu et explosifs, dont le fonctionnement et la portée sont limités depuis des années par le Congrès américain et le lobbying de l’industrie.
Agence américaine d’intelligence artificielle
À partir de janvier 2021, les États-Unis disposent d’une nouvelle agence qui s’occupera exclusivement de l’intelligence artificielle. L’initiative nationale pour l’intelligence artificielle a été créée par une résolution du Congrès américain en 2020 et est chargée de mettre en œuvre la stratégie américaine en matière d’IA. Comme la Chine, les États-Unis considèrent l’IA comme une technologie importante pour le pays et dans laquelle l’État doit s’impliquer afin de garantir la prospérité des générations futures.
L’approche est très différente de celle de l’Allemagne, où il existe également les grandes lignes d’une stratégie initiale en matière d’IA. Par exemple, l’énoncé de mission de la NAII, qui se lit comme suit
prévoit un programme coordonné à travers le gouvernement fédéral pour accélérer la recherche et l’application de l’IA pour la prospérité économique du pays et la sécurité nationale. La mission de la National AI Initiative est d’assurer le maintien du leadership des États-Unis dans la recherche et le développement de l’IA, de mener le monde dans le développement et l’utilisation de l’IA de confiance dans les secteurs public et privé, et de préparer la main-d’œuvre américaine actuelle et future à l’intégration des systèmes d’IA dans tous les secteurs de l’économie et de la société.
L’innovation, l’IA de confiance, l’éducation et la formation, les infrastructures, les applications et la collaboration internationale sont définis comme les piliers stratégiques de l’autorité de l’IA.
Stratégie numérique de l’UE
Si nous comparons ces revendications et ces objectifs avec ceux que l’UE a présentés sous forme de projet, ils ne diffèrent guère, à première vue. Selon la stratégie numérique européenne, l’IA devrait trouver une place dans l’UE pour se développer et être utile aux personnes et à l’activité économique.
Mais déjà les premières propositions concrètes de la Commission européenne montrent une image clairement différente. Première proposition élaborée, elle ne porte que sur la confiance dans l’IA, ainsi que sur la sécurité et les risques de cette technologie. La proposition européenne de cadre juridique le montre clairement :
La Commission a l’intention de traiter les risques posés par des applications spécifiques de l’IA au moyen d’un ensemble de règles complémentaires, proportionnées et souples. Ces règles donneront également à l’Europe un rôle de premier plan dans la définition de l’étalon-or mondial. Ce cadre donne aux développeurs, aux déployeurs et aux utilisateurs d’IA la clarté dont ils ont besoin en intervenant uniquement dans les cas non couverts par la législation nationale et européenne existante. Le cadre réglementaire de l’IA propose une approche claire et facile à comprendre, fondée sur quatre niveaux de risque différents : risque inacceptable, risque élevé, risque limité et risque minimal.
Pas un seul mot n’est dit sur les opportunités et les possibilités et le cadre juridique est défini de cette manière.
Alors que les États-Unis veulent permettre et habiliter le développement et l’application de l’IA par tous les moyens au bénéfice des personnes et de l’économie, et conserver le rôle de chef de file, l’UE veut d’abord contrôler l’IA, en établissant la “norme mondiale” de la réglementation de l’IA. Un autre élément clé de l’initiative américaine en matière d’IA est également la participation de plusieurs autorités et agences du Bunudes à celle-ci. L’IA est explicitement considérée comme une technologie à utiliser dans ces organes fédéraux. Cela envoie également un signal très clair : chaque autorité, chaque agence doit réfléchir à l’utilisation de l’IA dans son propre environnement. L’UE elle-même ne perd pas un mot à ce sujet dans sa propre stratégie numérique.
Deux Vitesses
Ainsi, plusieurs différences fondamentales entre l’approche américaine et l’approche européenne peuvent être identifiées, ce qui entraînera des dynamiques complètement différentes : alors que les États-Unis prendront de la vitesse, les pays européens ajouteront de nouveaux obstacles.
Etats-Unis d’Amérique | Europe |
Sauvegarder et permettre les opportunités | Éviter les risques et minimiser les dangers |
Autorité propre | Une composante de la stratégie numérique |
Technologie à l’usage des autorités publics | Technologie à réglementer |