5 stratégies pour une gouvernance de l’IA mondiale et inclusive

2 personnes debout dans un bureau regardant des documents sur une table

Le développement de l'intelligence artificielle progresse à un rythme fulgurant, particulièrement pour les juristes travaillant dans un « fuseau horaire » où les choses évoluent beaucoup plus lentement. Au-delà de la réglementation, nous devons désormais réévaluer les outils normatifs à explorer afin de saisir les opportunités et faire face aux risques de l'IA.

En effet, l'IA doit être contrôlée. Au-delà de son immense potentiel en termes de nouveaux modèles d'entreprise, de processus ou de gains de productivité, l'adoption de l'IA comporte de réels défis. Comme l'a montré le déploiement d'outils d'IA générative tels que ChatGPT, l'IA pourrait avoir un impact négatif sur les droits humains, l'environnement, la sécurité nationale et les démocraties (par exemple à travers les menaces biologiques et la désinformation générées par l'IA).

Aucun outil normatif unique (standards, codes de conduite, chartes éthiques, ombudsmans, bacs à sable réglementaires, législation, etc.) ne pourra couvrir tous les aspects nécessaires pour garantir que l'utilisation de l'IA est conforme aux objectifs de bien commun, tels que la réalisation des objectifs de développement durable des Nations unies. Pour atteindre cet objectif, nous devrons développer des modèles normatifs intégrés, agiles et multi-niveaux.

Des nouvelles prometteuses vont en ce sens.

Il existe aujourd'hui un fort consensus sur le fait que la gouvernance de l'IA est un défi mondial et interdépendant qui ne pourra être relevé avec succès que si les pays élaborent des stratégies et des règles communes, car « l'IA ne connaît pas de frontières ».

Même les États-Unis et la Chine semblent être de la partie: les États-Unis ont mené le processus qui a conduit à l'adoption, en mars, d'une résolution mondiale historique sur l'IA à l'Assemblée générale des Nations unies, appelant au développement de systèmes d'IA sûrs, sécurisés et dignes de confiance, alignés sur les objectifs de développement durable.

Plus récemment, les Nations unies ont adopté une résolution chinoise, avec le soutien des États-Unis,  demandant que les bénéfices de l'IA soient partagés plus équitablement à travers le monde. Les deux pays, rivaux sur divers fronts, notamment dans le développement de l'IA, souhaitent manifestement jouer un rôle majeur dans la définition de l'avenir de la technologie à l'échelle mondiale.

Mais si nous sommes conscients de la menace, que nous savons qu'il est important d'agir collectivement pour gouverner l'IA et que nous avons la capacité d'agir de concert, pourquoi n'agissons-nous pas plus rapidement et plus fermement ?

Voici quelques raisons :

  • L'IA est une cible mouvante (nous devons nous préparer à ce que nous savons et à beaucoup de choses que nous ignorons).
  • Le rôle des États sur la scène internationale est en déclin, les grandes entreprises jouant un rôle d'influence majeur dans de nombreux pays.
  • Le système multilatéral est soumis à d'énormes pressions
  • La course aux développements en matière d'IA façonne la dynamique géopolitique internationale à un niveau hautement stratégique et politisé
  • La communauté internationale n'est pas encore parvenue à un consensus solide sur les risques liés à l'IA qu'il convient de traiter en priorité.

Pour définir l'approche la plus efficace de la gouvernance mondiale de l'IA, nous devrions envisager au moins cinq stratégies.

1. 

La stratégie de la réglementation extraterritoriale unilatérale 

Cette stratégie repose sur l'idée suivante: adopter une réglementation efficace dans une juridiction, puis s'appuyer sur les effets directs ou extraterritoriaux de celle-ci pour influer sur la gouvernance de l'IA dans d'autres juridictions. 

L'exemple le plus clair et le plus fort de cette stratégie est l'AI ACT adopté par l'Union européenne en 2024. Les entreprises souhaitant opérer dans l'UE devront s’y conformer, ce qui influencera donc la réglementation et les pratiques commerciales au-delà des frontières de l'UE. Cet « effet Bruxelles » pourrait faire de l'AI ACT la réglementation la plus influente au monde en matière d'IA. 

2. 

La stratégie de consolidation 

Plusieurs organisations internationales sont déjà actives dans le domaine de l'IA (telles que l'OCDE, l'UNESCO, l'Organisation mondiale de la santé (OMS) et des entités privées comme l'ISO et l'IEEE qui dirigent l'élaboration de normes techniques industrielles ou professionnelles). 

Mais il est urgent de renforcer la coordination afin de rationaliser leurs efforts et d'amplifier leur efficacité grâce à des initiatives telles que l'organe consultatif des Nations unies sur l'IA, récemment créé, qui dresse actuellement un état des lieux de l'IA dans le monde afin de proposer des stratégies de coordination appropriées.

3. 

La stratégie du nouvel acteur

L'objectif est de créer un nouvel organe international de gouvernance de l'IA qui pourrait établir des normes, partager les bonnes pratiques en matière d'IA dans le monde entier, diffuser des connaissances fiables sur l'IA et surveiller les tendances en matière de développement et de déploiement de l'IA. 

Des modèles dont nous pourrions nous inspirer - et dont les contextes font quelque peu écho à l'environnement actuel de l'IA - sont le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) ou l'Agence internationale de l'énergie atomique (AIEA). Le GIEC a été créé pour établir un consensus scientifique dans le contexte d'une prise de conscience environnementale croissante au niveau international, tandis que l'AIEA a été fondée en tant qu'outil de coopération scientifique et technique en réponse aux craintes et aux attentes suscitées par la technologie nucléaire.

4. 

La stratégie d'établissement de normes mondiales

Cette stratégie consiste principalement à élaborer de nouveaux instruments mondiaux juridiquement contraignants, assortis de mécanismes de prévention et résolution des conflits pour soutenir pleinement leur mise en œuvre. 

L'initiative la plus proche est la récente Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’Etat de droit . Elle a été principalement négociée entre les 46 États membres du Conseil et les États observateurs comme le Canada, mais les pays du Sud ont été pour la plupart exclus du processus de négociation. Malgré sa valeur, elle n'a pas l'approche véritablement globale et inclusive nécessaire pour aller de l'avant et n’a pas d’effet contraignant direct pour le secteur privé, un acteur majeur et omniprésent de l'IA.

5. 

La stratégie internationale de recherche conjointe

L'idée, qui circule déjà, est de trouver un équivalent de l'Organisation européenne pour la recherche nucléaire (CERN) pour l'IA, c'est-à-dire une organisation internationale de recherche où les scientifiques de l'IA du monde entier, y compris des sciences sociales et humaines, se réuniraient pour travailler sur des projets d'IA alignés sur des objectifs de bien commun, tels que l'IA pour l'environnement, la santé ou l'éducation.

Les talents, les ressources et la puissance de calcul seraient mis en commun pour travailler sur des projets d'IA, ce qui contribuerait à créer une forme de monopole international sur certains types d'activités de recherche en IA, en plus de favoriser la diplomatie scientifique.

Quelles sont les prochaines étapes?

Nous devrions nous concentrer immédiatement sur la stratégie 2 (consolidation), puis travailler, à moyen et long terme, sur les stratégies 4 (établissement d'une norme mondiale), 5 (recherche internationale conjointe) et 3 (nouvel acteur), dans cet ordre. La stratégie 1 n'est pas une option viable car elle ne tient pas compte des intérêts de nombreux acteurs et pays.

La gouvernance mondiale de l'IA va au-delà de la fixation de limites à ce qui est considéré comme inacceptable dans notre monde: il s'agit d'un pacte de solidarité, d'un accord collectif qui renforce la sécurité et le bien-être de tous dans le domaine de l'IA. C'est une question qui devrait tous nous interpeller.