Lancement du premier rapport international sur la sécurité de l’IA dirigé par Yoshua Bengio

Identité visuelle du rapport sur la sécurité de l'IA.

Mercredi 29 janvier 2025 – Annoncé pour la première fois lors du sommet de novembre 2023 sur la sécurité de l'IA à Bletchley Park, ce rapport, inspiré du rapport du groupe d'experts intergouvernemental sur l'évolution du climat des Nations unies, rassemble une expertise mondiale de premier plan avec le soutien du ministère britannique des Sciences, de l'Innovation et de la Technologie (DSIT). 

Dirigé par Yoshua Bengio, professeur titulaire à l'Université de Montréal, fondateur et directeur scientifique de Mila et titulaire de chaire en IA Canada-CIFAR, et par une équipe de 96 expert·e·s internationaux nommés par 30 pays, l'ONU, l'UE et l'OCDE, il alimentera les discussions lors du prochain sommet d'action sur l'IA en France et servira de guide pour aider les responsables des politiques à l’échelle mondiale. 

Pour une compréhension commune des systèmes d'IA avancés et de leurs risques 

Les systèmes d'IA les plus avancés au monde sont désormais capables d'écrire des programmes informatiques de plus en plus sophistiqués, d'identifier les vulnérabilités informatiques et d'obtenir des résultats équivalents à ceux d'expert·e·s humains titulaires d'un doctorat dans des tests de biologie, de chimie et de physique.

Le premier rapport indépendant international sur la sécurité de l’IA publié aujourd’hui établit que les systèmes d’IA sont également de plus en plus capables d’agir comme des agents d'IA, c'est-à-dire de planifier et d'agir de manière autonome en vue d'atteindre un objectif, ce qui est considéré comme une évolution essentielle à surveiller par les responsables des politiques. 

Alors que les responsables politiques du monde entier sont confrontés aux progrès rapides et imprévisibles de l'IA, le rapport contribue à combler cet écart en offrant une compréhension scientifique des risques émergents pour guider la prise de décision. Le document présente la première compréhension scientifique commune et partagée des systèmes d’IA et de leurs risques, soulignant la rapidité à laquelle la technologie a évolué au cours des dernières années et des derniers mois. Plusieurs domaines requièrent une attention urgente en matière de recherche, y compris la vitesse à laquelle les capacités progresseront, le fonctionnement interne des systèmes d’IA à usage général et la manière dont ils peuvent être conçus pour agir de manière responsable. 

Le rapport établit trois catégories distinctes de risques liés à l’IA : 

  • Risques liés aux usages malicieux : incluant les cyberattaques, la création de contenu généré par l’IA, et même le développement d’armes biologiques.
  • Dysfonctionnements du système : qui comprennent les préjugés, les enjeux de fiabilité et la perte de contrôle potentielle face aux systèmes avancés d’IA à usage général.
  • Risques systémiques : provenant de l’adoption massive de l’IA, dont la perturbation de la main-d'œuvre, les préoccupations en matière de respect de la vie privée et les effets sur l'environnement.

Alors que les systèmes deviennent de plus en plus sophistiqués et que la technologie continue de se développer à un rythme effréné, le rapport met particulièrement l’accent sur l’urgence d’améliorer la transparence et la compréhension de la prise de décision en matière d'IA. 

Bien qu’il y ait encore plusieurs défis à relever relatifs à l’atténuation des risques des systèmes d’IA à usage général, le rapport met en lumière des domaines prometteurs pour la recherche future et conclut que des progrès peuvent être réalisés. Ultimement, il souligne que si les capacités d’IA pouvaient avancer à des vitesses variables, leur développement et les risques associés ne sont pas acquis d’avance. Le rapport conclut en affirmant que les résultats dépendent des choix que les sociétés et les gouvernements font aujourd’hui et dans le futur. 

Citation 

« Les capacités des systèmes d’IA à usage général ont augmenté rapidement au cours des dernières années et des derniers mois. Si elle renferme un grand potentiel pour la société, l’IA présente aussi des risques importants qui doivent être gérés avec soin par les gouvernements du monde entier. Ce rapport rédigé par des expert·e·s indépendant·e·s vise à favoriser les discussions constructives et fondées sur des données factuelles sur ces risques, et sert de base commune aux responsables des politiques du monde entier pour comprendre les capacités, les risques et l’atténuation potentiels des systèmes d’IA à usage général », a affirmé Yoshua Bengio, fondateur et directeur scientifique de Mila et président du rapport. 

Informations supplémentaires

  • Une copie complète du rapport (en anglais) peut être consultée ici.
  • Le gouvernement du Royaume-Uni continuera d'assurer le secrétariat du groupe à l'origine du rapport et Yoshua Bengio continuera d’agir comme président en 2025.