Mila et l’Université de Montréal ont accueilli leur deuxième École d’été internationale sur l’intelligence artificielle (IA) responsable et les droits humains

cohorte de l'école d'été en IA responsable et droits humains 2024

Quarante participant·es provenant de 20 pays se sont réuni·es du 27 au 31 mai 2024 à Mila - Institut québécois d'intelligence artificielle à Montréal pour la deuxième École d’été sur l’intelligence artificielle (IA) responsable et les droits humains, explorant des thèmes comme la mise en oeuvre des principes d’IA responsable, la gouvernance mondiale, les biais algorithmiques, le droit des travailleurs ou encore l’impact environnemental de l’IA.

Au cours de cet événement d'une semaine, organisé en collaboration avec l'Université de Montréal, les 40 participant·es issus du milieu académique, de l’industrie et de la société civile ont appris à mieux concevoir, déployer et encadrer les systèmes d'IA de manière responsable.

“Nous sommes très heureux de voir que l’intersection des droits humains et de l’IA suscite chaque année tant d’intérêt, et très fiers que notre école d’été contribue à répondre aux enjeux brûlants et fondamentaux qui en découlent. Cette seconde édition a mené à de riches discussions et a mobilisé des spécialistes de partout dans le monde qui deviendront des leaders en IA responsable dans leurs milieux respectifs.” - Catherine Régis, co-organisatrice de l’école d’été, professeure de droit à l’Université de Montréal, membre académique associée à Mila

Catherine Regis qui présente un des sujets de l'école d'été en IA responsable
Conférenciers de l'école d'été en Ia responsable et droits humains
Des participants de l'école d'été durant un atelier
Des participants de l'école d'été durant un atelier
Une experte qui fait une présentation devant les participants de l'école d'été
Les participants en pleine action durant l'atelier

Cette année encore l'école d'été s'est distinguée non seulement en explorant la relation entre IA et droits humains mais aussi en abordant des sujets trop souvent éludés dans les débats dominants, tels les impacts environnementaux de l'IA ou les conditions de travail des travailleurs de la donnée. Voici un aperçu des intervenant·e·s et des thèmes abordés lors de cette deuxième édition, offrant un tableau toujours plus complet et nuancé du développement et de l'utilisation de l'IA: 

Virginia Dignum, professeure d’IA responsable à l’université Umeå, a lancé les discussions avec une introduction à l'IA responsable, abordant l'éthique de l'IA mais aussi les différentes approches légales et la gouvernance.

Marc-Antoine Dilhac, professeur de philosophie à l’Université de Montréal et membre académique associé à Mila, a ensuite abordé la création de cadres inclusifs et la mise en pratique des approches théoriques, notamment à travers l’exemple de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle.

Catherine Régis et Jake Okechukwu Effoduh, professeur adjoint de droit à la Toronto Metropolitan University, ont ensuite discuté des droits humains et sur comment les intégrer dans le contexte de l’IA.

Le lendemain, Su Lin Blodgett, chercheuse senior à Microsoft Research, a détaillé à travers l’exemple des outils de traitement naturel du langage (NLP) les étapes à respecter tout au long du cycle de vie d’un système d’IA pour s’assurer que celui-ci est conçu, utilisé et entretenu de manière responsable.

Puis, Golnoosh Farnadi, professeure adjointe à l’université McGill et membre académique principale à Mila, a exposé les différentes techniques d’apprentissage automatique permettant de remédier aux biais algorithmiques afin de rendre les systèmes d’IA plus justes et moins discriminatoires.

Le troisième jour, Nathalie Smuha, juriste et philosophe à l’université KU Leuven, a présenté les différents aspects de la réglementation de l’IA et les enjeux s’y rattachant, en se focalisant sur l’exemple de l’Union européenne (UE). Elle a été rejointe par Mark Schaan, sous-ministre adjoint principal au ministère canadien de l’Innovation, Sciences et du Développement économique, et par Jake Okechukwu Effoduh pour comparer les approches réglementaires de l’UE, du Canada et du Nigéria.

Le quatrième jour, Phil Dawson, responsable de la politique d’IA à Armilla AI, Prateek Sibal, chercheur en politiques technologiques à l’UNESCO et Lucia Russo, économiste et analyste politique en IA pour l’OCDE, ont exploré comment les grandes institutions tentent de gouverner l’IA tout en respectant la souveraineté des états.

Maria Axente, responsable de la politique publique et de l'éthique en matière d'IA à PwC Royaume-Uni et Emmanuel Letouzé, directeur et cofondateur de la Data Pop Alliance, ont ensuite présenté des pistes d’application de cadres de gouvernance dans les organisations privées ou dans des organisations à but non lucratif.

Au dernier jour de la conférence, Sasha Luccioni, responsable climat à Hugging Face, a mis en avant les impacts environnementaux de l’IA: la consommation d'énergie, les ressources nécessaires à la fabrication des composants électroniques et au refroidissement des serveurs, et les utilisations des systèmes d’IA poussant à la surconsommation.

Puis, Noah Oder, consultant en politiques d’IA à l’OCDE, Allison Cohen, gestionnaire senior de projets appliqués à Mila et Milagros Miceli, cheffe du groupe de recherche à l'Institut Weizenbaum et chercheuse au DAIR, ont abordé les enjeux liés au travail de données, souvent réalisé dans des conditions de travail précaires où les droits humains sont moins susceptibles d’être respectés.

Tout au long de la semaine, les participant·es ont également pris part à des ateliers pratiques sur les thèmes de la santé (avec Consortium santé numérique de l’Université de Montréal), des changements climatiques (avec Future Earth), de la gouvernance des données (avec Data Pop Alliance) et des enjeux autochtones (avec le CIFAR).

Enfin, elles et ils ont également participé à des ateliers et des projets pratiques visant à développer des compétences telles la collaboration, l’interdisciplinarité et le leadership personnel afin de faire des participant·es des leaders en IA responsable dans leurs contextes culturels uniques.