Mila > Nouvelles > Mila a accueilli sa première École d’été internationale sur l’intelligence artificielle (IA) responsable et les droits humains

16 Juin 2023

Mila a accueilli sa première École d’été internationale sur l’intelligence artificielle (IA) responsable et les droits humains

Une quarantaine de participant·es de 20 pays se sont réuni·es début juin 2023 à Mila – Institut québécois d’intelligence artificielle à Montréal afin d’assister à la toute première École d’été sur l’intelligence artificielle (IA) responsable et les droits humains.

Au cours de cet événement d’une semaine, organisé en collaboration avec l’Université de Montréal, les 39 participant·es ont rencontré des experts interdisciplinaires et exploré comment concevoir et déployer des systèmes d’IA de manière responsable à travers des thèmes tels que la responsabilité, la transparence, l’éthique, le droit et la gouvernance.

Elles et ils ont également participé à des ateliers de développement des compétences et conçu des projets d’IA responsable basés sur des scénarios réels périlleux. 

Surtout, elles et ils ont collaboré et tissé des liens avec des pairs du monde entier et d’horizons variés, y compris des étudiant·es à la maîtrise et au doctorat, des chercheur·es en début de carrière et des professionnel·les des secteurs public, privé ou à but non lucratif.

Catherine Régis, chercheuse à Mila, professeure titulaire de droit à l’Université de Montréal et directrice scientifique de l’École d’été, y a vu un moyen de mieux intégrer les concepts et les principes des droits humains dans la conversation sur l’IA responsable aux niveaux national et international.

« Voir des gens du monde entier et de divers horizons comme l’informatique, le droit et l’éthique se réunir autour d’un programme commun sur l’IA responsable et les droits humains a été très stimulant », a-t-elle résumé.

« Les participant·es sont vraiment satisfait·es et c’est un bon signe que nous devons continuer à bâtir une communauté avec ce très grand réseau de personnes qui auront un impact sur leur domaine et leur travail par la suite. J’attends avec impatience la prochaine édition de l’École d’été. »

Benjamin Prud’homme, directeur exécutif de l’équipe IA pour l’humanité de Mila, a expliqué que l’École d’été est une bonne occasion de construire des ponts entre les disciplines et de contribuer à la discussion mondiale sur l’IA responsable.

« Nous sommes à un moment exceptionnel de la conversation sur le développement et le déploiement de l’IA où presque tous les pays du monde, aux niveaux local, national et international,  s’interrogent sur la manière d’aborder les opportunités et les risques de l’IA », a-t-il déclaré.

« Nous croyons fortement qu’il faut placer les droits humains au cœur de cette conversation, et l’École d’été est un moyen pour Mila de s’assurer que nous poursuivons la réflexion collective sur ces enjeux afin d’éclairer les politiques publiques. Elle a été conçue pour enrichir la conversation et être internationale et inclusive, afin que chacun·e des participant·es retourne dans son organisation avec les outils pour faire de l’IA responsable une partie intégrante de ses pratiques. »

Voici quelques-uns des thèmes explorés pendant l’École d’été.

Une IA équitable, transparente et responsable

Les deux premiers jours ont permis aux participant·es de se familiariser avec les principes fondamentaux de l’IA responsable et les cadres de gouvernance dans lesquels les chercheur·es, les dirigeant·es politiques et la société civile devront naviguer à une période de changements technologiques sans précédent.

Virginia Dignum, professeure d’IA responsable à l’Université d’Umeå, en Suède, a donné le coup d’envoi de l’École d’été en évoquant la nécessité de rendre le développement de l’IA plus équitable, plus transparent et plus responsable.

Les systèmes d’IA sont des artefacts fabriqués par des humain·es, et les utilisateurs devraient s’interroger sur l’identité des concepteur·trices, sur la finalité de ces systèmes, sur les choix qui ont été faits et sur les personnes qu’ils représentent. Peu importe la situation, la responsabilité humaine doit rester au cœur des solutions basées sur l’IA.

Le développement responsable de systèmes d’IA nécessite donc une approche transparente et les principes éthiques doivent être pris en compte tout au long des processus de développement et de déploiement.

Des principes à l’action

Pour combler l’espace entre la théorie et la pratique, Marc-Antoine Dilhac, chercheur à Mila et professeur d’éthique et de philosophie politique à l’Université de Montréal et l’un des architectes de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, a donné un aperçu de ses principes et de la manière de les mettre en œuvre.

Il a montré comment les principes de la Déclaration, tels que l’acceptabilité morale, l’autonomie, la solidarité et l’intimité, pouvaient être utilisés afin d’évaluer la compatibilité d’un système d’IA avec l’épanouissement de l’humanité, qui devrait être au cœur d’une approche de l’IA fondée sur les droits humains.

Selon lui, la déclaration de Montréal devrait être un travail en perpétuelle évolution enrichi par le savoir collectif, et dans cet esprit, l’École d’été lui a permis d’échanger avec un groupe aux opinions diversifiées.

« Nous devons aller davantage à la rencontre des citoyen·nes pour qu’ils puissent mieux tirer parti de l’outil », a-t-il déclaré.

La professeure Catherine Régis a ensuite évoqué l’importance de placer le cadre des droits humains au centre des discussions sur l’IA aux niveaux local et international. 

Elle a indiqué que ce cadre, qui a été approuvé par les États du monde entier, constitue un rare terrain d’entente en matière de gouvernance de l’IA.

Cependant, l’intersection entre les droits de l’homme et l’IA doit être mieux articulée. 

Pour traduire les droits humains en actions concrètes dans ce domaine, elle a expliqué que les études d’impact sur les droits humains (EIDH) peuvent jouer un rôle important en aidant les gouvernements et les entreprises à atténuer en amont les risques que les systèmes d’IA peuvent poser pour ces droits avant de déployer la technologie.

Vers une meilleure gouvernance de l’IA

Le lendemain, Nicolas Miailhe, fondateur et président de The Future Society (un groupe de “réflexion et d’action” indépendant visant à opérationnaliser la gouvernance de l’IA par l’innovation institutionnelle), a exploré les opportunités et les défis de la gouvernance de l’IA.

Suite à l’évolution du discours public liée à l’avènement d’outils d’IA générative tels que ChatGPT, les efforts devraient maintenant se concentrer sur le développement de filets de sécurité législatifs pour inciter les entreprises à développer des systèmes d’IA plus responsables. 

La course concurrentielle actuelle entre les grandes entreprises ne fournit pas les bons incitatifs pour développer des modèles robustes mais conduit au contraire à des modèles de plus en plus grands et de plus en plus inintelligibles.

D’où la nécessité d’une meilleure gouvernance mondiale de l’IA, qui pourrait résulter d’un dialogue entre les pays, mais la coopération transnationale est rendue difficile par des intérêts nationaux divergents et par le fait que l’IA est une cible mouvante au cœur d’un contexte de changements institutionnels lents.

« L’innovation institutionnelle et le renforcement des capacités ne peuvent aller l’un sans l’autre… Ce sont les deux jambes de la gouvernance de l’IA », a conclu Nicolas Miailhe.

Lofred Madzou, directeur de la stratégie chez TruEra (une plateforme pour expliquer, tester, déboguer et surveiller les modèles d’apprentissage automatique) a ensuite rejoint la scène pour discuter de la manière de mieux évaluer et auditer les systèmes d’IA.

Il a insisté sur la nécessité de sensibiliser le public à l’IA afin de pouvoir mieux la gouverner, et considère la concentration des connaissances dans un nombre trop restreint de mains comme la plus grande menace actuelle en matière de gouvernance.

Promouvoir l’éthique dans l’IA

Le troisième jour, AJung Moon, chercheuse à Mila et professeure agrégée au département de génie électrique et informatique de l’Université McGill, spécialisée dans la robotique, a expliqué la nécessité d’intégrer des perspectives éthiques en IA, car son utilisation croissante s’accompagne d’une série de dilemmes moraux qui ne peuvent être facilement résolus sans les outils adéquats pour les aborder.

Les approches éthiques concernant des machines prenant des décisions automatisées ou autonomes sont différentes des approches éthiques traditionnelles appliquées aux outils physiques ou technologiques, comme les avions, en raison des profondes conséquences que les systèmes d’IA peuvent avoir sur la vie des citoyen·nes.

Des exemples issus de l’utilisation des véhicules autonomes et des systèmes d’armes autonomes montrent bien que les enjeux éthiques et les dilemmes moraux découlant de la conception et de l’utilisation des systèmes d’IA n’ont jamais de réponse simple et absolue.

Au-delà des principales théories éthiques occidentales telles que le conséquentialisme, l’utilitarisme, la déontologie et la vertu, les dilemmes de la vie réelle sont toujours plus complexes et nécessitent de prendre du recul afin d’évaluer le contexte plus largement puis de les aborder au mieux.

AJung Moon s’est dite optimiste en raison de l’intérêt croissant de la communauté de l’IA pour l’éthique et a mentionné que l’École d’été était une excellente occasion de rencontrer un ensemble diversifié de participants.

« Le fait que des personnes soient prêtes à passer une semaine entière ici, à parler de ce sujet particulier, montre que les gens votent avec leur temps, ce qui est très précieux. »

Renforcer la sécurité des systèmes d’IA

Shalaleh Rismani, chercheuse à Mila et doctorante à l’Université McGill, a ensuite exploré les outils et cadres permettant d’auditer les systèmes algorithmiques et d’intégrer le raisonnement éthique tout au long du cycle de vie de l’IA.

Les définitions traditionnelles des dommages critiques pour la sécurité, tels que la perte de vies humaines, les dommages matériels importants ou les dommages causés à l’environnement, ne sont souvent pas suffisantes car certains dommages réels, comme la manipulation des utilisateurs, peuvent alors passer inaperçus.

Les impacts potentiels des systèmes d’IA peuvent être évalués de manière plus granulaire en amont à travers un dialogue interdisciplinaire prenant en compte des considérations telles que la perte économique, l’aliénation, les stéréotypes, les préjudices liés à l’information et les violations de la vie privée.

Les principes et méthodes d’ingénierie de la sécurité issus d’industries plus anciennes, comme l’aviation ou la construction, peuvent servir de guide vers la conception de systèmes d’IA plus sûrs et plus dignes de confiance.

Le concept d’IA responsable et éthique peut sembler vague aujourd’hui, comme l’étaient les concepts de sécurité des bâtiments il y a cent ans, mais avec le temps, les acteur·rices du domaine devraient construire une culture qui valorise la sécurité et le développement responsable.

Réglementation et coopération internationales

Le lendemain, Nathalie Smuha, juriste et philosophe à la faculté de droit de KU Leuven, a exposé les défis juridiques de la réglementation de l’IA en s’appuyant sur l’exemple de l’Union européenne.

Il n’existe pas de définition unique de l’IA, car il s’agit d’un terme générique couvrant de nombreux secteurs et cas d’utilisation différents, mais les législateur·rices aux niveaux local, national et international doivent définir la portée de ce qui sera ou ne sera pas réglementé et comment le faire.

Elles et ils devront inévitablement faire des choix difficiles, car même ne pas faire de choix en est un.

Il existe actuellement une prolifération de stratégies nationales en matière d’IA en Chine, dans l’Union européenne et aux États-Unis, qui rivalisent pour imposer leur définition de ce qu’est une “bonne” IA. 

Mais aucune approche n’est parfaite; c’est pourquoi les discussions interdisciplinaires et internationales sont cruciales pour éclairer les décisions réglementaires.

À mesure que les initiatives réglementaires progressent, le dialogue démocratique sera essentiel pour s’assurer que toutes les voix sont entendues.

Nathalie Smuha a ensuite été rejointe par Mark Schaan, sous-ministre adjoint principal pour la stratégie et la politique d’innovation au ministère canadien de l’Innovation, des Sciences et du Développement économique (ISDE), pour discuter et comparer les approches réglementaires de part et d’autre de l’Atlantique.

Les deux spécialistes ont échangé leurs points de vue sur la manière d’éviter un nivellement par le bas en termes de réglementation dans un contexte de concurrence accrue, et sur la nécessité de coordonner et d’établir des normes à l’échelle mondiale. 

Il faut également veiller à ce que le pouvoir de l’IA ne soit pas concentré dans un trop petit nombre de mains et le fait d’éviter que les leaders technologiques ne fuient vers des juridictions plus clémentes.

Schaan a souligné l’importance de réunir davantage de personnes autour de la table afin d’enrichir notre connaissance collective de l’IA et d’élaborer des outils et des cadres appropriés pour la réglementer.

Il a déclaré que le fait de réunir des personnes de tous horizons et de tous pays à l’occasion d’un événement tel que l’École d’été fait partie de ce processus de collaboration.

« Il s’agit vraiment d’un élément de connexion : nous devons établir des liens et comprendre ces questions de manière générale, nous devons vraiment échanger avec un éventail beaucoup plus large, et c’est pourquoi des événements comme celui-ci sont vraiment importants », a-t-il déclaré.

Élargir les perspectives sur l’IA et les droits de l’homme

L’École d’été avait pour objectif d’élargir les horizons, de favoriser le dialogue et de partager diverses perspectives provenant de toutes les régions du monde. Elle s’est achevée par une journée riche en panels interactifs sur la manière de rendre l’IA plus juste, plus équitable et plus inclusive.

Les participant·es ont d’abord assisté à une discussion entre Catherine Régis, Bernard Duhaime, professeur de droit international à l’Université du Québec à Montréal (UQAM) et Karine Gentelet, professeure au département des sciences sociales de l’Université du Québec en Outaouais, qui ont échangé leurs points de vue sur la manière de mieux intégrer l’expertise et l’expérience citoyenne dans le débat public sur l’IA.

Gabriela Ramos, Sous-Directrice générale pour les Sciences sociales et humaines à l’UNESCO, a ensuite souligné la relation étroite entre l’UNESCO et Mila, qui ont publié conjointement le livre Angles morts de la gouvernance de l’IA.

Elle a présenté des éléments de la Recommandation sur l’éthique de l’intelligence artificielle de l’UNESCO qui pourraient servir de guide aboutir à une IA plus inclusive et centrée sur l’humain.

Il n’existe pas de modèle institutionnel parfait car la gouvernance de l’IA est fragmentée entre les pays et les secteurs, ce qui justifie la présence d’un cadre institutionnel global pour s’assurer que les droits humains sont protégés.

Les leçons tirées de la réglementation du secteur financier suite à la crise financière de 2008 pourraient servir de guide pour éviter de commettre des erreurs similaires en matière de réglementation de l’IA.

L’approche réglementaire fondée sur le laissez-faire devrait être rééquilibrée par des choix de politique publique garantissant la protection de tous les êtres humains contre les potentiels dommages, tout en veillant à ce que chacun puisse tirer profit de l’utilisation de l’IA.

L’inclusion d’un plus grand nombre de personnes – en particulier de femmes – dans les consultations sur l’IA est donc essentielle pour recueillir des points de vue plus diversifiés sur la gouvernance de l’IA.

Les participant·es ont ensuite assisté à une table ronde sur l’avenir de l’IA à la croisée de diverses perspectives du monde universitaire et de l’industrie avec Blake Richards, chercheur à Mila et professeur agrégé à l’École d’informatique et à l’Institut neurologique de Montréal de l’université McGill, Maria Axente, Responsible AI and AI for Good Lead à PwC Royaume-Uni et Shingai Manjengwa, directrice de l’enseignement technique à l’Institut Vector et PDG de Fireside Analytics Inc.

La journée s’est achevée par la présentation des projets d’IA responsables développés tout au long de la semaine devant un jury qui leur a fourni des commentaires et des conseils, puis les participant·es se sont dit au revoir, tout en se promettant de rester en contact et d’organiser des rencontres régulières à l’avenir.