Mila > IA pour l’humanité

IA pour l’humanité

Mila est une organisation à but non lucratif principalement financée par le public. La responsabilité sociale a toujours été au cœur de nos valeurs, et nous choisissons soigneusement nos projets et nos partenaires afin de minimiser les risques de dommages sociétaux.

L’intelligence artificielle (IA) offre de grandes opportunités mais comporte également des risques qui doivent être pris en compte et abordés à toutes les étapes de la recherche, du développement et du déploiement. 

Nous pensons que le progrès scientifique doit profiter à tous. En ce sens, nous avons créé l'équipe IA pour l’humanité afin de veiller à ce que la technologie serve au mieux les intérêts de tous les humains. Notre équipe croissante de spécialistes de l'éthique et de la gouvernance de l'IA collabore avec des universitaires de nombreuses disciplines, la société civile, des partenaires industriels et des gouvernements pour garantir un développement socialement bénéfique et responsable de l'IA.

En 2018, Mila a été à l’avant-garde du mouvement de l’IA responsable en créant la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle en partenariat avec l’Université de Montréal. Soutenue par la majorité de l’écosystème québécois de l’IA, elle proposait des principes éthiques basés sur 10 valeurs fondamentales : le bien-être, le respect de l’autonomie, la protection de la vie privée et de l’intimité, la solidarité, la participation démocratique, l’équité, l’inclusion de la diversité, la prudence, la responsabilité et le développement durable. Ces valeurs continuent d’être au cœur de tout ce que nous faisons et nous guident sur la voie d’un meilleur développement de l’IA. 

Voici les projets passés, présents et futurs menés par IA pour l’humanité :

Apprentissage 

Programme TRAIL (Trustworthy and Responsible AI Learning, Apprentissage de l’IA fiable et responsable) 

Les considérations éthiques, juridiques et de gouvernance sont pour la plupart absentes de la formation des chercheurs et des professionnels de l’industrie de l’IA. Nos programmes TRAIL (TRAIL Recherche et TRAIL Industrie) enseignent aux participants comment évaluer et traiter au mieux l’impact des systèmes d’IA en présentant les pratiques et outils actuels pour leur développement responsable. Le programme vise à développer les connaissances et à renforcer les compétences des chercheurs, des acteurs de l’industrie et des décideurs politiques.

École d’été sur l’IA responsable et les droits humains 

Les initiatives de formation et de recherche en matière d’IA manquent souvent d’une approche interdisciplinaire et internationale. Notre école d’été, une initiative conjointe de Mila et de l’Université de Montréal, rassemble des participants de divers horizons et pays pour en apprendre davantage sur le développement socialement bénéfique et responsable de l’IA, les droits humains et la gouvernance de l’IA. Pendant une semaine, les participants acquièrent des connaissances pratiques, un réseau professionnel et des compétences en leadership pour devenir des promoteurs de l’IA responsable et des droits humains dans leurs propres communautés et au-delà.

Série de conférences “Rester à niveau en IA” pour l’École de la fonction publique du Canada 

Les fonctionnaires et décideurs politiques doivent mieux comprendre les technologies d’IA pour savoir comment la réglementer au mieux et comment l’utiliser pour mieux servir les citoyens. Nos professeures, professeurs et membres du personnel de Mila présentent les applications les plus intéressantes et les plus prometteuses de l’IA à un public de fonctionnaires, tout en soulignant les risques qui y sont associés. Cela leur permettra de mieux comprendre les avantages et les inconvénients d’une technologie qui évolue rapidement.

AI4Good Lab 

Les femmes+ (femmes, transgenres et individus non binaires) sont sous-représentées à tous les niveaux de l’industrie de l’IA, en particulier dans les rôles de direction. Le AI4Good Lab est un programme d’introduction à l’apprentissage automatique pour les femmes+ ayant des connaissances en programmation et une expérience partielle ou intermédiaire en apprentissage automatique. Nos participantes ont le potentiel de devenir des chercheuses, des développeuses, des leaders et des décideuses politiques, et le programme leur donne les compétences techniques, les connaissances actuelles et, surtout, les contacts dont elles ont besoin pour réussir dans l’industrie de l’IA.

Conseil

Conseil en IA responsable pour l’industrie

Notre équipe interdisciplinaire soutient les petites et moyennes organisations (PME) dans l’adoption responsable de l’IA en fournissant des conseils pratiques aux équipes d’apprentissage automatique au sein de l’industrie, en étroite collaboration avec le programme Activation IA de Mila, qui aide les PME à démarrer l’adoption de l’apprentissage automatique avancé, et l’équipe de recherche appliquée en apprentissage automatique.

Manuel sur l’équité, la diversité et l’inclusion (EDI) et l’IA responsable 

La connaissance des enjeux d’équité, de diversité et d’inclusion (EDI) est cruciale pour garantir un développement sûr et responsable des systèmes d’IA. Nous voulons fournir aux chercheurs en IA un canal organisé, accessible et spécifique à leur domaine pour apprendre les concepts d’EDI et d’IA responsable, et les aider à mettre en œuvre les pratiques les plus pertinentes pour leur travail. Une page web interactive contenant des informations clés et d’autres ressources sera mise en ligne, et nous proposerons également des consultations personnalisées.

Recherche

Recherche et leadership intellectuel (UNESCO, ONU Habitat) 

La coopération internationale est nécessaire pour développer des garde-fous et une gouvernance efficaces pour l’IA. Notre équipe mène des projets de recherche internationaux et interdisciplinaires, l’application responsable des systèmes d’IA et l’atténuation des risques pour les gouvernements et la gouvernance de l’IA. Nous avons établi des partenariats avec des institutions multilatérales telles que l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO), avec laquelle nous avons publié un livre (Angles morts de la gouvernance de l’IA) sur le besoin urgent de réglementer l’IA, et le Programme des Nations unies pour les établissements humains (ONU-Habitat), avec lequel nous avons publié un livre blanc sur les risques, les applications et la gouvernance de l’IA dans les villes.

Atelier interdisciplinaire de cadrage et recherche sur les impacts psychologiques des systèmes d’IA

Au printemps 2023, l’ISDE a chargé Mila d’organiser un atelier de cadrage pour explorer le concept de préjudice, d’impact et d’influence psychologiques, ainsi que ses nombreuses définitions et applications potentielles dans le contexte du projet de loi C-27, en réunissant un groupe interdisciplinaire d’experts, y compris des chercheurs et des professeurs de Mila AI, susceptibles d’avoir des idées sur le sujet et de faire le point sur les recherches existantes dans divers domaines, d’identifier les lacunes en matière de recherche et d’exposer les besoins futurs en matière de recherche. Voici les conclusions de cette étude exploratoire, dirigée par Shalaleh Rismani.

Conclusions de l'étude

Projets d’IA appliqués

Le portefeuille de projets appliqués d’IA pour l’humanité contient cinq projets d’IA socialement bénéfiques. Nous cherchons à générer un fort impact collectif en partageant nos meilleures pratiques et nos connaissances, ainsi qu’en mettant à disposition nos ensembles de données et nos modèles. Nous collaborons avec des experts multidisciplinaires pour tester et évaluer soigneusement les impacts potentiels de nos outils avant de les déployer.

Biasly

Peu d’outils permettant de détecter les préjugés sexistes en ligne et de prévenir leurs effets néfastes existent. Biasly est un projet de recherche multidisciplinaire conçu pour identifier, corriger et supprimer le langage misogyne dans les textes et pour enseigner au public comment les préjugés contre les femmes sont exprimés. Outre le déploiement de l’outil, nous cherchons à publier un nouvel ensemble de données faisant progresser le champ de recherche.

AIMS

Les lois sur l’esclavage moderne obligent les entreprises du monde entier à publier des documents détaillant les mesures mises en place pour garantir l’absence d’esclavage dans leurs chaînes d’approvisionnement, mais les rapports manquent souvent d’accessibilité. Notre projet AI against Modern Slavery (AIMS) crée des méthodes et des outils pour “lire” automatiquement ces déclarations. En utilisant les techniques de pointe de science des données et d’apprentissage automatique, y compris le traitement du langage naturel (NLP) et la linguistique computationnelle, AIMS cherche à fournir un aperçu approfondi de chaque rapport, en évaluant le niveau de conformité et en améliorant l’impact de la réglementation anti-esclavagisme.

Databank

Les avocats, les juges et les décideurs politiques du monde entier ont besoin d’une meilleure infrastructure pour identifier et comprendre les tendances en matière de politique et de droit liés à l’IA. Notre projet Databank vise à combler ces lacunes en fournissant un moteur de recherche interactif capable de partager les principales tendances en matière de réglementation de l’IA à l’échelle mondiale. S’appuyant sur un référentiel de données de l’Organisation de coopération et de développement économiques (OCDE), Databank fournit aux utilisateurs les informations dont ils ont besoin pour identifier les angles morts, les tendances et même les possibilités de coopération internationale.

Infrared

La traite des êtres humains en ligne est l’un des problémes les plus difficiles à résoudre de notre temps. Notre projet Infrared, développé en consultation avec des avocats, des éthiciens, des experts en criminologie et des victimes de la traite des êtres humains, utilise des techniques basées sur les données pour signaler les activités suspectes sur le réseau présentant des signes de traite des êtres humains. Cela pourrait permettre d’aider des victimes et de sauver davantage de vies.

DISA

De meilleures politiques et des changements populaires sont nécessaires pour passer de modèles agricoles extractifs et énergivores à des modèles plus durables qui respectent la nature, les connaissances locales et aident les économies à prospérer. Data-driven Insights for Sustainable Agriculture (DISA) est un projet interdisciplinaire promouvant une approche alternative de l’agriculture appelée agriculture régénératrice, qui est bénéfique pour la séquestration du carbone et la réduction de l’érosion des sols et de la pollution de l’eau. En combinant des images satellite à haute résolution et des algorithmes, il est possible d’identifier les pratiques agricoles régénératrices et non régénératrices à grande échelle afin de démontrer l’impact positif de cette approche sur la fertilité et l’érosion des sols ainsi que sur la résilience des exploitations agricoles face aux phénomènes météorologiques extrêmes.

FLAIR (First Languages AI Reality) 

Selon l’UNESCO, près de 50 % des langues autochtones du monde et environ 90 % des langues nord-américaines sont en danger. Nous avons créé l’initiative First Languages AI Reality (FLAIR) pour amener le prochain chapitre de la préservation des langues autochtones grâce à l’utilisation d’une technologie d’IA immersive avancée. L’objectif de FLAIR est de développer une méthode de création rapide de modèles personnalisés de reconnaissance automatique de la parole (ASR) pour les langues autochtones.