TRAIL Recherche

Le parcours de l'apprentissage responsable de l'IA pour les chercheur·euse·s en apprentissage automatique

Logo Trail research

Description

En tant qu'architectes du paysage technologique de demain, les chercheur·euse·s en apprentissage automatique ont une responsabilité importante dans l'élaboration de notre avenir commun. Il est donc essentiel de les doter non seulement des connaissances techniques nécessaires pour faire progresser les frontières de l'intelligence artificielle, mais aussi de les aider à développer une conscience aiguë des implications sociétales plus larges de cette technologie, et à évaluer les impacts en aval des systèmes d'IA qu'elles et ils développent.

Conçu par Mila pour notre communauté de chercheur·euse·s, le certificat TRAIL (formation en intelligence artificielle responsable et digne de confiance) est un programme de formation synchrone de 12 heures destiné aux chercheur·euse·s en intelligence artificielle. Il fournit aux participant·e·s les connaissances fondamentales, les compétences et les outils nécessaires pour concevoir et mener leurs projets de recherche en IA de manière responsable. Les participant·e·s apprennent à appliquer les meilleures pratiques et méthodologies tout au long du cycle de recherche, de l'identification des préoccupations éthiques à l'évaluation des impacts, en passant par l'étude et l'atténuation des conséquences involontaires.

À qui s'adresse ce programme

Ce programme n'est actuellement proposé qu'aux étudiant·e·s et chercheur·euse·s affilié·e·s à Mila.

Toutefois, si vous êtes un·e éducateur·trice désireux·se de proposer TRAIL à vos étudiant·e·s, notre guide complet pour les éducateur·rice·s sera bientôt disponible en accès libre. 

Grâce à cet outil gratuit, vous disposerez du contenu et des notes d'animation nécessaires pour proposer le programme à vos étudiant·e·s. 

Guide pour les éducateur·rice·s: formulaire d'intérêt

Pour recevoir le guide dès qu'il sera disponible, veuillez remplir ce formulaire.

Pour toute information complémentaire, vous pouvez contacter ariana.seferiades@mila.quebec.  

Objectifs d'apprentissage

Reconnaissant les défis auxquels les chercheurs·euse·s font face dans l'opérationnalisation de l'IA responsable, TRAIL a été créé pour doter le bassin de talents diversifié de Mila (travaillant sur la recherche fondamentale et appliquée en apprentissage automatique) des outils et questions essentiels pour mettre en œuvre de manière pratique l’IAR dans leurs projets de recherche. 

S'appuyant sur les vastes connaissances des professeur·e·s affilié·e·s à Mila qui apportent des contributions significatives dans les domaines de l’équité, de la responsabilité, de la transparence et de l’éthique (FATE), de l'interaction humain-IA et de l'IA responsable, ce programme a été développé avec le soutien et les conseils d'éducateur·rice·s et de chercheur·euse·s expert·e·s. 

À l'issue de ce programme, les participant·e·s seront en mesure de :

  • Définir ce que sont l'IA responsable et l'éthique de l'IA, et comment elles s'appliquent au contexte de la recherche;
  • Développer une sensibilité éthique et une pensée critique pour mener une recherche responsable en matière d'IA;
  • Apprendre à évaluer les impacts en aval des projets de recherche en IA et à faire des choix de conception conscients, grâce à des outils pratiques, des cadres et des études de cas;
  • Apprendre à adopter le cycle de recherche en IA comme cadre stratégique pour planifier et exécuter consciemment des projets de recherche en IA responsable;
  • Prendre des décisions éclairées en matière de conception dès les premières étapes d'un projet;
  • Rédiger des déclarations d'impact;
  • Découvrir et appliquer les outils sociotechniques et les meilleures pratiques pour atténuer les risques potentiels des systèmes d'IA.
photo of Guillaume Lajoie

Le programme TRAIL a été une occasion inestimable d'explorer l'impact, les risques et les angles morts de la recherche sur l'IA dans l'ensemble des applications et des théories. C'était aussi une formidable expérience de renforcement d'équipe où tout le laboratoire a pris le temps d'avoir des discussions approfondies sur l'impact de notre travail.

Professeur Guillaume Lajoie, membre académique principal, Mila

93% 

Satisfaction

93% des participant·e·s recommanderaient le programme à leurs pairs (100% sur les deux dernières cohortes)

120

Certifications 

120 chercheur·euse·s en apprentissage automatique certifié·e·s depuis 2023

74%

Impact 

74% des participant·e·s ont indiqué que le programme a influencé de manière significative l'approche de leur recherche en apprentissage automatique

Aperçu du programme

Module 1 - Introduction à l'IA responsable et à l'éthique de l'IA

Comprendre la portée et les composantes de l'IA responsable et comment elle s'applique à la recherche en IA. Reconnaître et traiter les dilemmes moraux. Développer une sensibilité éthique et des compétences de réflexion et de dialogue.

Module 2 - Planification et atténuation d'un projet d'IA responsable

Combler l’écart entre la théorie et la pratique en se familiarisant avec des outils et des cadres pratiques pour identifier et atténuer les risques tout au long du cycle de vie de l'IA. 

Module 3 | Intégration de l'apprentissage et réflexion sur le chemin à parcourir

Mettre en pratique les évaluations d'impact et la conception responsable. Renforcer la responsabilité et l'autoréflexion.

Anciens formateurs

Membre affilié
Portrait de Fernando Diaz n'est pas disponible
Professeur agrégé, Carnegie Mellon University, École d'informatique, Language Technologies Institutes
Membre académique principal
Portrait de Golnoosh Farnadi
Professeure adjointe, McGill University, École d'informatique
Chaire en IA Canada-CIFAR
Portrait de Rose Landry
Gestionnaire de projet, Gouvernance de l'IA, Affaires juridiques et gouvernance de l'IA
Portrait de Maryam Molamohammadi
Conseillère, IA responsable, Projets appliqués
Membre académique principal
Portrait de AJung Moon
Professeure adjointe, McGill University, Département de génie électrique et informatique
Portrait de Shalaleh Rismani n'est pas disponible
Doctorat - McGill
Membre académique principal
Portrait de David Rolnick
Professeur adjoint, McGill University, École d'informatique
Chaire en IA Canada-CIFAR
photo bonaventure dossou

TRAIL m'a permis d'en savoir plus sur l'IA digne de confiance et responsable. Je repars avec un sentiment d'accomplissement, connaissant des questions importantes que je devrais me poser dans ma recherche, afin de m'assurer que les produits qui en résultent profitent à tous·tes. 

Bonaventure F. P. Dossou, doctorant, Mila/Mcgill University

Contact

Si vous avez des questions, veuillez contacter Ariana Seferiades Prece, gestionnaire de projets, éducation à Mila. 

Mila building from outside