Portrait de Christian Gagné

Christian Gagné

Membre académique associé
Chaire en IA Canada-CIFAR
Professeur titulaire, Université Laval, Département de génie électrique et informatique
Directeur, Institute Intelligence and Data (IID)
Sujets de recherche
Apprentissage automatique médical
Apprentissage de la programmation
Apprentissage de représentations
Apprentissage profond
Vision par ordinateur

Biographie

Christian Gagné est professeur au Département de génie électrique et de génie informatique de l’Université Laval depuis 2008, et dirige l’Institut intelligence et données (IID). Il détient une chaire en IA Canada-CIFAR et est membre associé à Mila – Institut québécois d’intelligence artificielle. Il est également membre du Laboratoire de vision et systèmes numériques (LVSN), une composante du Centre de recherche en robotique, vision et intelligence machine (CeRVIM) ainsi que du Centre de recherche en données massives (CRDM) de l’Université Laval. Il fait partie des regroupements stratégiques REPARTI et UNIQUE du Fonds de recherche du Québec – Nature et technologies (FRQNT), du centre VITAM du Fonds de recherche du Québec – Santé (FRQS) et de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA).

Ses intérêts de recherche portent sur l’élaboration de méthodes pour l’apprentissage automatique et l’optimisation stochastique. En particulier, il se consacre aux réseaux de neurones profonds, à l’apprentissage et au transfert de représentations, au méta-apprentissage ainsi qu’à l’apprentissage multitâche. Il s’intéresse également aux approches d’optimisation basées sur des modèles probabilistes ainsi qu’aux algorithmes évolutionnaires, entre autres pour l’optimisation boîte noire et la programmation automatique. Une part importante de ses travaux porte également sur la mise en pratique de ces techniques dans des domaines comme la vision numérique, la microscopie, la santé, l’énergie et les transports.

Étudiants actuels

Doctorat - Université Laval
Doctorat - Université Laval
Maîtrise recherche - Université Laval
Doctorat - Université Laval
Doctorat - Université Laval
Doctorat - Université Laval
Stagiaire de recherche - Université Laval
Doctorat - Université Laval
Doctorat - Université Laval
Doctorat - Université Laval

Publications

Active Learning for Capturing Human Decision Policies in a Data Frugal Context
Loïc Grossetête
Alexandre Marois
Bénédicte Chatelais
Daniel Lafond
On Learning Fairness and Accuracy on Multiple Subgroups
Gezheng Xu
Qi CHEN
Jiaqi Li
Charles Ling
Boyu Wang
We propose an analysis in fair learning that preserves the utility of the data while reducing prediction disparities under the criteria of g… (voir plus)roup sufficiency. We focus on the scenario where the data contains multiple or even many subgroups, each with limited number of samples. As a result, we present a principled method for learning a fair predictor for all subgroups via formulating it as a bilevel objective. Specifically, the subgroup specific predictors are learned in the lower-level through a small amount of data and the fair predictor. In the upper-level, the fair predictor is updated to be close to all subgroup specific predictors. We further prove that such a bilevel objective can effectively control the group sufficiency and generalization error. We evaluate the proposed framework on real-world datasets. Empirical evidence suggests the consistently improved fair predictions, as well as the comparable accuracy to the baselines.
On the benefits of representation regularization in invariance based domain generalization
A crucial aspect of reliable machine learning is to design a deployable system for generalizing new related but unobserved environments. Dom… (voir plus)ain generalization aims to alleviate such a prediction gap between the observed and unseen environments. Previous approaches commonly incorporated learning the invariant representation for achieving good empirical performance. In this paper, we reveal that merely learning the invariant representation is vulnerable to the related unseen environment. To this end, we derive a novel theoretical analysis to control the unseen test environment error in the representation learning, which highlights the importance of controlling the smoothness of representation. In practice, our analysis further inspires an efficient regularization method to improve the robustness in domain generalization. The proposed regularization is orthogonal to and can be straightforwardly adopted in existing domain generalization algorithms that ensure invariant representation learning. Empirical results show that our algorithm outperforms the base versions in various datasets and invariance criteria.
Neuronal activity remodels the F-actin based submembrane lattice in dendrites but not axons of hippocampal neurons
Anthony Bilodeau
Mado Lemieux
Marc-André Gardner
Theresa Wiesner
Gabrielle Laramée
Paul De Koninck
Deep Active Learning: Unified and Principled Method for Query and Training
Fan Zhou
Boyu Wang
Session details: Digital entertainment technologies and arts track posters
Mike Preuss
Session details: Digital entertainment technologies and arts track papers
Mike Preuss