Portrait de Pascal Germain

Pascal Germain

Membre académique associé
Chaire en IA Canada-CIFAR
Professeur adjoint, Université Laval, Département d'informatique et de génie logiciel
Sujets de recherche
Apprentissage de représentations
Théorie de l'apprentissage automatique

Biographie

Pascal Germain est professeur adjoint au Département d’informatique et de génie logiciel de l’Université Laval, chercheur en apprentissage automatique et titulaire d'une chaire en IA Canada-CIFAR. Il a obtenu un doctorat en informatique de l'Université Laval en 2015, sous la direction de François Laviolette et de Mario Marchand. Il a ensuite poursuivi ses travaux de recherche en France pendant quatre ans au sein de l’Institut national de recherche en sciences et technologies du numérique (Inria), d'abord comme postdoctorant dans l'équipe du projet SIERRA de Francis Bach, puis comme chargé de recherche et membre de l'équipe du projet MODAL. Il a aussi été membre affilié et enseignant au Département de mathématiques de l'Université de Lille. De retour à son alma mater en tant que professeur adjoint depuis 2019, il y est membre du Centre de recherche en données massives (CRDM) et de l'Institut intelligence et données (IID). Il est également membre académique associé de Mila – Institut québécois d’intelligence artificielle. Ses domaines de recherche comprennent la théorie statistique de l’apprentissage automatique, l'apprentissage par transfert et l'apprentissage de prédicteurs interprétables.

Étudiants actuels

Doctorat - Université Laval
Doctorat - Université Laval
Co-superviseur⋅e :
Doctorat - Université Laval

Publications

Sample Compression Hypernetworks: From Generalization Bounds to Meta-Learning
Benjamin Leblanc
Mathieu Bazinet
Nathaniel D'Amours
Reconstruction functions are pivotal in sample compression theory, a framework for deriving tight generalization bounds. From a small sample… (voir plus) of the training set (the compression set) and an optional stream of information (the message), they recover a predictor previously learned from the whole training set. While usually fixed, we propose to learn reconstruction functions. To facilitate the optimization and increase the expressiveness of the message, we derive a new sample compression generalization bound for real-valued messages. From this theoretical analysis, we then present a new hypernetwork architecture that outputs predictors with tight generalization guarantees when trained using an original meta-learning framework. The results of promising preliminary experiments are then reported.
Sample compression unleashed : New generalization bounds for real valued losses
Mathieu Bazinet
Valentina Zantedeschi
Seeking Interpretability and Explainability in Binary Activated Neural Networks
Benjamin Leblanc
Phoneme Discretized Saliency Maps for Explainable Detection of AI-Generated Voice
A general framework for the practical disintegration of PAC-Bayesian bounds
Paul Viallard
Amaury Habrard
Emilie Morvant
Statistical Guarantees for Variational Autoencoders using PAC-Bayesian Theory
Sokhna Diarra Mbacke
Florence Clerc
Statistical Guarantees for Variational Autoencoders using PAC-Bayesian Theory
Sokhna Diarra Mbacke
Florence Clerc
PAC-Bayesian Generalization Bounds for Adversarial Generative Models
Sokhna Diarra Mbacke
Florence Clerc
Invariant Causal Set Covering Machines
Thibaud Godon
Baptiste Bauvin
Jacques Corbeil
PAC-Bayesian Learning of Aggregated Binary Activated Neural Networks with Probabilities over Representations
Louis Fortier-Dubois
Gaël Letarte
Benjamin Leblanc
François Laviolette
PAC-Bayesian Generalization Bounds for Adversarial Generative Models
Sokhna Diarra Mbacke
Florence Clerc
We extend PAC-Bayesian theory to generative models and develop generalization bounds for models based on the Wasserstein distance and the to… (voir plus)tal variation distance. Our first result on the Wasserstein distance assumes the instance space is bounded, while our second result takes advantage of dimensionality reduction. Our results naturally apply to Wasserstein GANs and Energy-Based GANs, and our bounds provide new training objectives for these two. Although our work is mainly theoretical, we perform numerical experiments showing non-vacuous generalization bounds for Wasserstein GANs on synthetic datasets.
Sample Boosting Algorithm (SamBA) - An interpretable greedy ensemble classifier based on local expertise for fat data
Baptiste Bauvin
Cécile Capponi
Florence Clerc
Sokol Koço
Jacques Corbeil