Portrait de Adam M. Oberman n'est pas disponible

Adam M. Oberman

Membre académique associé
Chaire en IA Canada-CIFAR
Professeur titulaire, McGill University, Département de mathématiques et statistiques
Sujets de recherche
Apprentissage de représentations
Apprentissage profond
Modèles génératifs
Sécurité de l'IA
Théorie de l'apprentissage automatique

Biographie

Je suis professeur à l'Université McGill, au sein du Département de mathématiques et de statistiques. Mes recherches portent sur l'application de techniques mathématiques avancées dans le domaine de l'apprentissage profond. Mes principaux champs d'expertise incluent la modélisation générative, les méthodes d'optimisation stochastiques, l'équité et la suppression des biais en matière de vision par ordinateur, et la généralisation dans l'apprentissage par renforcement.

Avant de me joindre à McGill, en 2012, j'ai occupé un poste de professeur titulaire à l'Université Simon Fraser et j'ai effectué un stage postdoctoral à l'Université du Texas à Austin. J'ai réalisé ma formation de premier cycle à l'Université de Toronto et j'ai poursuivi des études supérieures à l'Université de Chicago. Au cours de ma carrière, j'ai également occupé des postes de visiteur à l’Université de Chicago à Los Angeles (UCLA) et à l'INRIA à Paris.

Mes recherches antérieures ont porté sur les domaines des équations aux dérivées partielles et du calcul scientifique; j'ai d’ailleurs apporté d'importantes contributions dans les secteurs du transport optimal numérique, des EDP géométriques et des problèmes de contrôle stochastique.

Je donne deux cours théoriques complets sur l'apprentissage automatique, couvrant des sujets tels que la théorie de l'apprentissage statistique et la théorie des noyaux.

Étudiants actuels

Maîtrise recherche - McGill
Visiteur de recherche indépendant - University of Technology Sydney
Doctorat - McGill
Co-superviseur⋅e :
Doctorat - McGill
Doctorat - UdeM
Superviseur⋅e principal⋅e :

Billets de blogue

par
Tiago Salvador
Stephanie Cairns
Vikram Voleti

Publications

Improving Continuous Normalizing Flows using a Multi-Resolution Framework
Vikram Voleti
Chris Finlay
Recent work has shown that Continuous Normalizing Flows (CNFs) can serve as generative models of images with exact likelihood calculation an… (voir plus)d invertible generation/density estimation. In this work we introduce a Multi-Resolution variant of such models (MRCNF). We introduce a transformation between resolutions that allows for no change in the log likelihood. We show that this approach yields comparable likelihood values for various image datasets, with improved performance at higher resolutions, with fewer parameters, using only 1 GPU.
A principled approach for generating adversarial images under non-smooth dissimilarity metrics
Aram-Alexandre Pooladian
Chris Finlay
Tim Hoheisel
A principled approach for generating adversarial images under non-smooth dissimilarity metrics
Aram-Alexandre Pooladian
Chris J. Finlay
Tim Hoheisel
Deep neural networks perform well on real world data but are prone to adversarial perturbations: small changes in the input easily lead to m… (voir plus)isclassification. In this work, we propose an attack methodology not only for cases where the perturbations are measured by
Deep PDE Solvers for Subgrid Modelling and Out-of-Distribution Generalization
Patrick Chatain
Climate and weather modelling (CWM) is an important area where ML models are used for subgrid modelling: making predictions of processes occ… (voir plus)urring at scales too small to be resolved by standard solution methods(Brasseur & Jacob, 2017). These models are expected to make accurate predictions, even on out-of-distribution (OOD) data, and are additionally expected to respect important physical constraints of the ground truth model (Kashinath et al., 2021). While many specialized ML PDE solvers have been developed, the particular requirements of CWM models have not been addressed so far. The goal of this work is to address them. We propose and develop a novel architecture, which matches or exceeds the performance of standard ML models, and which demonstrably succeeds in OOD generalization. The architecture is based on expert knowledge of the structure of PDE solution operators, which permits the model to also obey important physical constraints