Portrait de Adam M. Oberman n'est pas disponible

Adam M. Oberman

Membre académique associé
Chaire en IA Canada-CIFAR
Professeur titulaire, McGill University, Département de mathématiques et statistiques
Sujets de recherche
Apprentissage de représentations
Apprentissage profond
Modèles génératifs
Optimisation
Systèmes dynamiques
Théorie de l'apprentissage automatique
Vision par ordinateur

Biographie

Je suis professeur à l'Université McGill, au sein du Département de mathématiques et de statistiques. Mes recherches portent sur l'application de techniques mathématiques avancées dans le domaine de l'apprentissage profond. Mes principaux champs d'expertise incluent la modélisation générative, les méthodes d'optimisation stochastiques, l'équité et la suppression des biais en matière de vision par ordinateur, et la généralisation dans l'apprentissage par renforcement.

Avant de me joindre à McGill, en 2012, j'ai occupé un poste de professeur titulaire à l'Université Simon Fraser et j'ai effectué un stage postdoctoral à l'Université du Texas à Austin. J'ai réalisé ma formation de premier cycle à l'Université de Toronto et j'ai poursuivi des études supérieures à l'Université de Chicago. Au cours de ma carrière, j'ai également occupé des postes de visiteur à l’Université de Chicago à Los Angeles (UCLA) et à l'INRIA à Paris.

Mes recherches antérieures ont porté sur les domaines des équations aux dérivées partielles et du calcul scientifique; j'ai d’ailleurs apporté d'importantes contributions dans les secteurs du transport optimal numérique, des EDP géométriques et des problèmes de contrôle stochastique.

Je donne deux cours théoriques complets sur l'apprentissage automatique, couvrant des sujets tels que la théorie de l'apprentissage statistique et la théorie des noyaux.

Étudiants actuels

Maîtrise recherche - McGill
Maîtrise recherche - McGill
Postdoctorat - McGill
Co-superviseur⋅e :
Doctorat - McGill
Maîtrise recherche - UdeM
Superviseur⋅e principal⋅e :
Maîtrise recherche - McGill

Publications

Multi-Resolution Continuous Normalizing Flows
Vikram Voleti
Chris Finlay
Addressing Sample Inefficiency in Multi-View Representation Learning
Kumar Krishna Agrawal
Arna Ghosh
Deep PDE Solvers for Subgrid Modelling and Out-of-Distribution Generalization
Patrick Chatain
EuclidNets: An Alternative Operation for Efficient Inference of Deep Learning Models
Xinlin Li
Mariana Parazeres
Alireza Ghaffari
Masoud Asgharian
Vahid Nia
A Reproducible and Realistic Evaluation of Partial Domain Adaptation Methods
Tiago Salvador
Kilian FATRAS
Unsupervised Domain Adaptation (UDA) aims at classifying unlabeled target images leveraging source labeled ones. In the case of an extreme l… (voir plus)abel shift scenario between the source and target domains, where we have extra source classes not present in the target domain, the UDA problem becomes a harder problem called Partial Domain Adaptation (PDA). While different methods have been developed to solve the PDA problem, most successful algorithms use model selection strategies that rely on target labels to find the best hyper-parameters and/or models along training. These strategies violate the main assumption in PDA: only unlabeled target domain samples are available. In addition, there are also experimental inconsistencies between developed methods - different architectures, hyper-parameter tuning, number of runs - yielding unfair comparisons. The main goal of this work is to provide a realistic evaluation of PDA methods under different model selection strategies and a consistent evaluation protocol. We evaluate 6 state-of-the-art PDA algorithms on 2 different real-world datasets using 7 different model selection strategies. Our two main findings are: (i) without target labels for model selection, the accuracy of the methods decreases up to 30 percentage points; (ii) only one method and model selection pair performs well on both datasets. Experiments were performed with our PyTorch framework, BenchmarkPDA, which we open source.
A principled approach for generating adversarial images under non-smooth dissimilarity metrics
Aram-Alexandre Pooladian
Chris Finlay
Tim Hoheisel