Mila > Équipe > Adam Oberman

Adam Oberman

Membre académique associé
Professeur titulaire, McGill University, Chaire en IA Canada-CIFAR

Je suis professeur à l’Université McGill, au sein du département de mathématiques et de statistiques.

Mes recherches portent sur l’application de techniques mathématiques avancées dans le domaine de l’apprentissage profond. Mes domaines d’expertise principaux incluent la modélisation générative, les méthodes d’optimisation stochastiques, l’équité/la suppression des biais en vision par ordinateur et la généralisation dans l’apprentissage par renforcement.

Avant de rejoindre McGill en 2012, j’ai occupé un poste de professeur titulaire à l’Université Simon Fraser et j’ai effectué un stage postdoctoral à l’Université du Texas à Austin. J’ai obtenu ma formation de premier cycle à l’Université de Toronto et j’ai poursuivi des études supérieures à l’Université de Chicago. Au cours de ma carrière, j’ai également occupé des postes de visite à UCLA et à l’INRIA, Paris.

Mes recherches antérieures couvraient les domaines des équations aux dérivées partielles et du calcul scientifique, où j’ai apporté d’importantes contributions dans des domaines tels que le transport optimal numérique, les EDP géométriques et les problèmes de contrôle stochastique.

J’enseigne deux cours théoriques complets sur l’apprentissage automatique, couvrant des sujets tels que la théorie de l’apprentissage statistique et la théorie des noyaux.

Pour les étudiants diplômés potentiels intéressés à travailler avec moi, il est recommandé de postuler à Mila, ainsi qu’au département de mathématiques de McGill. Alternativement, les candidats peuvent envisager des opportunités de co-supervision avec des conseillers du programme d’informatique de McGill ou de l’Université de Montréal.

Publications

2021-10

Frustratingly Easy Uncertainty Estimation for Distribution Shift.
Tiago Salvador, Vikram Voleti, Alexander Iannantuono and Adam Oberman
arXiv: Machine Learning
(2021-10-18)
arxiv.orgPDF
Stochastic gradient descent with Polyak’s learning rate
Mariana Prazeres and Adam M. Oberman
Journal of Scientific Computing
(2021-10-01)
link.springer.com

2021-06

Multi-Resolution Continuous Normalizing Flows.
Vikram Voleti, Chris Finlay, Adam M. Oberman and Christopher J. Pal
arXiv: Computer Vision and Pattern Recognition
(2021-06-15)
dblp.uni-trier.dePDF
FairCal: Fairness Calibration for Face Verification.
Tiago Salvador, Stephanie Cairns, Vikram Voleti, Noah Marshall and Adam Oberman
arXiv preprint arXiv:2106.03761
(2021-06-07)
arxiv.orgPDF
Improved Predictive Uncertainty using Corruption-based Calibration.
Tiago Salvador, Vikram Voleti, Alexander Iannantuono and Adam M. Oberman
arXiv: Machine Learning
(2021-06-07)
ui.adsabs.harvard.eduPDF
Bias Mitigation of Face Recognition Models Through Calibration.
Tiago Salvador, Stephanie Cairns, Vikram Voleti, Noah Marshall and Adam M. Oberman
arXiv: Computer Vision and Pattern Recognition
(2021-06-07)
ui.adsabs.harvard.eduPDF
Improving Continuous Normalizing Flows using a Multi-Resolution Framework
Vikram Voleti, Chris Finlay, Adam M Oberman and Christopher Pal
ICML 2021
(2021-06-02)
openreview.netPDF

2021-05

Uncertainty for deep image classifiers on out of distribution data.
Tiago Salvador, Alexander Iannantuono and Adam M Oberman
(venue unknown)
(2021-05-04)
openreview.netPDF
Adversarial Boot Camp: label free certified robustness in one epoch
Ryan Campbell, Chris Finlay and Adam M Oberman
arXiv e-prints
(2021-05-04)
ui.adsabs.harvard.eduPDF

2021-03

Scaleable input gradient regularization for adversarial robustness
Chris Finlay and Adam M. Oberman
Machine Learning with Applications
(2021-03-15)
www.sciencedirect.comPDF

2020-11

How to Train Your Neural ODE: the World of Jacobian and Kinetic Regularization
Chris Finlay, Jörn-Henrik Jacobsen, Levon Nurbekyan and Adam M. Oberman
ICML 2020
(2020-11-21)
proceedings.mlr.pressPDF

2020-07

How to train your Neural ODE
Chris Finlay, Joern-Henrik Jacobsen, Levon Nurbekyan and Adam M Oberman
ICML 2020
(2020-07-12)
icml.ccPDF

2020-06

Learning normalizing flows from Entropy-Kantorovich potentials
Chris Finlay, Augusto Gerolin, Adam M Oberman and Aram-Alexandre Pooladian
arXiv preprint arXiv:2006.06033
(2020-06-10)
ui.adsabs.harvard.eduPDF
Deterministic Gaussian Averaged Neural Networks.
Ryan Campbell, Chris Finlay and Adam M. Oberman
arXiv: Learning
(2020-06-10)
dblp.uni-trier.dePDF
A principled approach for generating adversarial images under non-smooth dissimilarity metrics
Aram-Alexandre Pooladian, Chris Finlay, Tim Hoheisel and Adam M. Oberman
AISTATS 2020
(2020-06-03)
proceedings.mlr.pressPDF

Publications collected and formatted using Paperoni