Portrait de Adam M. Oberman n'est pas disponible

Adam M. Oberman

Membre académique associé
Chaire en IA Canada-CIFAR
Professeur titulaire, McGill University, Département de mathématiques et statistiques
Sujets de recherche
Apprentissage de représentations
Apprentissage profond
Modèles génératifs
Optimisation
Systèmes dynamiques
Théorie de l'apprentissage automatique
Vision par ordinateur

Biographie

Je suis professeur à l'Université McGill, au sein du Département de mathématiques et de statistiques. Mes recherches portent sur l'application de techniques mathématiques avancées dans le domaine de l'apprentissage profond. Mes principaux champs d'expertise incluent la modélisation générative, les méthodes d'optimisation stochastiques, l'équité et la suppression des biais en matière de vision par ordinateur, et la généralisation dans l'apprentissage par renforcement.

Avant de me joindre à McGill, en 2012, j'ai occupé un poste de professeur titulaire à l'Université Simon Fraser et j'ai effectué un stage postdoctoral à l'Université du Texas à Austin. J'ai réalisé ma formation de premier cycle à l'Université de Toronto et j'ai poursuivi des études supérieures à l'Université de Chicago. Au cours de ma carrière, j'ai également occupé des postes de visiteur à l’Université de Chicago à Los Angeles (UCLA) et à l'INRIA à Paris.

Mes recherches antérieures ont porté sur les domaines des équations aux dérivées partielles et du calcul scientifique; j'ai d’ailleurs apporté d'importantes contributions dans les secteurs du transport optimal numérique, des EDP géométriques et des problèmes de contrôle stochastique.

Je donne deux cours théoriques complets sur l'apprentissage automatique, couvrant des sujets tels que la théorie de l'apprentissage statistique et la théorie des noyaux.

Étudiants actuels

Maîtrise recherche - McGill
Maîtrise recherche - McGill
Postdoctorat - McGill
Co-superviseur⋅e :
Doctorat - McGill
Doctorat - UdeM
Superviseur⋅e principal⋅e :
Maîtrise recherche - McGill

Publications

Can Safety Fine-Tuning Be More Principled? Lessons Learned from Cybersecurity
David Williams-King
Linh Le
As LLMs develop increasingly advanced capabilities, there is an increased need to minimize the harm that could be caused to society by certa… (voir plus)in model outputs; hence, most LLMs have safety guardrails added, for example via fine-tuning. In this paper, we argue the position that current safety fine-tuning is very similar to a traditional cat-and-mouse game (or arms race) between attackers and defenders in cybersecurity. Model jailbreaks and attacks are patched with bandaids to target the specific attack mechanism, but many similar attack vectors might remain. When defenders are not proactively coming up with principled mechanisms, it becomes very easy for attackers to sidestep any new defenses. We show how current defenses are insufficient to prevent new adversarial jailbreak attacks, reward hacking, and loss of control problems. In order to learn from past mistakes in cybersecurity, we draw analogies with historical examples and develop lessons learned that can be applied to LLM safety. These arguments support the need for new and more principled approaches to designing safe models, which are architected for security from the beginning. We describe several such approaches from the AI literature.
Harnessing small projectors and multiple views for efficient vision pretraining
Arna Ghosh
Kumar Krishna Agrawal
Shagun Sodhani
Multi-Resolution Continuous Normalizing Flows
Vikram Voleti
Chris Finlay
Addressing Sample Inefficiency in Multi-View Representation Learning
Kumar Krishna Agrawal
Arna Ghosh
Deep PDE Solvers for Subgrid Modelling and Out-of-Distribution Generalization
Patrick Chatain
EuclidNets: An Alternative Operation for Efficient Inference of Deep Learning Models
Xinlin Li
Mariana Parazeres
Alireza Ghaffari
Masoud Asgharian
Vahid Nia
A Reproducible and Realistic Evaluation of Partial Domain Adaptation Methods
Tiago Salvador
Kilian FATRAS
Unsupervised Domain Adaptation (UDA) aims at classifying unlabeled target images leveraging source labeled ones. In the case of an extreme l… (voir plus)abel shift scenario between the source and target domains, where we have extra source classes not present in the target domain, the UDA problem becomes a harder problem called Partial Domain Adaptation (PDA). While different methods have been developed to solve the PDA problem, most successful algorithms use model selection strategies that rely on target labels to find the best hyper-parameters and/or models along training. These strategies violate the main assumption in PDA: only unlabeled target domain samples are available. In addition, there are also experimental inconsistencies between developed methods - different architectures, hyper-parameter tuning, number of runs - yielding unfair comparisons. The main goal of this work is to provide a realistic evaluation of PDA methods under different model selection strategies and a consistent evaluation protocol. We evaluate 6 state-of-the-art PDA algorithms on 2 different real-world datasets using 7 different model selection strategies. Our two main findings are: (i) without target labels for model selection, the accuracy of the methods decreases up to 30 percentage points; (ii) only one method and model selection pair performs well on both datasets. Experiments were performed with our PyTorch framework, BenchmarkPDA, which we open source.
A principled approach for generating adversarial images under non-smooth dissimilarity metrics
Aram-Alexandre Pooladian
Chris Finlay
Tim Hoheisel