Cours et horaires - Hiver 2023
| Cours | Description | Crédits | Horaire | Dates/Emplacement | |
---|---|---|---|---|---|---|
Simon Lacoste-Julien | IFT 6132 – Prédiction structurée avancée et optimisation | Ce cours est donné en anglais. La prédiction structurée décrit le problème d’apprendre une correspondance entre des entrées et des sorties structurées, c’est-à-dire des sorties qui sont constituées de parties interdépendantes souvent soumises à des contraintes. Des exemples incluent la prédiction de graphes, d’ordonnancements, d’appareillements, etc., et apparaissent dans de nombreuses applications telles que la vision par ordinateur, le traitement du langage naturel et la biologie computationnelle, parmi d’autres. Il s’agit d’un cours d’apprentissage machine avancé qui se concentrera sur les principes fondamentaux et les outils connexes pour la prédiction structurée. Il présentera aussi plusieurs concepts d’optimisation avancée en même temps car ces concepts sont très utiles pour la prédiction structurée. Le cours passera en revue l’état de l’art, fera le lien entre les anciennes et les nouvelles approches, et identifiera les questions en suspens. Il consistera en un mélange de cours magistraux et d’un projet de recherche mené par les étudiants. Prérequis : Je suppose que la plupart du contenu de IFT 6269 modèles graphiques probabilistes sera maitrisé par les étudiants. | 4 | Ma : 14h30 – 16h30 Jeu : 13h30 – 15h30 | À partir du 10 janvier 2023 Mila (Auditorium 1) | |
Aaron Courville | IFT 6135 – Apprentissage de représentations | Cours donné en français et en anglais. Algorithmes d’apprentissage de représentations des données et réseaux de neurones artificiels profonds. Avantages de l’apprentissage profond pour l’intelligence artificielle. Modélisation de la distribution de probabilité des données. | 4 | TBD | TBD | |
Ioannis Mitliagkas | IFT 6085 – Principes théoriques sur l’apprentissage approfondi
| Ce cours est donné en anglais. La recherche dans le domaine de l’apprentissage profond produit des résultats de pointe sur un certain nombre de tâches d’apprentissage machine. La plupart de ces progrès sont le fruit de l’intuition et d’une exploration massive par essais et erreurs. Par conséquent, la théorie est actuellement à la traîne par rapport à la pratique. La communauté de l’apprentissage machine ne comprend pas pleinement pourquoi les meilleures méthodes fonctionnent. Pourquoi pouvons-nous optimiser de manière fiable des objectifs non convexes ? Dans quelle mesure nos architectures sont-elles expressives, en termes de classe d’hypothèses qu’elles décrivent ? Pourquoi certains de nos modèles les plus complexes généralisent-ils pour donner des exemples inédits lorsque nous utilisons des ensembles de données d’un ordre de grandeur inférieur à ce que la théorie classique de l’apprentissage statistique juge suffisant ? Un symptôme de ce manque de compréhension est que les méthodes d’apprentissage profond manquent largement de garanties et d’interprétabilité, deux propriétés nécessaires aux applications critiques. Plus important encore, une base théorique solide peut aider à la conception d’une nouvelle génération de méthodes efficaces – ce qui permet de répondre au besoin d’une exploration fondée sur des essais et des erreurs aveugles. Dans cette classe, nous passerons en revue un certain nombre de publications récentes qui tentent de faire la lumière sur ces questions. Avant de discuter des nouveaux résultats dans chaque article, nous présenterons d’abord les outils fondamentaux nécessaires de l’optimisation, les statistiques, la théorie de l’information et la mécanique statistique. Le but de ce cours est d’inciter les étudiants à s’engager dans de nouvelles recherches dans le domaine. À cette fin, la majorité du crédit sera accordée pour un rapport de projet de classe et une présentation sur un sujet pertinent. Note : Il s’agit d’un cours avancé conçu pour les étudiants au doctorat ayant de solides connaissances en mathématiques. | 4 | Me : 9h30- 11h30 Je : 9h00 – 11h00 | TBD | |
Irina Rish | IFT6760A: Vers l’intelligence artificielle générale : mise à l’échelle, alignement et comportements émergents dans les réseaux de neurones | Ce cours de style séminaire se concentrera sur les avancées récentes dans le domaine en développement rapide des “modèles de base”, c’est-à-dire des modèles de réseaux de neurones à grande échelle (par exemple, GPT-3, CLIP, DALL-e, etc.) préformés sur de très grands, divers ensembles de données. Ces modèles démontrent souvent une amélioration significative de leurs capacités de généralisation à quelques coups, par rapport à leurs homologues à plus petite échelle, dans un large éventail de tâches en aval – ce que l’on pourrait appeler une “transformation de la quantité en qualité” ou un “comportement émergent”. Il s’agit d’une étape importante vers un objectif de longue date consistant à atteindre l’intelligence générale artificielle (IAG). Par AGI, nous entendons ici littéralement une IA “générale”, c’est-à-dire une IA large et polyvalente capable de s’adapter rapidement à un large éventail de situations et de tâches, à la fois nouvelles et rencontrées auparavant – c’est-à-dire atteindre une bonne stabilité (mémoire) vs plasticité (adaptation) commerce -off, en utilisant la terminologie de l’apprentissage continu. Dans ce cours, nous passerons en revue les avancées les plus récentes dans les modèles pré-entraînés à grande échelle, en nous concentrant spécifiquement sur les lois d’échelle empiriques des performances de ces systèmes, avec une augmentation du calcul, de la taille du modèle et des données de pré-apprentissage (lois de puissance, transitions de phase). Nous explorerons également le compromis entre les capacités croissantes de l’IA et la sécurité/l’alignement de l’IA sur les valeurs humaines, en tenant compte d’une gamme de mesures d’évaluation au-delà de la performance prédictive. Enfin, nous aborderons plusieurs domaines connexes, notamment le transfert, le continu et le méta-apprentissage, ainsi que la généralisation hors distribution, la robustesse et la modélisation prédictive invariante/causale. | 4 | Lu :16h30 – 18h30 Jeu : 16h30 – 18h30 | Du 9 janvier au 13 avril 2023 Mila (Auditorium 2) | |
Guillaume Rabusseau | IFT 6166 – Factorisation de matrices et tenseurs pour l’apprentissage
| Cours donné en anglais. Ce cours offre un survol des connections entre algèbre linéaire/multilinéaire et apprentissage automatique, et a pour but d’initier les étudiant.e.s aux nouvelles recherches dans ce domaine. – Notions fondamentales d’algèbre linéaire et multilinéaire. – Factorisation matricielle/tensorielle et apprentissage: PCA/CCA, systèmes de recommendation, méthodes spectrales d’apprentissage, K-FAC, normalisation spectrale, méthode des moments tensorielle, compression de modèles (e.g. MRF, NN), régression tensorielle, etc. – Problèmes ouverts. | 4 | Ma : 12h30 – 14h30 Jeu : 11h30 – 13h30 | Mila | |
Guillaume Lajoie | MAT 6215 – Systèmes Dynamiques | Ce cours est une introduction au traitement des équations différentielles non linéaires et plus généralement, à la théorie des systèmes dynamiques. Il s’agit d’un cours de cycle supérieur. L’objectif est d’initier l’étudiant à la théorie des systèmes dynamiques et à ses applications. En un premier temps, des techniques classiques d’analyse de dynamique seront présentées : flots continus et discrets, existence et stabilité de solutions, variétés invariantes, bifurcations et formes normales. En un deuxième temps, une introduction à la théorie ergodique et un survol d’applications modernes sera présentée : dynamique chaotique, attracteurs étranges, entropie dynamique, systèmes à haute dimension (ex. réseaux), dynamique entrainée et transformation d’information. Une attention particulière sera accordée au traitement de systèmes dynamiques performant des computations. À la fin du cours, l’étudiant sera en mesure d’appliquer des techniques d’analyse de systèmes dynamiques à des problèmes concrets, ainsi que de naviguer la littérature moderne de systèmes dynamiques. Plusieurs exemples et applications faisant usage de simulations numériques seront utilisés. Pour suivre ce cours, l’étudiant doit maîtriser, à un niveau de premier cycle, des notions de calcul, d’équations différentielles linéaires, d’algèbre linéaire et de probabilité. | 4 | Lu : 9h – 12h & séminaire virtuel Ma : 13h-14h (sujet à changement) | TBD | |
Gauthier Gidel | IFT 6164 – Apprentissage Antagoniste | Cours donné en anglais. Un nombre grandissant d’applications d’apprentissage automatique liées à la théorie des jeux à vu le jour ces dernières années. Par exemple, les jeux à deux jouers et à somme nulle sont importants pour la modélisation générative (GAN) et la maîtrise de jeux comme Go ou Poker via l’appentissage autonome. Ce cours est à l’interface entre la théorie des jeux, l’optimisation et l’apprentissage automatique. Il essaie de comprendre comment apprendre des modèles pour jouer à des jeux. Il commencera par quelques notions rapides de théorie des jeux pour finalement se plonger dans les problèmes d’apprentissage automatique avec des formulations de jeux telles que les GAN ou l’apprentissage par renforcement avec plusieurs agents. Ce cours couvrira également l’optimisation (a.k.a training) de tels jeux d’apprentissage automatique. | 4 | Me : 15h30 – 17h30 Jeu : 13h30 – 15h30 | TBD | |
Jian Tang | MATH 80600A – Machine Learning II: Deep Learning and Applications | Ce cours est donné en anglais. L’apprentissage profond a connu un grand succès dans une variété de domaines tels que la reconnaissance vocale, la compréhension d’images et la compréhension du langage naturel. Ce cours vise à introduire les techniques de base de l’apprentissage en profondeur et les progrès récents de l’apprentissage en profondeur sur la compréhension du langage naturel et l’analyse de graphes. Ce cours vise à introduire les techniques de base de l’apprentissage en profondeur, notamment les réseaux de neurones à action directe, les réseaux de neurones convolutifs et les réseaux de neurones récurrents. Nous couvrirons également les progrès récents sur les modèles génératifs profonds. Enfin, nous présenterons comment appliquer ces techniques à la compréhension du langage naturel et à l’analyse de graphes. | 3 | TBD | TBD | |
Doina Precup | COMP 579 Reinforcement Learning | Computer Science (Sci) : Bandit algorithms, finite Markov decision processes, dynamic programming, Monte-Carlo Methods, temporal-difference learning, bootstrapping, planning, approximation methods, on versus off policy learning, policy gradient methods temporal abstraction and inverse reinforcement learning. | 4 | TBD | TBD | |
Reihaneh Rabbany | COMP 551 – Applied Machine Learning | Ce cours couvre un ensemble sélectionné de sujets en apprentissage automatique et en exploration de données, en mettant l’accent sur les bonnes méthodes et pratiques pour le déploiement de systèmes réels. La majorité des sections sont liées aux techniques d’apprentissage supervisé couramment utilisées et, dans une moindre mesure, aux méthodes non supervisées. Cela inclut les principes fondamentaux des algorithmes sur la régression linéaire et logistique, les arbres de décision, les machines à vecteurs de support, le clustering, les réseaux de neurones, ainsi que les techniques clés pour la sélection des caractéristiques et la réduction de la dimensionnalité, l’estimation des erreurs et la validation empirique. | 4 | Ma : 13h – 14h25 Jeu : 13h – 14h25 | À partir du 4 janvier 2023 Université McGill | |
Aditya Mahajan | ECSE 506 – Stochastic Control and Decision Theory | Cours donné en anglais. Markov decision processes (MDP), dynamic programming and approximate dynamic programming. Stochastic monotonicity, structure of optimal policies. Models with imperfect and delayed observations, partially observable Markov decision processes (POMDPs), information state and approximate information state. Linear quadratic and Gaussian (LQG) systems, team theory, information structures, static and dynamic teams, dynamic programming for teams. | 3 | TBD | TBD | |
Siamak Ravanbakhsh | COMP 588 Probabilistic Graphical Models | The course covers representation, inference and learning with graphical models; the topics at high level include directed and undirected graphical models; exact inference; approximate inference using deterministic optimization based methods, as well as stochastic sampling based methods; learning with complete and partial observations. | TBD | Ma : 10h -11h30 Jeu : 10h -11h30 | Université McGill | |
Golnoosh Farnadi | 80629A Machine Learning I: Large-Scale Data Analysis and Decision Making | TBD | TBD | Ve : 12h30 – 15h30 | TBD | |
Timothy J. O’Donnell | LING 645: Computational Linguistics | Cours donné en anglais. Introduction to foundational ideas in computational linguistics and natural language processing. Topics include formal language theory, probability theory, estimation and inference, and recursively defined models of language structure. Emphasis on both the mathematical foundations of the field as well as how to use these tools to understand human language. | TBD | TBD | TBD | |
Aishwarya Agrawal | IFT6765 – Vision and Language | Ce cours est donné en anglais A seminar course on recent advances in research problems at the intersection of computer vision and natural language processing, such as caption based image retrieval, grounding referring expressions, image captioning, visual question answering, etc. | 4 | Ma : 9h30 à 11h30 Ve : 13h30 à 15h30 | À Mila | |
Pierre-Luc Bacon (Ioannis en automne, PLB eh hiver) | IFT6390 – Fondements de l’apprentissage machine | Ce cours est donné en anglais Éléments de base des algorithmes d’apprentissage statistique. Exemples d’applications en forage de données, régression non linéaire, et données temporelles et apprentissage profond. | 4 | TBD | À l’UdeM | |
Dhanya Sridhar | IFT 6168 – Causal inference and machine learning | Ce cours est donné en anglais Machine learning (ML), with its success in language understanding to biological settings, is a key ingredient to intelligent agents that help us with science and decision making. However, ML faces two major hurdles that limit its wider use. First, ML systems struggle to generalize out-of-distribution (OOD), to unseen tasks and domains. Second, ML systems learn correlations but science and decision making require causal inference – an inference about the effects of interventions. The field of causality, with its formalism of causal models, provides a theoretical framework to address the shortcomings of ML systems. Causality benefits from ML too: instead of carefully measuring variables of interest and defining causal models, with ML, we can learn infer quantities from rich sources of data. In this course, we’ll begin with an introduction to the theory of causal models. We’ll build on this foundation and study the role causality plays in OOD generalization. Then, we’ll study how techniques from ML such as prediction with NNs, representation learning, and gradient based optimization help us leverage large-scale, unstructured data to make causal inferences, from estimating effects to discovering causal models. We’ll focus on the challenges and open research problems around learning causal variables and models from data using ML. This is an advanced course, taught seminar-style, and expects students to have a strong background in ML. | 4 | Ma : 12h30 à 14h30 Ve : 11h30 à 13h30 | Du 10 janvier au 14 avril 2023 | |
Glen Berseth | IFT 6163 – Apprentissage automatique pour les robots | Ce cours est donné en anglais Les méthodes d’apprentissage telles que l’apprentissage profond par renforcement ont réussi à résoudre des problèmes de planification et de contrôle simulés, mais ont du mal à produire un comportement intelligent et diversifié sur les robots. L’objectif de ce cours est de discuter de ces limitations et d’étudier des méthodes pour les surmonter et permettre à des agents capables de s’entraîner de manière autonome, de devenir des systèmes d’apprentissage et d’adaptation nécessitant peu de supervision. À la fin du cours, chaque étudiant devrait avoir une solide maîtrise des différentes techniques pour entraîner des robots à accomplir des tâches dans le monde réel. Ces techniques qui seront couvertes dans le cours incluent, sans s’y limiter, l’apprentissage par renforcement (RL), le RL par lots, le RL multitâche, le RL basé sur un modèle, Sim2Real, le RL hiérarchique, le RL conditionné par les objectifs et les fonctions de récompense d’apprentissage. | 4 | TBD | UdeM | |
David Rolnick | COMP 767 – Machine learning applied to climate change | Ce cours est donné en anglais This seminar will explore how machine learning can be applied in fighting climate change. We will look at ways that machine learning can be used to help mitigate greenhouse gas emissions and adapt to the effects of climate change – via applications in electricity systems, buildings, transportation, agriculture, disaster response, and many other areas. Particular emphasis will be given to understanding exactly when machine learning is relevant and helpful, and how to go about scoping, developing, and deploying a project so that it has the intended impact. | 4 | Lu : 10h-11h30 Me : 10h-11h30 | TBD McGill | |
Derek Nowrouzezahrai | ECSE 446/546 – Realistic/Advanced Image Synthesis | Ce cours est donné en anglais This course presents modern mathematical models of lighting and the algorithms needed to solve them and generate beautiful realistic images. Both traditional numerical methods and modern machine learning-based approaches will be covered. | 4 | Lu et Me | TBD McGill | |
Siva Reddy, Timothy J. O’Donnell | COMP 345 / LING 345 From Natural Language to Data Science | Ce cours est donné en anglais This course is for people with no experience is NLP and would like to see how it can be used for exciting data science applications. We suggest other NLP/CL courses if you want to focus on theoretical side of NLP/CL. Topics covered in this course include: Language data and applications, Searching through data, How to make sense of data, Language Modeling, Language to decisions, Information Retrieval, Information Extraction, Social Networks (Twitter and Facebook data), Recommendation systems, Ethics | 3 | Ma : 11h35 -12h55 Jeu : 11h35 -12h55 | TBD |
Cours et horaires - Automne 2022 (liste préliminaire)
Professeur·e | Cours/sigle | Description | Crédits | Horaire | Date/Emplacement |
---|---|---|---|---|---|
Simon Lacoste-Julien | IFT 6269 – Modèles Graphiques probabilistes et apprentissage | (cours donné en anglais) Représentation des systèmes comme des modèles graphiques probabilistes, inférence dans les modèles graphiques, apprentissage des paramètres à partir de données. | 4 | Ma : 15h – 17h Ven : 15h – 17h | 06/09/2022 09/09/2022 Mila |
Ioannis Mitliagkas | IFT 6390 – Fondements de l’Apprentissage Machine | Éléments de base des algorithmes d’apprentissage statistique et symbolique. Exemples d’applications en forage de données, reconnaissance des formes, régression non linéaire, et données temporelles. | 4 | TBD | TBD |
Sarath Chandar | INF8250E – Reinforcement Learning | Ce cours est donné en anglais. Designing autonomous decision making systems is one of the longstanding goals of Artificial Intelligence. Such decision making systems, if realized, can have a big impact in machine learning for robotics, game playing, control, health care to name a few. This course introduces Reinforcement Learning as a general framework to design such autonomous decision making systems. By the end of this course, you will have a solid knowledge of the core challenges in designing RL systems and how to approach them. | 3 | Lu : 12h45 – 15h45 | 08/29/2022 Polytechnique |
Laurent Charlin | MATH 80629 Apprentissage automatique I : Analyse des Mégadonnées et Prise de décision | Ce cours porte sur les modèles d’apprentissage automatique (machine learning). En plus des modèles standards, nous étudierons aussi les modèles pour analyser les comportements des utilisateurs ainsi que pour la prise de décision. Nous étudierons en plus des modèles récents pour les systèmes de recommandations ainsi que pour la prise de décision (apprentissage par renforcement). I am teaching both the English and the French version in Fall 2022. | 3 | [Français] Me : 8h30 – 11h30 [Anglais] Lu : 8h30 – 11h30 | [Français] 31/08/22 [Anglais] 29/08/22HEC |
Jackie C. K. Cheung | COMP 550 – Natural Language Processing | Cours donné en anglais. Une introduction à la modélisation informatique du langage naturel, y compris des algorithmes, des formalismes et des applications. Morphologie informatique, modélisation du langage, analyse syntaxique, sémantique lexicale et compositionnelle et analyse du discours. Applications sélectionnées telles que la synthèse automatique, la traduction automatique et le traitement de la parole. Techniques d’apprentissage automatique pour le traitement du langage naturel.
| 3 | TBD | TBD
|
Timothy J. O’Donnell | COMP598/LING 682 – Probabilistic Programming | Ce cours est donné en anglais. Probabilistic inference viewed as a form of non-standard interpretation of programming languages with a focus on sampling algorithms using the programming language Gen. | TBD | TBD | TBD |
Reihaney Rabbany | COMP 596 – Network Science | Cours donné en anglais. Une introduction à la science des réseaux, c’est un cours mi-conférence mi-séminaire. Les réseaux modélisent les relations dans les systèmes complexes, depuis les hyperliens entre les pages web et les coauteurs entre chercheurs jusqu’aux interactions biologiques entre les protéines et les gènes, en passant par les liens synaptiques entre les neurones. La science des réseaux est un domaine de recherche interdisciplinaire impliquant des chercheurs en physique, informatique, sociologie, mathématiques et statistiques, avec des applications dans un large éventail de domaines dont la biologie, la médecine, les sciences politiques, le marketing, l’écologie, la criminologie, etc. Dans ce cours, nous couvrirons les concepts et techniques de base utilisés dans la science des réseaux, nous passerons en revue les techniques de pointe et nous discuterons des développements les plus récents. | 3 | TBD | TBD |
Guy Wolf | MAT 6493 – Analyse géométrique de données | Formulation et modélisation analytique des géométries intrinsèques de données. Algorithmes pour les construire et les utiliser en apprentissage automatique. Applications : classification, regroupement et réduction de la dimensionnalité. Le cours est prévu pour être donné en anglais (pour accommoder des étudiants anglophones), sauf si tous les étudiants en classe sont francophones et demandent qu’il soit donné en français. Néanmoins, tous les travaux faits par les étudiants pourront toujours être remis en français. | 4 | Lu : 13h30 – 17h20 | TBD UdeM : 4186 Pav. Andre-Aisenstadt |
Sarath Chandar | INF8245E – Machine Learning | Ce cours fournit une introduction rigoureuse au domaine de l’apprentissage automatique (ML). L’objectif du cours n’est pas seulement d’enseigner comment utiliser les algorithmes de ML, mais aussi d’expliquer pourquoi, comment et quand ces algorithmes fonctionnent. Le cours présente les fondamentaux algorithmes en apprentissage supervisé et apprentissage non supervisé à partir des premiers principes.Le cours, tout en couvrant plusieurs problèmes d’apprentissage automatique comme la régression, la classification, l’apprentissage des représentations, la réduction de dimensionnalité, introduira la théorie de base, qui unifie tous les algorithmes. | 3 | Mer : 9h30 – 12h30 | 08/31/2022 Polytechnique |
Gauthier Gidel et Glen Berseth | IFT 6758 – Science des données | Ce cours offert en anglais et français. L’objectif de ce cours est d’introduire les idées (théorie et pratique) nécessaires pour aborder et résoudre les problèmes de science des données. La première partie du cours couvrira les principes de l’analyse des données, les bases des différents types de modèles et l’inférence statistique. La seconde partie se développe dans les méthodes statistiques et les techniques pratiques pour traiter des modalités courantes de données – image, texte et graphes. Les cadres de programmation spécifiques requis pour la science des données seront abordés au cours des sessions de laboratoire. | 4 | Ma : 11h30 – 12h30 Je : 16h30 – 18h30 Labo – Ma : 12h30 – 14h30 | TBD En ligne |
Golnoosh Farnadi | MATH80630 – Trustworthy Machine Learning | This course will teach students to recognize where and understand why ethical issues and policy questions can arise when applying data science to real world problems. It will focus on ways to conceptualize, measure, and mitigate bias in data-driven decision-making. This is a graduate course, in which we will cover methods for trustworthy and ethical machine learning and AI, focusing on the technical perspective of methods that allow addressing current ethical issues. Recent years have shown that unintended discrimination arises naturally and frequently in the use of machine learning and algorithmic decision making. We will work systematically towards a technical understanding of this problem mindful of its social and legal context. This course will bring analytic and technical precision to normative debates about the role that data science, machine learning, and artificial intelligence play in consequential decision-making in commerce, employment, finance, healthcare, education, policing, and other areas. Students will learn to think critically about how to plan, execute, and evaluate a project with these concerns in mind, and how to cope with novel challenges for which there are often no easy answers or established solutions. | 3 | Ven : 15h30 – 18h30 | 27/08/2022 |
Aishwarya Agrawal | IFT 6135 – Apprentissage de représentations | Ce cours est donné en anglais Algorithmes d’apprentissage de représentations des données et réseaux de neurones artificiels profonds. Avantages de l’apprentissage profond pour l’intelligence artificielle. Modélisation de la distribution de probabilité des données. | 4 | Ma : 09h30 – 11h30 Ven :12h30 – 14h30 | 6/09/202 Agora Mila |
Prakash Panangaden et Joey Bose | COMP760: Geometry and Generative Models | Ce cours est donné en anglais In recent years Deep Generative Models have seen remarkable success over a variety of data domains such as images, text, and audio to name a few. However, the predominant approach in many of these models (e.g. GANS, VAE, Normalizing Flows) is to treat data as fixed-dimensional continuous vectors in some Euclidean space, despite significant evidence to the contrary (e.g. 3D molecules). This course places a direct emphasis on learning generative models for complex geometries described via manifolds, such as spheres, tori, hyperbolic spaces, implicit surfaces, and homogeneous spaces. The purpose of this seminar course is to understand the key design principles that underpin the new wave of geometry-aware generative models that treat the rich geometric structure in data as a first-class citizen. This seminar course will also serve to develop extensions to these approaches at the leading edge of research and as a result, a major component of the course will focus on class participation through presenting papers and a thematically-relevant course project. | 3 | Ven :13h – 16h | Auditorium 1 Mila |