Cours

Mila > Cours

Cours et horaires - Hiver 2022 (liste préliminaire)

Voir la liste complète des cours sur DIRO

ProfessorCourseDescriptionCreditsScheduleDates
Simon Lacoste-JulienIFT 6132 – Prédiction structurée avancée et optimisationCe cours est donné en anglais.

La prédiction structurée décrit le problème d’apprendre une correspondance entre des entrées et des sorties structurées, c’est-à-dire des sorties qui sont constituées de parties interdépendantes souvent soumises à des contraintes. Des exemples incluent la prédiction de graphes, d’ordonnancements, d’appareillements, etc., et apparaissent dans de nombreuses applications telles que la vision par ordinateur, le traitement du langage naturel et la biologie computationnelle, parmi d’autres.

Il s’agit d’un cours d’apprentissage machine avancé qui se concentrera sur les principes fondamentaux et les outils connexes pour la prédiction structurée. Le cours passera en revue l’état de l’art, fera le lien entre les anciennes et les nouvelles approches, et identifiera les questions en suspens. Il consistera en un mélange de cours magistraux et d’un projet de recherche mené par les étudiants.

Prérequis : Je suppose que la plupart du contenu de IFT 6269 modèles graphiques probabilistes sera maitrisé par les étudiants.

4COURS ANNULÉ À L’HIVER 2022

Il sera disponible à l’hiver 2023.

COURS ANNULÉ À L’HIVER 2022

Il sera disponible à l’hiver 2023.

Aaron CourvilleIFT 6135 – Apprentissage de représentationsCours donné en anglais.

Algorithmes d’apprentissage de représentations des données et réseaux de neurones artificiels profonds. Avantages de l’apprentissage profond pour l’intelligence artificielle. Modélisation de la distribution de probabilité des données.

4Lu : 10h30 à 12h30

Me : 12h30 à 14h30

UdeM
Ioannis MitliagkasIFT 6085 – Principes théoriques sur l’apprentissage approfondi

 

Ce cours est donné en anglais.

La recherche dans le domaine de l’apprentissage profond produit des résultats de pointe sur un certain nombre de tâches d’apprentissage machine. La plupart de ces progrès sont le fruit de l’intuition et d’une exploration massive par essais et erreurs. Par conséquent, la théorie est actuellement à la traîne par rapport à la pratique. La communauté de l’apprentissage machine ne comprend pas pleinement pourquoi les meilleures méthodes fonctionnent. Pourquoi pouvons-nous optimiser de manière fiable des objectifs non convexes ? Dans quelle mesure nos architectures sont-elles expressives, en termes de classe d’hypothèses qu’elles décrivent ? Pourquoi certains de nos modèles les plus complexes généralisent-ils pour donner des exemples inédits lorsque nous utilisons des ensembles de données d’un ordre de grandeur inférieur à ce que la théorie classique de l’apprentissage statistique juge suffisant ? Un symptôme de ce manque de compréhension est que les méthodes d’apprentissage profond manquent largement de garanties et d’interprétabilité, deux propriétés nécessaires aux applications critiques. Plus important encore, une base théorique solide peut aider à la conception d’une nouvelle génération de méthodes efficaces – ce qui permet de répondre au besoin d’une exploration fondée sur des essais et des erreurs aveugles. Dans cette classe, nous passerons en revue un certain nombre de publications récentes qui tentent de faire la lumière sur ces questions. Avant de discuter des nouveaux résultats dans chaque article, nous présenterons d’abord les outils fondamentaux nécessaires de l’optimisation, les statistiques, la théorie de l’information et la mécanique statistique. Le but de ce cours est d’inciter les étudiants à s’engager dans de nouvelles recherches dans le domaine. À cette fin, la majorité du crédit sera accordée pour un rapport de projet de classe et une présentation sur un sujet pertinent.

Note : Il s’agit d’un cours avancé conçu pour les étudiants au doctorat ayant de solides connaissances en mathématiques.

4Me : 9h30 à 11h30

Je : 9h30 à 11h30

À Mila
Irina RishIFT 6760B – Continual Learning: Towards « Broad » AICours donné en anglais.

Stephen Hawking famously said, ‘Intelligence is the ability to adapt to change.’ While today’s AI systems can achieve impressive performance in specific tasks, from accurate image recognition to super-human performance in games such as Go and chess, they are still quite « narrow », i.e. not being able to easily adapt to a wide range of new tasks and environments, without forgetting what they have learned before – something that humans and animals seem to do naturally during their lifetime. This course will focus on the rapidly growing research area of machine learning called continual learning (CL) which aims to push modern AI from « narrow » to « broad », i.e. to develop learning models and algorithms capable of never-ending, lifelong, continual learning over a large, and potentially infinite set of different environments and tasks. In this course, we will review the state-of-the-art literature on continual learning in modern ML, and some related work on stability vs plasticity in neuroscience. We focus on the catastrophic forgetting problem and recent approaches to overcoming it in deep neural networks, including regularization, replay and dynamic architecture methods; we also consider different CL settings (e.g., task-incremental, class-incremental, task-agnostic, etc). Furthermore, we review some recent advances in out-of-distribution generalization, a closely related ML area aimed at building robust models able to generalize well across multiple data distributions (environments).

4Lu : 15h30 à 17h30

Je : 16h30 à 18h30

À Mila
Guillaume RabusseauIFT 6760A – Factorisation de matrices et tenseurs pour l’apprentissageCours donné en anglais.

Ce cours offre un survol des connections entre algèbre linéaire/multilinéaire et apprentissage automatique, et a pour but d’initier les étudiant.e.s aux nouvelles recherches dans ce domaine. – Notions fondamentales d’algèbre linéaire et multilinéaire. – Factorisation matricielle/tensorielle et apprentissage: PCA/CCA, systèmes de recommendation, méthodes spectrales d’apprentissage, K-FAC, normalisation spectrale, méthode des moments tensorielle, compression de modèles (e.g. MRF, NN), régression tensorielle, etc. – Problèmes ouverts.

4Ma : 12h30 à 14h30

Je : 11h30 à 13h30

TBD
Guillaume LajoieMAT 6215 – Systèmes DynamiquesCe cours est une introduction au traitement des équations différentielles non linéaires et plus généralement, à la théorie des systèmes dynamiques. Il s’agit d’un cours de cycle supérieur. L’objectif est d’initier l’étudiant à la théorie des systèmes dynamiques et à ses applications. En un premier temps, des techniques classiques d’analyse de dynamique seront présentées : flots continus et discrets, existence et stabilité de solutions, variétés invariantes, bifurcations et formes normales. En un deuxième temps, une introduction à la théorie ergodique et un survol d’applications modernes sera présentée : dynamique chaotique, attracteurs étranges, entropie dynamique, systèmes à haute dimension (ex. réseaux), dynamique entrainée et transformation d’information. Une attention particulière sera accordée au traitement de systèmes dynamiques performant des computations. À la fin du cours, l’étudiant sera en mesure d’appliquer des techniques d’analyse de systèmes dynamiques à des problèmes concrets, ainsi que de naviguer la littérature moderne de systèmes dynamiques. Plusieurs exemples et applications faisant usage de simulations numériques seront utilisés. Pour suivre ce cours, l’étudiant doit maîtriser, à un niveau de premier cycle, des notions de calcul, d’équations différentielles linéaires, d’algèbre linéaire et de probabilité.4Ma : 9h30 à 13h

TBD

Blake RichardsCOMP 549 – Intelligence artificielle inspirée du cerveau (Remplace COMP596)
Cours donné en anglais.
Cette classe sera un aperçu historique de l’influence des neurosciences sur l’intelligence artificielle. Ce sera un cours de type séminaire, mêlant conférence, discussion et présentations en classe. Le sujet traité comprendra les perceptrons, les origines de l’apprentissage renforcement, les modeles distribué parallèle, les machines de Boltzmann, les architectures de réseau neuronal inspirées par le cerveau et les approches modernes qui intègrent l’attention, la mémoire et les ensembles.
3Lu : 16h à 17h30

Me : 16h à 17h30

TBD

Gauthier Gidel IFT 6756 – Théorie des jeux et l’apprentissage automatique

Cours donné en anglais.

Un nombre grandissant d’applications d’apprentissage automatique liées à la théorie des jeux à vu le jour ces dernières années. Par exemple, les jeux à deux jouers et à somme nulle sont importants pour la modélisation générative (GAN) et la maîtrise de jeux comme Go ou Poker via l’appentissage autonome. Ce cours est à l’interface entre la théorie des jeux, l’optimisation et l’apprentissage automatique. Il essaie de comprendre comment apprendre des modèles pour jouer à des jeux. Il commencera par quelques notions rapides de théorie des jeux pour finalement se plonger dans les problèmes d’apprentissage automatique avec des formulations de jeux telles que les GAN ou l’apprentissage par renforcement avec plusieurs agents. Ce cours couvrira également l’optimisation (a.k.a training) de tels jeux d’apprentissage automatique.

4Ma : 16h30 à 18h30

Ve : 15h30 à 17h30

À Mila
Jian TangMATH 80600A – Machine Learning II: Deep Learning and Applications Ce cours est donné en anglais.

L’apprentissage profond a connu un grand succès dans une variété de domaines tels que la reconnaissance vocale, la compréhension d’images et la compréhension du langage naturel. Ce cours vise à introduire les techniques de base de l’apprentissage en profondeur et les progrès récents de l’apprentissage en profondeur sur la compréhension du langage naturel et l’analyse de graphes.

Ce cours vise à introduire les techniques de base de l’apprentissage en profondeur, notamment les réseaux de neurones à action directe, les réseaux de neurones convolutifs et les réseaux de neurones récurrents. Nous couvrirons également les progrès récents sur les modèles génératifs profonds. Enfin, nous présenterons comment appliquer ces techniques à la compréhension du langage naturel et à l’analyse de graphes.

3TBDTBD
Doina PrecupCOMP 579 Reinforcement LearningComputer Science (Sci) : Bandit algorithms, finite Markov decision processes, dynamic programming, Monte-Carlo Methods, temporal-difference learning, bootstrapping, planning, approximation methods, on versus off policy learning, policy gradient methods temporal abstraction and inverse reinforcement learning.4TBDTBD
Reihaneh RabbanyCOMP 551 – Applied Machine Learning Ce cours couvre un ensemble sélectionné de sujets en apprentissage automatique et en exploration de données, en mettant l’accent sur les bonnes méthodes et pratiques pour le déploiement de systèmes réels. La majorité des sections sont liées aux techniques d’apprentissage supervisé couramment utilisées et, dans une moindre mesure, aux méthodes non supervisées. Cela inclut les principes fondamentaux des algorithmes sur la régression linéaire et logistique, les arbres de décision, les machines à vecteurs de support, le clustering, les réseaux de neurones, ainsi que les techniques clés pour la sélection des caractéristiques et la réduction de la dimensionnalité, l’estimation des erreurs et la validation empirique.4Ma : 13h à 14h25

Je : 13h à 14h25

En ligne/McGill
Aditya MahajanECSE 506 – Stochastic Control and Decision TheoryCours donné en anglais.

Markov decision processes (MDP), dynamic programming and approximate dynamic programming. Stochastic monotonicity, structure of optimal policies. Models with imperfect and delayed observations, partially observable Markov decision processes (POMDPs), information state and approximate information state. Linear quadratic and Gaussian (LQG) systems, team theory, information structures, static and dynamic teams, dynamic programming for teams.
3Ma : 10:00 à 11:30
Je : 10:00 à 11:30
TBD
Siva ReddyCOMP 599 Natural Language Understanding with Deep LearningCours donné en anglais.

Le domaine du traitement du langage naturel (PNL) a connu de multiples changements de paradigme au fil des décennies, de l’IA symbolique aux méthodes statistiques en passant par l’apprentissage en profondeur. Nous examinons ce changement à travers le prisme de la compréhension du langage naturel (NLU), une branche de la PNL qui traite du « sens ». Nous commençons par ce qu’est le sens et qu’est-ce que cela signifie pour une machine de comprendre le langage ? Nous explorons comment représenter le sens des mots, des phrases, des phrases et du discours. Nous plongeons ensuite dans de nombreuses applications NLU utiles.

TBDTBDTBD
Golnoosh Farnadi80629A Machine Learning I: Large-Scale Data Analysis and Decision MakingTBDTBDMe : 8h30 à 11h30TBD
Tim O’DonnellLING 683 – Programmation probabilisteCours donné en anglais.

Une introduction à l’inférence bayésienne via la programmation probabiliste.

TBDJe : 8h30 à 10hTBD
Aishwarya AgrawalIFT6xAA – Vision and LanguageCe cours est donné en anglais

Un séminaire sur les avancées récentes de la recherche sur la vision et le langage.

4Ma : 9h30 à 11h30

Ve : 13h30 à 15h30

À Mila
Pierre-Luc Bacon (Ioannis en automne, PLB eh hiver)IFT6390 – Fondements de l’apprentissage machineCe cours est donné en anglais

Éléments de base des algorithmes d’apprentissage statistique. Exemples d’applications en forage de données, régression non linéaire, et données temporelles et apprentissage profond.

4Lu : 12h30 à 14h30

Me : 14h30 à 17h30

À Mila
Dhanya SridharIFT 6251 – Causal inference and machine learningCe cours est donné en anglais

There is a growing interest in the intersection of causal inference and machine learning. On one hand, ML methods — e.g., prediction methods, unsupervised methods, representation learning — can be adapted to estimate causal relationships between variables. On the other hand, the language of causality could lead to new learning criteria that yield more robust and fair ML algorithms. In this course, we’ll begin with an introduction to the theory behind causal inference. Next, we’ll cover work on causal estimation with neural networks, representation learning for causal inference, and flexible sensitivity analysis. We’ll conclude with work that draws upon causality to make machine learning methods fair or robust. This is an advanced course, taught seminar-style, and expects students to have a strong background in ML.

4Ma : 12h30 à 14h30

Ve : 11h30 à 13h30

À Mila

Cours et horaires - Automne 2021 (liste préliminaire)

Voir la liste complète des cours sur DIRO

 

 

Noms ProfesseursCours/siglesDescriptionsCréditsHorairesDates
Simon Lacoste-JulienIFT 6269 – Modèles Graphiques probabilistes et apprentissageReprésentation des systèmes comme des modèles graphiques probabilistes, inférence dans les modèles graphiques, apprentissage des paramètres à partir de données.4TBDTBD
Ioannis MitliagkasIFT 6390 – Fondements de l’Apprentissage MachineÉléments de base des algorithmes d’apprentissage statistique et symbolique. Exemples d’applications en forage de données, reconnaissance des formes, régression non linéaire, et données temporelles.4Section A :

Me 9:30-11:30 et Je 9:30-10:30

Section A1 :

Je 10:30-12:30

Section A102 :

Je 10:30-12:30

01-09-2021

08-12-2021

 

Sarath ChandarINF8953DE – Reinforcement LearningCe cours est donné en anglais.

Designing autonomous decision making systems is one of the longstanding goals of Artificial Intelligence. Such decision making systems, if realized, can have a big impact in machine learning for robotics, game playing, control, health care to name a few. This course introduces Reinforcement Learning as a general framework to design such autonomous decision making systems. By the end of this course, you will have a solid knowledge of the core challenges in designing RL systems and how to approach them.

3TBDTBD
Laurent CharlinMATH 80629 Apprentissage automatique I : Analyse des Mégadonnées et Prise de décisionCe cours porte sur les modèles d’apprentissage automatique (machine learning). En plus des modèles standards, nous étudierons aussi les modèles pour analyser les comportements des utilisateurs ainsi que pour la prise de décision. Nous étudierons en plus des modèles récents pour les systèmes de recommandations ainsi que pour la prise de décision (apprentissage par renforcement).3[1er] Me 8:30 –11:30. [2eme] Ve 8:30 – 11:30[1er] 09-01-2021 12-01-2021

[2eme] 09-03-2021 – 12-03-2021

Jackie C. K. CheungCOMP 550 – Natural Language ProcessingCours donné en anglais.

Une introduction à la modélisation informatique du langage naturel, y compris des algorithmes, des formalismes et des applications. Morphologie informatique, modélisation du langage, analyse syntaxique, sémantique lexicale et compositionnelle et analyse du discours. Applications sélectionnées telles que la synthèse automatique, la traduction automatique et le traitement de la parole. Techniques d’apprentissage automatique pour le traitement du langage naturel.

 

3Lu et Me : 2:30 – 4:00TBD

 

Siva Reddy, Timothy J. O’DonnellCOMP 596 – From Natural Language to Data ScienceCe cours est donné en anglais.

Ce cours est destiné aux personnes sans expérience en PNL et qui aimeraient voir comment elle peut être utilisée pour des applications passionnantes de science des données. Nous suggérons d’autres cours PNL/CL si vous souhaitez vous concentrer sur le côté théorique de la PNL/CL. Les sujets abordés dans ce cours comprennent : les données et les applications linguistiques, la recherche dans les données, comment donner un sens aux données, la modélisation du langage, le langage des décisions, la recherche d’informations, l’extraction d’informations, les réseaux sociaux (données Twitter et Facebook), les systèmes de recommandation, l’éthique.

4TBDTBD
Timothy J. O’DonnellCOMP 596 — From Natural Language to Data ScienceCe cours est donné en anglais.

Introduction to foundational ideas in computational linguistics and natural language processing. Topics include formal language theory, probability theory, estimation and inference, and recursively defined models of language structure. Emphasis on both the mathematical foundations of the field as well as how to use these tools to understand human language.

TBDTBDTBD
Reihaney RabbanyCOMP 596 – Network ScienceCours donné en anglais.

Une introduction à la science des réseaux, c’est un cours mi-conférence mi-séminaire. Les réseaux modélisent les relations dans les systèmes complexes, depuis les hyperliens entre les pages web et les coauteurs entre chercheurs jusqu’aux interactions biologiques entre les protéines et les gènes, en passant par les liens synaptiques entre les neurones. La science des réseaux est un domaine de recherche interdisciplinaire impliquant des chercheurs en physique, informatique, sociologie, mathématiques et statistiques, avec des applications dans un large éventail de domaines dont la biologie, la médecine, les sciences politiques, le marketing, l’écologie, la criminologie, etc. Dans ce cours, nous couvrirons les concepts et techniques de base utilisés dans la science des réseaux, nous passerons en revue les techniques de pointe et nous discuterons des développements les plus récents.

3TBDTBD
 Guy WolfMAT 6495 – Théorie spectrale des graphesBien que les graphes soient intuitivement et naturellement représentés par des sommets et des arêtes, ces représentations sont limitées, tant en matière d’analyse théorique que la mise en œuvre pratique d’algorithmes de graphes. Une approche plus puissante est obtenue en représentant les graphes par des matrices appropriées (p.ex., des matrices d’adjacence, des noyaux de diffusion ou des laplaciens de graphes) qui capturent les relations intrinsèques entre les sommets sur la «  »géométrie » » représentée par la structure du graphe. La théorie spectrale des graphes exploite ces matrices, et en particulier leurs décompositions spectrales (ou en valeurs et vecteurs propres), pour étudier les propriétés des graphes et leur structure intrinsèque sous-jacente. Cette étude conduit à des résultats surprenants et élégants, non seulement d’un point de vue mathématique, mais aussi dans la pratique avec des implémentations réalisables utilisées, par exemple, dans le regroupement, la visualisation, la réduction de la dimensionnalité, l’apprentissage de variétés et l’apprentissage profond géométrique. Enfin, comme presque toutes les données modernes peuvent aujourd’hui être modélisées sous forme de graphe, soit naturellement (p.ex., les réseaux sociaux), soit par le biais de mesures d’affinité appropriées, les notions et les outils étudiés dans ce cours fournissent un cadre puissant pour saisir et comprendre la géométrie des données en général.

Le cours est prévu pour être donné en anglais (pour accommoder des étudiants anglophones), sauf si tous les étudiants en classe sont francophones et demandent qu’il soit donné en français. Néanmoins, tous les travaux faits par les étudiants pourront toujours être remis en français.

4Lu : 2:00 – 5:00
Ma :12:00 – 1:00
TBD
Sarath ChandarINF8953CE – Machine LearningCe cours fournit une introduction rigoureuse au domaine de l’apprentissage automatique (ML). L’objectif du cours n’est pas seulement d’enseigner comment utiliser les algorithmes de ML, mais aussi d’expliquer pourquoi, comment et quand ces algorithmes fonctionnent. Le cours présente les fondamentaux algorithmes en apprentissage supervisé et apprentissage non supervisé à partir des premiers principes.Le cours, tout en couvrant plusieurs problèmes d’apprentissage automatique comme la régression, la classification, l’apprentissage des représentations, la réduction de dimensionnalité, introduira la théorie de base, qui unifie tous les algorithmes.3TBDTBD
Pierre-Luc BaconIFT 6760C – Reinforcement LearningCours avancé en apprentissage par renforcement. Méthodes par ascension du gradient de la politique, estimation de dérivées, analyse des algorithmes d’approximation de fonction de valeur, contrôle optimal en temps discret et différentiation automatique, optimisation à bi-niveau en méta-apprentissage par renforcement et apprentissage par renforcement inverse4Me : 1:30 – 3:30

Lu : 3:30 – 5:30

 

01-09-2021 – 13-10-2021

13-09-2021 – 04-10-2021

25-10-2021 – 06-12-2021

27-10–2021 – 08-12-2021

Gauthier GidelIFT 6758 – Data ScienceCe cours est offert en anglais.

L’objectif de ce cours est d’introduire les idées (théorie et pratique) nécessaires pour aborder et résoudre les problèmes de science des données. La première partie du cours couvrira les principes de l’analyse des données, les bases des différents types de modèles et l’inférence statistique. La seconde partie se développe dans les méthodes statistiques et les techniques pratiques pour traiter des modalités courantes de données – image, texte et graphes. Les cadres de programmation spécifiques requis pour la science des données seront abordés au cours des sessions de laboratoire.

 

 

4TBDTBD
Prakash Panangaden and Adam ObermanCOMP 599/MATH 597 – Statistical learning theory 

TBC

 

TBDTBDTBD
David RolnickCOMP 611 – Mathematical Tools for Computer Science 

Ce cours est donné en anglais.

Une introduction éclair aux mathématiques importantes qui apparaissent partout en informatique. L’accent est mis sur la façon de penser mathématiquement et d’écrire des preuves, en utilisant des techniques telles que l’induction, la contradiction et les monovariants. Nous explorerons, d’un point de vue mathématique, des sujets tels que la combinatoire, la théorie des graphes, les probabilités, l’algèbre linéaire, les algorithmes, les structures de données et la complexité informatique.

TBDTBDTBD
Golnoosh Farnadi80629A
Machine Learning I: Large-Scale Data Analysis and Decision Making
TBCTBDTBC
Aishwarya AgrawalIFT 6135 – Apprentissage de représentationsCe cours est donné en anglais

Algorithmes d’apprentissage de représentations des données et réseaux de neurones artificiels profonds. Avantages de l’apprentissage profond pour l’intelligence artificielle. Modélisation de la distribution de probabilité des données.

4TBDTBD

 

array(1) { ["wp-wpml_current_language"]=> string(2) "fr" }