Cours et horaires - Hiver 2021 (liste préliminaire)
Voir la liste complète des cours sur DIRO
Professor | Course | Description | Credits | Schedule | Dates |
---|---|---|---|---|---|
Simon Lacoste-Julien | IFT 6132 – Prédiction structurée avancée | Cours donné en anglais. Sujets avancées pour la prédiction d’objets structurés (tels: graphes, couplages, réseau de flot). Apprentissage génératif vs discriminatif et modèles à énergie; CRF, SVM structurée, optimisation à grande échelle; algorithmes combinatoires; RNN. | 4 | Ma. 14h30 – 16h30 Je. 13h30 – 15h30 | 12-01-2021 |
Aaron Courville | FT 6135 – Apprentissage de représentations (Winter 2019) | Cours donné en anglais. Algorithmes d’apprentissage de représentations des données et réseaux de neurones artificiels profonds. Avantages de l’apprentissage profond pour l’intelligence artificielle. Modélisation de la distribution de probabilité des données. | 4 | Lun. 10h30 – 12h30 Me. 12h30 – 14h30 | n/a |
Ioannis Mitliagkas | IIFT 6085 – Principes théoriques sur l’apprentissage approfondi (Winter 2020) | Cours donné en anglais. La recherche dans le domaine de l’apprentissage profond produit des résultats de pointe sur un certain nombre de tâches d’apprentissage machine. La plupart de ces progrès sont le fruit de l’intuition et d’une exploration massive par essais et erreurs. Par conséquent, la théorie est actuellement à la traîne par rapport à la pratique. La communauté de l’apprentissage machine ne comprend pas pleinement pourquoi les meilleures méthodes fonctionnent. Pourquoi pouvons-nous optimiser de manière fiable des objectifs non convexes ? Dans quelle mesure nos architectures sont-elles expressives, en termes de classe d’hypothèses qu’elles décrivent ? Pourquoi certains de nos modèles les plus complexes généralisent-ils pour donner des exemples inédits lorsque nous utilisons des ensembles de données d’un ordre de grandeur inférieur à ce que la théorie classique de l’apprentissage statistique juge suffisant ? Un symptôme de ce manque de compréhension est que les méthodes d’apprentissage profond manquent largement de garanties et d’interprétabilité, deux propriétés nécessaires aux applications critiques. Plus important encore, une base théorique solide peut aider à la conception d’une nouvelle génération de méthodes efficaces – ce qui permet de répondre au besoin d’une exploration fondée sur des essais et des erreurs aveugles. Dans cette classe, nous passerons en revue un certain nombre de publications récentes qui tentent de faire la lumière sur ces questions. Avant de discuter des nouveaux résultats dans chaque article, nous présenterons d’abord les outils fondamentaux nécessaires de l’optimisation, les statistiques, la théorie de l’information et la mécanique statistique. Le but de ce cours est d’inciter les étudiants à s’engager dans de nouvelles recherches dans le domaine. À cette fin, la majorité du crédit sera accordée pour un rapport de projet de classe et une présentation sur un sujet pertinent. » Note : Il s’agit d’un cours avancé conçu pour les étudiants au doctorat ayant de solides connaissances en mathématiques. | 4 | Me. 9h30 – 11h30 Je. 9h – 11h | n/a |
Guillaume Rabusseau | IFT 6760A – Factorisation de matrices et tenseurs pour l’apprentissage | Cours donné en anglais. Ce cours offre un survol des connections entre algèbre linéaire/multilinéaire et apprentissage automatique, et a pour but d’initier les étudiant.e.s aux nouvelles recherches dans ce domaine. – Notions fondamentales d’algèbre linéaire et multilinéaire. – Factorisation matricielle/tensorielle et apprentissage: PCA/CCA, systèmes de recommendation, méthodes spectrales d’apprentissage, K-FAC, normalisation spectrale, méthode des moments tensorielle, compression de modèles (e.g. MRF, NN), régression tensorielle, etc. – Problèmes ouverts. | 4 | Ma. 12h30 – 14h30 Je. 11h30 – 13h30 | n/a |
Irina Rish | IFT 6760b – Continual Learning: Towards « Broad » AI (Winter 2020) | Cours donné en anglais. Stephen Hawking famously said, ‘Intelligence is the ability to adapt to change.’ While today’s AI systems can achieve impressive performance in specific tasks, from accurate image recognition to super-human performance in games such as Go and chess, they are still quite « narrow », i.e. not being able to easily adapt to a wide range of new tasks and environments, without forgetting what they have learned before – something that humans and animals seem to do naturally during their lifetime. This course will focus on the rapidly growing research area of machine learning called continual lifelong learning which aims to push modern AI from « narrow » to « broad », i.e. to develop learning models and algorithms capable of never-ending, lifelong, continual learning over a large, and potentially infinite set of drastically different tasks and environments. In this course, we will review state-of-art literature on continual lifelong learning in modern AI, including catastrophic forgetting problem and recent approaches to overcoming it in deep neural networks, from augmenting stochastic gradient decent algorithm to alternative optimization approaches, architecture adaptation/evolution based on expansion/compression, dynamic routing/selective execution (« internal » attention) and other approaches; moreover, we will also survey related work on stability vs plasticity dilemma in neuroscience and related topics in biology of adaptation and memory.x | 4 | Lu. 15h30 – 17h30 Je. 16h30 – 18h30 | n/a |
Aaron Courville | IFT 6759 – Projets avancés en apprentissage automatique | Cours donné en anglais. Préparation aux applications pratiques de l’apprentissage automatique à travers des projets concrets sur des données réelles. Utilisation de logiciels spécialisés d’apprentissage automatique pour l’intelligence artificielle. Remarque : Il est recommandé de prendre IFT6135 Apprentissage de représentations auparavant ou concomitant. | 4 | Me. 16h30 – 18h30 Ve. 9h30 – 11h30 | 08-01-2021 – 16-04-2021 |
Guillaume Lajoie | MAT 6215 – Systèmes Dynamiques | Ce cours est une introduction au traitement des équations différentielles non linéaires et plus généralement, à la théorie des systèmes dynamiques. Il s’agit d’un cours de cycle supérieur. L’objectif est d’initier l’étudiant à la théorie des systèmes dynamiques et à ses applications. En un premier temps, des techniques classiques d’analyse de dynamique seront présentées : flots continus et discrets, existence et stabilité de solutions, variétés invariantes, bifurcations et formes normales. En un deuxième temps, une introduction à la théorie ergodique et un survol d’applications modernes sera présentée : dynamique chaotique, attracteurs étranges, entropie dynamique, systèmes à haute dimension (ex. réseaux), dynamique entrainée et transformation d’information. Une attention particulière sera accordée au traitement de systèmes dynamiques performant des computations. À la fin du cours, l’étudiant sera en mesure d’appliquer des techniques d’analyse de systèmes dynamiques à des problèmes concrets, ainsi que de naviguer la littérature moderne de systèmes dynamiques. Plusieurs exemples et applications faisant usage de simulations numériques seront utilisés. Pour suivre ce cours, l’étudiant doit maîtriser, à un niveau de premier cycle, des notions de calcul, d’équations différentielles linéaires, d’algèbre linéaire et de probabilité. | 3 | Ma. 9h30 – 13h00 (sujet à changement) | n/a |
Blake Richards | COMP 596 – Sujets en Informatique 3 | Cours donné en anglais. Cette classe sera un aperçu historique de l’influence des neurosciences sur l’intelligence artificielle. Ce sera un cours de type séminaire, mêlant conférence, discussion et présentations en classe. Le sujet traité comprendra les perceptrons, les origines de l’apprentissage renforcement, les modeles distribué parallèle, les machines de Boltzmann, les architectures de réseau neuronal inspirées par le cerveau et les approches modernes qui intègrent l’attention, la mémoire et les ensembles. | 3 | n/a | n/a |
Gauthier Gidel | IFT 6756 – Théorie des jeux et l’apprentissage automatique | Cours donné en anglais. Un nombre grandissant d’applications d’apprentissage automatique liées à la théorie des jeux à vu le jour ces dernières années. Par exemple, les jeux à deux jouers et à somme nulle sont importants pour la modélisation générative (GAN) et la maîtrise de jeux comme Go ou Poker via l’appentissage autonome. Ce cours est à l’interface entre la théorie des jeux, l’optimisation et l’apprentissage automatique. Il essaie de comprendre comment apprendre des modèles pour jouer à des jeux. Il commencera par quelques notions rapides de théorie des jeux pour finalement se plonger dans les problèmes d’apprentissage automatique avec des formulations de jeux telles que les GAN ou l’apprentissage par renforcement avec plusieurs agents. Ce cours couvrira également l’optimisation (a.k.a training) de tels jeux d’apprentissage automatique. | 4 | Ma. 16:30 – 18:30 Ven. 13:30 – 15:30 | 12-01-2020 30-04-2020 |
Jian Tang | MATH 80600A – Machine Learning II: Deep Learning and Applications (Hiver 2020) | Deep learning has achieved great success in a variety of fields such as speech recognition, image understanding, and natural language understanding. This course aims to introduce the basic techniques of deep learning and recent progress of deep learning on natural language understanding and graph analysis. This course aims to introduce the basic techniques of deep learning including feedforward neural networks, convolutional neural networks, and recurrent neural networks. We will also cover recent progress on deep generative models. Finally, we will introduce how to apply these techniques to natural language understanding and graph analysis. | 3 | n/a | n/a |
Siamak Ravanbakhsh | COMP767-002 Probabilistic Graphical Models | The course covers representation, inference and learning with graphical models; the topics at high level include directed and undirected graphical models; exact inference; approximate inference using deterministic optimization based methods, as well as stochastic sampling based methods; learning with complete and partial observations. | 4 | Ma. 10 – 11:30 Je. 10 – 11:30 | n/a |
Reihaneh Rabbany | COMP 551 – Applied Machine Learning (Hiver 2020) | This course covers a selected set of topics in machine learning and data mining, with an emphasis on good methods and practices for deployment of real systems. The majority of sections are related to commonly used supervised learning techniques, and to a lesser degree unsupervised methods. This includes fundamentals of algorithms on linear and logistic regression, decision trees, support vector machines, clustering, neural networks, as well as key techniques for feature selection and dimensionality reduction, error estimation and empirical validation. | 4 | Me. 10h00 – 11h30 | n/a |
Emma Frejinger | IFT 6521 – Programmation dynamique (Hiver 2019) | Cours donné en anglais. Ce cours vise à étudier les algorithmes et outils mathématiques servant à analyser ou à optimiser des processus de décision séquentiels, pour lesquels il y a interaction entre les décisions, dans un environnement certain ou incertain. On verra comment implanter les algorithmes de calcul et on étudiera leur performance. Dans plusieurs cas on pourra démontrer certaines propriétés caractérisant la forme d’une politique optimale. On examinera aussi des exemples d’applications tirées de différents domaines, incluant la gestion et la finance. | 4 | n/a | n/a |
Tim O’Donnell | LING 683 – Programmation probabiliste | Cours donné en anglais. Une introduction à l’inférence bayésienne via la programmation probabiliste. | n/a | Je. 8:30 – 10:00 | n/a |
Sarath Chandar | INF6900A/INF7900 – Communication scientifique et technique | Cours donné en anglais. n/a | n/a | n/a | n/a |
Liste des cours et horaires - Automne 2020 (liste préliminaire)
Noms Professeurs | Cours/sigles | Descriptions | Crédits | Horaires | Dates |
---|---|---|---|---|---|
Simon Lacoste-Julien | IFT 6269 – Modèles Graphiques probabilistes et apprentissage | Représentation des systèmes comme des modèles graphiques probabilistes, inférence dans les modèles graphiques, apprentissage des paramètres à partir de données. | 4 | Ma 14h30 – 16h30 Fri. 1:30 – 3:30 | 09-01-2020 – 12-08-2020 |
Ioannis Mitliagkas | IFT 6390 – Fondements de l’Apprentissage Machine | Éléments de base des algorithmes d’apprentissage statistique et symbolique. Exemples d’applications en forage de données, reconnaissance des formes, régression non linéaire, et données temporelles. | 4 | Section A Me 9h30 – 11h30 Je 9h30 – 10h30 Section A1 Je 10h30 – 12h30 Section A102 Je 10h30 – 12h30 | 09-02-2020 – 12-03-2020
|
Laurent Charlin | MATH 80629A Machine Learning l : Large-Scale Data Analysis and Decision Making | Ce cours porte sur les modèles d’apprentissage automatique (machine learning). En plus des modèles standards nous étudierons aussi les modèles pour analyser les comportements des utilisateurs ainsi que pour la prise de décision. L’avènement des données massives requiert des outils d’analyses appropriés. L’apprentissage automatique (machine learning) offre ces outils et est incontournable pour modéliser des problèmes dans divers domaines tels que l’intelligence artificielle, la bio-informatique, la finance, le marketing, l’éducation, le transport et la santé. Nous étudierons les modèles d’apprentissage automatique pour l’apprentissage supervisé, non supervisé et comment ils peuvent être étendus aux données massives à l’aide de techniques de calcul à grande échelle (p. ex. grappes d’ordinateurs). Nous étudierons en plus des modèles récents pour les systèmes de recommandations ainsi que pour la prise de décision (apprentissage par renforcement). Les étudiants auront l’occasion de bonifier leurs connaissances en effectuant un projet requérant l’analyse de données réelles (par exemple venant de leur champ de recherche). À noter : L es étudiants devront déjà connaitre un langage de programmation. | 3 | Lu 8h30 – 11h30 | 09-07-2020 – 12-07-2020 |
Laurent Charlin | MATH 80629 Apprentissage automatique I : Analyse des Mégadonnées et Prise de décision | Ce cours porte sur les modèles d’apprentissage automatique (machine learning). En plus des modèles standards, nous étudierons aussi les modèles pour analyser les comportements des utilisateurs ainsi que pour la prise de décision. Nous étudierons en plus des modèles récents pour les systèmes de recommandations ainsi que pour la prise de décision (apprentissage par renforcement). | 3 | Ve 8h30 – 11h30 | 09-04-2020 – 12-04-2020 |
Jackie C. K. Cheung | COMP 550 – Natural Language Processing | Cours donné en anglais. Une introduction à la modélisation informatique du langage naturel, y compris des algorithmes, des formalismes et des applications. Morphologie informatique, modélisation du langage, analyse syntaxique, sémantique lexicale et compositionnelle et analyse du discours. Applications sélectionnées telles que la synthèse automatique, la traduction automatique et le traitement de la parole. Techniques d’apprentissage automatique pour le traitement du langage naturel.
| 3 | TBA | TBA
|
Siva Reddy, Timothy J. O’Donnell | COMP 596 — From Natural Language to Data Science | This course is for people with no experience is NLP and would like to see how it can be used for exciting data science applications. We suggest other NLP/CL courses if you want to focus on theoretical side of NLP/CL. Topics covered in this course include: Language data and applications, Searching through data, How to make sense of data, Language Modeling, Language to decisions, Information Retrieval, Information Extraction, Social Networks (Twitter and Facebook data), Recommendation systems, Ethics | 4 | TBA | TBA |
Timothy J. O’Donnell | LING 645: Computational Linguistics | Introduction to foundational ideas in computational linguistics and natural language processing. Topics include formal language theory, probability theory, estimation and inference, and recursively defined models of language structure. Emphasis on both the mathematical foundations of the field as well as how to use these tools to understand human language. | TBA | TBA | TBA |
Siamak Ravanbakhsh | COMP 551- Applied Machine Learning | Cours donné en anglais. Le cours couvrira une sélection de sujets et de nouveaux développements dans l’exploration de données et dans l’apprentissage automatique, en mettant particulièrement l’accent sur les bonnes méthodes et pratiques permettant de déployer efficacement des systèmes réels. Nous étudierons des algorithmes et des techniques couramment utilisés, notamment la régression linéaire et logistique, la classification, les réseaux de neurones, les machines à vecteurs de support, les arbres de décision, etc. Nous discuterons également de méthodes permettant de résoudre des problèmes pratiques tels que la validation empirique, la sélection des caractéristiques, la réduction de la dimensionnalité et l’estimation des erreurs. | 4 | Ma 10h00 – 11h30 Je 10h00 – 11h30 | TBA |
Reihaney Rabbany | COMP 596 – Network Science | Cours donné en anglais. Une introduction à la science des réseaux, c’est un cours mi-conférence mi-séminaire. Les réseaux modélisent les relations dans les systèmes complexes, depuis les hyperliens entre les pages web et les coauteurs entre chercheurs jusqu’aux interactions biologiques entre les protéines et les gènes, en passant par les liens synaptiques entre les neurones. La science des réseaux est un domaine de recherche interdisciplinaire impliquant des chercheurs en physique, informatique, sociologie, mathématiques et statistiques, avec des applications dans un large éventail de domaines dont la biologie, la médecine, les sciences politiques, le marketing, l’écologie, la criminologie, etc. Dans ce cours, nous couvrirons les concepts et techniques de base utilisés dans la science des réseaux, nous passerons en revue les techniques de pointe et nous discuterons des développements les plus récents. | 3 | TBA | TBA
|
Liam Paull | IFT 6757 – Véhicule Autonomes | Cours donné en anglais. Contrôle de véhicules autonomes avec vision par ordinateur et apprentissage automatique; construction d’un véhicule autonome à petite échelle; senseurs, vision, estimation d’état, navigation, planification, contrôle et actionnement. | 3 | TBA | TBA |
Guy Wolf | MAT 6493 – Geometric data analysis | Formulation et modélisation analytique des géométries intrinsèques de données. Algorithmes pour les construire et les utiliser en apprentissage automatique. Applications : classification, regroupement et réduction de la dimensionnalité. Le cours est prévu pour être donné en anglais (pour accommoder des étudiants anglophones), sauf si tous les étudiants en classe sont francophones et demandent qu’il soit donné en français. Néanmoins, tous les travaux faits par les étudiants pourront toujours être remis en français. | 4 | TBA | TBA |
Sarath Chandar | INF8953CE – Machine Learning | This course provides a rigorous introduction to the field of machine learning (ML). The aim of the course is not just to teach how to use ML algorithms but also to explain why, how, and when these algorithms work. The course introduces fundamental algorithms in supervised learning and unsupervised learning from the first principles. The course, while covering several problems in machine learning like regression, classification, representation learning, dimensionality reduction, will introduce the core theory, which unifies all the algorithms. | 3 | TBA | TBA |
Andrea Lodi | MTH6404 – Integer Programming | Modélisation de problèmes classiques. Méthodes d’énumération implicite (branch-and-bound) : arbre d’énumération, stratégie d’exploration, règles de branchement. Théorie polyédrale : inégalités valides, dimension, faces et facettes. Unimodularité. Méthodes de plans coupants. Coupes de Chvátal-Gomory et de Gomory. Algorithmes de séparation spécialisés. Décomposition de Dantzig-Wolfe et génération de colonnes. Relaxation lagrangienne. Décomposition de Benders. Étude détaillée des problèmes de sac à dos et du commis voyageur. | TBA | TBA | TBA |
Pierre-Luc Bacon | IFT6760C – Reinforcement Learning and Optimal Control | Markov Decision Processes, LP formulation, occupation measure, smooth bellman equations, projected bellman equations, analysis of TD algorithms, derivative estimation, discrete and continuous optimal control, Pontryagin maximum principle, single shooting, multiple shooting, collocation methods, inverse and meta reinforcement learning. | TBA | Me 13h30 – 15h30 Lu 15h30 – 17h30 | 09-02-2020 au 12-02-2020 |
Aaron Courville | IFT 6268 – L’apprentissage auto-supervisé de la représentation | Il y a eu beaucoup de progrès récents dans l’apprentissage de la représentation. La plupart d’entre eux se présentent sous la forme d’un apprentissage de la représentation «auto-supervisé». Dans ce cours, nous prendrons une interprétation assez large de ce qui constitue des méthodes auto-supervisées et inclurons certaines méthodes d’apprentissage non supervisées et supervisées, le cas échéant. Nous nous intéressons aux méthodes qui apprennent des représentations sémantiques efficaces sans (exclusivement) s’appuyer sur des données étiquetées. Plus spécifiquement, nous nous intéresserons aux méthodes telles que: les tâches d’augmentation de données, la distillation des connaissances, l’auto-distillation, l’apprentissage itératif, les méthodes contrastives (DIM, CPC, MoCo, SimCLR, etc.), le BYOL, et l’analyse de ces méthodesauto-supervisés. Notre objectif sera de comprendre comment fonctionnent ces méthodes et quels sont les principes fondamentaux en jeu. Il s’agit d’un cours de séminaire avancé sur le sujet et en tant que tel, nous lirons et discuterons d’un large éventail d’articles récents et classiques. Les conférences seront en grande partie dirigées par des étudiants. Nous supposons une connaissance des principes fondamentaux de l’apprentissage automatique (et en particulier de l’apprentissage en profondeur – comme vous le trouveriez dans IFT6135), nous explorerons également les applications de l’apprentissage de la représentation auto-supervisé dans un large éventail de domaines, y compris le traitement du langage naturel, la vision par ordinateur. et apprentissage par renforcement. Une connaissance de base de ces domaines sera également supposée. L’évaluation des étudiants se fera sur la base de deux volets: 50% pour les présentations en classe (environ 3 par étudiant); et 50% pour un projet de cours. | 4 | Ma 16h30 – 18h30 Je 18h30 – 20h30 | TBA |
Liste des cours et horaires - Hiver 2020
Noms Professeurs | Cours/sigles | Descriptions | Crédits | Horaires | Dates |
---|---|---|---|---|---|
Simon Lacoste-Julien | IFT 6132 – Prédiction structurée avancée et optimisation | Cours donné en anglais Sujets avancés pour la prédiction d’objets structurés (tels: graphes, couplages, réseaux de flot). Apprentissage génératif vs. | 4 | Ma 14h30 – 16h29 Je 13h30 – 15h29 | 07-01-2020 au 11-04-2020 |
Aaron Courville | IFT 6135 – Apprentissage de représentations (Hiver 2019) | Sujets avancés en algorithmes d’apprentissage : architectures profondes, réseaux de neurones et modèles probabilistes non supervisés. | 4 | Lu 09h30 – 11h29 Me 12h30 – 14h29 | 07-01-2019 au 10-04-2019 |
Ioannis Mitliagkas | IFT-6085 – Theoretical principles for deep learning | Cours donné en anglais La recherche dans le domaine de l’apprentissage profond produit des résultats de pointe sur un certain nombre de tâches d’apprentissage machine. La plupart de ces progrès sont le fruit de l’intuition et d’une exploration massive par essais et erreurs. Par conséquent, la théorie est actuellement à la traîne par rapport à la pratique. La communauté de l’apprentissage machine ne comprend pas pleinement pourquoi les meilleures méthodes fonctionnent. Pourquoi pouvons-nous optimiser de manière fiable des objectifs non convexes ? Dans quelle mesure nos architectures sont-elles expressives, en termes de classe d’hypothèses qu’elles décrivent ? Pourquoi certains de nos modèles les plus complexes généralisent-ils pour donner des exemples inédits lorsque nous utilisons des ensembles de données d’un ordre de grandeur inférieur à ce que la théorie classique de l’apprentissage statistique juge suffisant ? Un symptôme de ce manque de compréhension est que les méthodes d’apprentissage profond manquent largement de garanties et d’interprétabilité, deux propriétés nécessaires aux applications critiques. Plus important encore, une base théorique solide peut aider à la conception d’une nouvelle génération de méthodes efficaces – ce qui permet de répondre au besoin d’une exploration fondée sur des essais et des erreurs aveugles. Dans cette classe, nous passerons en revue un certain nombre de publications récentes qui tentent de faire la lumière sur ces questions. Avant de discuter des nouveaux résultats dans chaque article, nous présenterons d’abord les outils fondamentaux nécessaires de l’optimisation, les statistiques, la théorie de l’information et la mécanique statistique. Le but de ce cours est d’inciter les étudiants à s’engager dans de nouvelles recherches dans le domaine. À cette fin, la majorité du crédit sera accordée pour un rapport de projet de classe et une présentation sur un sujet pertinent. Note : Il s’agit d’un cours avancé conçu pour les étudiants au doctorat ayant de solides connaissances en mathématiques | 4 | Me 9h30 – 11h30 Je 9h00 – 11h00 | 09-01-2020 au 16-04-2020 |
Guillaume Rabusseau | IFT-6760a – Séminaire en apprentissage automatique | Cours donné en anglais Ce cours offre un survol des connections entre algèbre linéaire/multilinéaire et apprentissage automatique, et a pour but d’initier les étudiant.e.s aux nouvelles recherches dans ce domaine. | 4 | Ma 12h30 – 14h30 Je 11h30 – 13h30 | 07-01-2020 au 16-04-2020 |
Irina Rish | IFT 6760b – Continual Learning: Towards « Broad » AI | Cours donné en anglais Stephen Hawking famously said, ‘Intelligence is the ability to adapt to change.’ While today’s AI systems can achieve impressive performance in specific tasks, from accurate image recognition to super-human performance in games such as Go and chess, they are still quite « narrow », i.e. not being able to easily adapt to a wide range of new tasks and environments, without forgetting what they have learned before – something that humans and animals seem to do naturally during their lifetime. This course will focus on the rapidly growing research area of machine learning called continual lifelong learning which aims to push modern AI from « narrow » to « broad », i.e. to develop learning models and algorithms capable of never-ending, lifelong, continual learning over a large, and potentially infinite set of drastically different tasks and environments. In this course, we will review state-of-art literature on continual lifelong learning in modern AI, including catastrophic forgetting problem and recent approaches to overcoming it in deep neural networks, from augmenting stochastic gradient decent algorithm to alternative optimization approaches, architecture adaptation/evolution based on expansion/compression, dynamic routing/selective execution (« internal » attention) and other approaches; moreover, we will also survey related work on stability vs plasticity dilemma in neuroscience and related topics in biology of adaptation and memory. | 4 | Lu 15h30 – 17h30 Je 16h30 – 18h30 | 06-01-2020 au 16-04-2020 |
Pierre-Luc Bacon | IFT 6760C – Séminaire en apprentissage automatique | Cours avancé en apprentissage par renforcement. Méthodes par ascension du gradient de la politique, estimation de dérivées, analyse des algorithmes d’approximation de fonction de valeur, contrôle optimal en temps discret et différentiation automatique, optimisation à bi-niveau en méta-apprentissage par renforcement et apprentissage par renforcement inverse | 4 | Ma 9h30 – 11:h0 Ve 13h30 – 15h30 | TBD |
Aaron Courville | IFT 6759 – Projets avancés en apprentissage automatique | Préparation aux applications pratiques de l’apprentissage automatique à travers des projets concrets sur des données réelles. Utilisation de logiciels spécialisés d’apprentissage automatique pour l’intelligence artificielle. Remarque : Il est recommandé de prendre IFT6135 Apprentissage de représentations auparavant ou concomitant. | 4 | Me 14h30 – 16h30 Ve 9h30 – 11h30 | TBD |
Will Hamilton | COMP 766 – Advanced Topics: Applications 1 | Cours donné en anglais. Graph representation learning (GRL) is a quickly growing subfield of machine learning that seeks to apply machine learning methods to graph-structured data. Machine learning on graphs is an important and ubiquitous task with applications ranging from drug design to friendship recommendation in social networks. This course will provide an introduction to graph representation learning, including matrix factorization-based methods, random-walk based algorithms, and graph neural networks. During the course, we will study both the theoretical motivations and practical applications of these methods. | 4 | Lu 13h00 – 14h30 Me 13h00 – 14h30 | 06-01-2020 au 09-04-2020 |
Doina Precup | COMP 767 – Advanced Topics: Applications 2 | Computer Science (Sci) : Advanced topics in computing systems. | 4 | Lu 8h30-10h00 Me 8h30 – 10h00 | TBD |
Guillaume Lajoie | Dynamical Systems (MAT6115) | Introduction au traitement des équations différentielles non linéaires, techniques classiques d’analyse de dynamique, flots continus et discrets, existence et stabilité de solutions, variétés invariantes, bifurcations et formes normales, la théorie ergodique et la théorie du chaos. Le cours inclura un survol d’applications modernes incluant la dynamique d’optimization, dynamique de réseaux récurrents, neuroscience computationelle. | 3 | Ma 9h30-12h30
| 07-01-2020 au 25-02-2020 |
Blake Richards | COMP 596 – Sujets en Informatique 3 | Cours donné en anglais. Cette classe sera un aperçu historique de l’influence des neurosciences sur l’intelligence artificielle. Ce sera un cours de type séminaire, mêlant conférence, discussion et présentations en classe. Le sujet traité comprendra les perceptrons, les origines de l’apprentissage renforcement, les modeles distribué parallèle, les machines de Boltzmann, les architectures de réseau neuronal inspirées par le cerveau et les approches modernes qui intègrent l’attention, la mémoire et les ensembles. | 3 | Ma 13h00 – 14h30 Je 13h00 – 14h30 | 07-01-2020 au 9-04-2020 |
Siva Reddy | COMP 764 Advanced Topics Systems 1 | Cours donné en anglais. The field of natural language processing (NLP) has seen multiple paradigm shifts over decades, from symbolic AI to statistical methods to deep learning. We review this shift through the lens of natural language understanding (NLU), a branch of NLP that deals with “meaning”. We start with what is meaning and what does it mean for a machine to understand language? We explore how to represent the meaning of words, phrases, sentences and discourse. We then dive into many useful NLU applications. Throughout the course, we take several concepts in NLU such as meaning or applications such as question answering, and study how the paradigm has shifted, what we gained with each paradigm shift, and what we lost? We will critically evaluate existing ideas and try to come up with new ideas that challenge existing limitations. We will particularly work on making deep learning models for language more robust. This is a seminar-style course, where the class as a whole will work together in running the course. In the first few lectures, I will provide an overview of NLU and highlight the challenges the field is facing. | 4 | Ma 16h05 – 17h25 Je 16h05 – 17h25 | TBD |
Jian Tang | MATH 80600A – Machine Learning II: Deep Learning and Applications | Cours donné en anglais Deep learning has achieved great success in a variety of fields such as speech recognition, image understanding, and natural language understanding. This course aims to introduce the basic techniques of deep learning and recent progress of deep learning on natural language understanding and graph analysis. This course aims to introduce the basic techniques of deep learning including feedforward neural networks, convolutional neural networks, and recurrent neural networks. We will also cover recent progress on deep generative models. Finally, we will introduce how to apply these techniques to natural language understanding and graph analysis. | 3 | Je 8h30 – 11h30 Ve 15h30 – 18h30 | 09-01-2020 au 18-04-2020 |
Siamak Ravanbakhsh | COMP 551 – Applied Machine Learning | Cours donné en anglais Deep learning has achieved great success in a variety of fields such as speech recognition, image understanding, and natural language understanding. This course aims to introduce the basic techniques of deep learning and recent progress of deep learning on natural This course covers a selected set of topics in machine learning and data mining, with an emphasis on good methods and practices for deployment of real systems. The majority of sections are related to commonly used supervised learning techniques, and to a lesser degree unsupervised methods. This includes fundamentals of algorithms on linear and logistic regression, decision trees, support vector machines, clustering, neural networks, as well as key techniques for feature selection and dimensionality reduction, error estimation and empirical validation. | 4 | Ma 16h30 – 17h30 Je 16h30 – 17h30 | 07-01-2020 au 09-04-2020 |
Reihaneh Rabbany | COMP 551 – Applied Machine Learning | Cours donné en anglais This course covers a selected set of topics in machine learning and data mining, with an emphasis on good methods and practices for deployment of real systems. The majority of sections are related to commonly used supervised learning techniques, and to a lesser degree unsupervised methods. This includes fundamentals of algorithms on linear and logistic regression, decision trees, support vector machines, clustering, neural networks, as well as key techniques for feature selection and dimensionality reduction, error estimation and empirical validation. | 4 | Ma 11h30 – 13h00 Je 11h30 – 13h00 | 09-01-2020 au 18-04-2020 |
Emma Frejinger | IFT-6521 – Programmation dynamique (Hiver 2019) | Ce cours vise à étudier les algorithmes et outils mathématiques servant à analyser ou à optimiser des processus de décision séquentiels, pour lesquels il y a interaction entre les décisions, dans un environnement certain ou incertain. On verra comment implanter les algorithmes de calcul et on étudiera leur performance. Dans plusieurs cas on pourra démontrer certaines propriétés caractérisant la forme d’une politique optimale. On examinera aussi des exemples d’applications tirées de différents domaines, incluant la gestion et la finance. | 4 | Lu 11:30 – 13:29 Ma 10:30 – 12:29 | |
Bernard Gendron | IFT 6551 – Programmation en nombres entiers (Hiver 2019) | 4 |
Liste des cours et horaires - Automne 2019
Noms Professeurs | Cours/sigles | Descriptions | Crédits | Horaires | Dates |
---|---|---|---|---|---|
Simon Lacoste-Julien | IFT 6269 – Modèles Graphiques probabilistes et apprentissage | Représentation des systèmes comme des modèles graphiques probabilistes, inférence dans les modèles graphiques, apprentissage des paramètres à partir de données. | 4 | Ma 14:30 – 16:30 Ve 13:30 – 15:30 | 03-09-2019 – 06-12-2019 |
Ioannis Mitliagkas | IFT 6390 – Fondements de l’Apprentissage Machine | Éléments de base des algorithmes d’apprentissage statistique et symbolique. Exemples d’applications en forage de données, reconnaissance des formes, régression non linéaire, et données temporelles. | 4 | Section A :Me 9:30-11:30 et Je 9:30-10:30 Section A1 Je 10:30-12:30 Section A102 Je 10:30-12:30 | Section A: 04-09-2019 – 04-12-2019 Section A102: 05-09-2019 – 05-12-2019 Section A102: 05-09-2019 – 05-12-2019 |
Laurent Charlin | MATH 80629A Machine Learning | Cours donné en anglais Dans ce cours, nous étudierons des modèles d’apprentissage automatique. En plus des modèles standards, nous étudierons des modèles d’analyse du comportement des utilisateurs et de prise de décision. Les jeux de données volumineux sont désormais courants et nécessitent des outils d’analyse évolutifs. De plus, nous discuterons de modèles récents pour les systèmes de recommandation ainsi que pour la prise de décision (incluant les bandits à plusieurs bras et l’apprentissage par renforcement). | 3 | Me 8:30 – 11:30 | 04-09-2019 – 04-12-2019 |
Laurent Charlin | MATH 80629 Apprentissage automatique I : Analyse des Mégadonnées et Prise de décision | Ce cours porte sur les modèles d’apprentissage automatique (machine learning). En plus des modèles standards, nous étudierons aussi les modèles pour analyser les comportements des utilisateurs ainsi que pour la prise de décision. Nous étudierons en plus des modèles récents pour les systèmes de recommandations ainsi que pour la prise de décision (apprentissage par renforcement). | 3 | Je 8:30 – 11:30
| 05-09-2019 – 05-12-2019 |
Jackie C. K. Cheung | COMP 550 – Natural Language Processing | Cours donné en anglais Une introduction à la modélisation informatique du langage naturel, y compris des algorithmes, des formalismes et des applications. Morphologie informatique, modélisation du langage, analyse syntaxique, sémantique lexicale et compositionnelle et analyse du discours. Applications sélectionnées telles que la synthèse automatique, la traduction automatique et le traitement de la parole. Techniques d’apprentissage automatique pour le traitement du langage naturel. | 3 | Ma 11:35 – 12:55 Je 11:35 – 12:55 | 03-09-2019 – 03-12-2019 |
William L. Hamilton | COMP 551- Applied Machine Learning | Cours donné en anglais Le cours couvrira une sélection de sujets et de nouveaux développements dans l’exploration de données et dans l’apprentissage automatique, en mettant particulièrement l’accent sur les bonnes méthodes et pratiques permettant de déployer efficacement des systèmes réels. Nous étudierons des algorithmes et des techniques couramment utilisés, notamment la régression linéaire et logistique, la classification, les réseaux de neurones, les machines à vecteurs de support, les arbres de décision, etc. Nous discuterons également de méthodes permettant de résoudre des problèmes pratiques tels que la validation empirique, la sélection des caractéristiques, la réduction de la dimensionnalité et l’estimation des erreurs. | 3 | Lu 16:00 – 17:30 Me 16:00 – 17:30 | 06-09-2019 – 06-12-2019 |
Reihaney Rabbany | COMP 596 – Network science | Les réseaux modélisent les relations dans des systèmes complexes, depuis les hyperliens entre les pages Web et les co-auteurs entre les chercheurs jusqu’aux interactions biologiques entre protéines et gènes et aux liens synaptiques entre neurones. | 3 | Ma 10:00 – 11:30 Je 10:00 – 11:30 | 03-09-2019 – 05-12-2019 |
Liam Paull | IFT 6757 – Véhicule Autonomes | 3 | Lu 10:30 – 12:30 Me 11:30 – 13:30 | 04-09-2019 – 04-12-2019 | |
Guy Wolf | MAT 6480W / STT 6705V – Sujets spéciaux: analyse géométrique en science des données | 3 | Me 15h30 – 17h00 Je 15h30 – 17h00 | 04-09-2019 – 04-12-2019 |
Liste des cours et horaires - Hiver 2019
Noms Professeurs | Cours/sigles | Descriptions | Crédits | Horaires | Dates |
---|---|---|---|---|---|
Lacoste-Julien Simon | IFT 6132 – Prédiction structurée avancée et optimisation | Sujets avancés pour la prédiction d’objets structurés (tels: graphes, couplages, réseaux de flot). Apprentissage génératif vs. discriminatif. Modèles à énergie. Champs aléatoires conditionnels. SVM structurées et à variable latente, algorithms CCCP. Optimization à grande échelle: Frank-Wolfe, SGD à variance réduite, méthodes bloques-coordonnées. Apprendre à chercher. RNN. Algorithmes combinatoires: réseaux coût-min, optimization sous-modulaire, programmation dynamique. | 4 | Ma 14:30 – 16:29 Je 13:30 – 15:29 | 08-01-2018 – 12-04-2019 |
Courville Aaron | IFT 6135 – Apprentissage de représentations | Sujets avancés en algorithmes d’apprentissage : architectures profondes, réseaux de neurones et modèles probabilistes non supervisés. | 4 | Lu 09:30 – 11:29 Me 12:30 – 14:29 | 07-01-2019 – 10-04-2019 |
Mitliagkas Ioannis | IFT-6085 – Theoretical principles for deep learning | Ce cours consiste à faire un survol des plus récentes publications théoriques sur l’apprentissage profond. Pour chaque publication choisie, Dr. Mitliagkas introduira les notions théoriques nécessaires pour bien en comprendre la démarche scientifique des auteurs, mais aussi les résultats présentés. Plusieurs thèmes seront traités, tels que l’optimisation de fonctions non convexes et la théorie de l’information. Comme l’objectif principal de ce cours est d’initier les participant.e.s aux nouvelles recherches dans ce domaine, la principale évaluation de ce cours consiste sera sous forme de projet de recherche. | 4 | Me 9:30 – 11:29 Je 9:00 – 11:29 | 09-01-2019 – 11-04-2019 |
Rabusseau Guillaume | IFT-6760a – Séminaire en apprentissage automatique | Cours donné en anglais Ce cours offre un survol des connections entre algèbre linéaire/multilinéaire et apprentissage automatique, et a pour but d’initier les étudiant.e.s aux nouvelles recherches dans ce domaine. | 4 | Ma 12h30 – 14h29 Je 11h30 – 13h29 | 08-01-2019 – 12-04-2019 |
Emma Frejinger | IFT-6521 – Programmation dynamique | Ce cours vise à étudier les algorithmes et outils mathématiques servant à analyser ou à optimiser des processus de décision séquentiels, pour lesquels il y a interaction entre les décisions, dans un environnement certain ou incertain. On verra comment implanter les algorithmes de calcul et on étudiera leur performance. Dans plusieurs cas on pourra démontrer certaines propriétés caractérisant la forme d’une politique optimale. On examinera aussi des exemples d’applications tirées de différents domaines, incluant la gestion et la finance. | 4 | Lu 11:30 – 13:29 Ma 10:30 – 12:29 | |
Tang Jian | 6-600-18A – Data Mining Techniques | Ce cours vise à présenter les techniques de base de l’exploration de données et leurs applications à différents types de données du monde réel, notamment les données de transaction, les données textuelles et les données d’ensemble. | 3 | Ve 18h30 – 21h30 | 11-01-2019 – 12-04-2019 |
Gendron Bernard | IFT 6551 – Programmation en nombres entiers | 4 |
Liste des cours et horaires- Automne 2018
Noms Professeurs | Cours/sigles | Descriptions | Crédits | Horaires | Dates |
---|---|---|---|---|---|
Ioannis Mitliagkas | IFT 6390 – Fondements de l’apprentissage machine (cycles supérieurs) | Ce cours est donné en anglais. Éléments de base des algorithmes d’apprentissage statistique et symbolique. Exemples d’applications en forage de données, reconnaissance des formes, régression non linéaire, et données temporelles. | 4 | Me 9:30 – 11:30 Lect Ju 9:30 – 10:30 Lect Ju 10:30 – 12:30 Lab | 2018-09-05 – 2018-12-06 |
Lacoste-Julien Simon | IFT 6269 – Modèles graphiques probabilistes et apprentissage | Représentation des systèmes comme des modèles graphiques probabilistes, inférence dans les modèles graphiques, apprentissage des paramètres à partir de données. | 4 | Mar 14:30 – 16:29 Sem Ve 13:30 – 15:29 Sem | 2018-09-04 – 2018-12-07 |
Paull Liam | IFT 6757-Autonomous Vehicles | Problèmes en perception, navigation, et contrôle, et leur intégration système dans dans le cadre des véhicules autonomes. Enseignement à code ouvert avec emphase sur l’expérience pratique. | 4 | Lu 10:30 – 12:30 Me 11:30 – 1:30 | 05/09/2018 – 05/12/2018 |
Guillaume Rabusseau | IFT 3395 – Fondements de l’apprentissage machine (1 er cycle) | Ce cours est donné en français. Éléments de base des algorithmes d’apprentissage statistique et symbolique. Exemples d’applications en forage de données, reconnaissance des formes, régression non linéaire, et données temporelles. | 3 | Me 9:30 – 11:30 Lect Ju 9:30 – 10:30 Lect Ju 10:30 – 12:30 Lab | 2018-09-05 – 2018-12-06 |
Cheung Jackie | Comp 550 (McGill)- Natural Language Processing | Introduction à la modélisation du language naturel: algorithmes, formalisms, applications. Morphologie computationelle, analyse syntaxique, lexique et composition, analyse du discours. Application: résumé et traduction automatique, traitement du langage. Apprentissage automatique pour traitement du langage. | 3 | 2:35 PM – 3:55 PM TR ENGMC 13 | n/a |
Lodi Andrea | MTH6404 (Poly)- Integer Programming | Course given in English in Fall and French in Winter. Branch-and-bound: enumeration trees, exploration strategy, branching rules. Polyhedral theory: valid inequalities, dimensions. Unimodularity. Method of intersecting planes. Chvátal-Gomory cuts. Dantzig-Wolfe, column generation, Benders decompositions. Lagrangian relaxation. Backpack and courrier problems. | 3 | n/a | n/a |
Charlin Laurent | 6-602-07 (HEC)-Analyse multidimensionnelle appliquée | Data mining, analyse factorielle, Sélection de variables et de modèles, Régression logistique, Analyse de regroupement, Analyse de survie, Données manquantes. | 3 | Mon 12:00-15:00 Lect | n/a |
Charlin Laurent | 80-629-17A (HEC) –Apprentissage automatique pour données grandes échelles et prise de décisions | Modèles d’apprentissage automatique supervisés (classification, régression) et non-supervisés (agrégation et modélisation de sujet) appliqué aux données massives à l’aide du calcul haute performance (grappes). | 3 | Wed 8:30-11:30 Lect | n/a |
Alain Tapp | Science des données (IFT3700/IFT6700) | Mise en contexte et applications des probabilités, statistiques, optimisation et outils informatiques pour la science des données; nettoyage et visualisation de données; enjeux statistiques de l’apprentissage automatique sur données structurées. | n/a | Lu 9:30 – 10:30 Ma 12:30-14:30 Lu 10:30-12:30 | 9-10-2018 – 03-12-2018 |
Guillaume Lajoie | Dynamical Systems (MAT6115) | Introduction au traitement des équations différentielles non linéaires, techniques classiques d’analyse de dynamique, flots continus et discrets, existence et stabilité de solutions, variétés invariantes, bifurcations et formes normales, la théorie ergodique et un survol d’applications modernes | 3 | Ma 10:30-12:00, Ju 10:30-12:00 | 04/09/2018 – 20/12/2018 |
Liste des cours et horaires - Hiver 2018
Noms Professeurs | Cours/sigles | Descriptions | Crédits | Horaires | Dates |
---|---|---|---|---|---|
Lacoste-Julien Simon | IFT 6132 – Prédiction structurée avancée et optimisation | Sujets avancés pour la prédiction d’objets structurés (tels: graphes, couplages, réseaux de flot). Apprentissage génératif vs. discriminatif. Modèles à énergie. Champs aléatoires conditionnels. SVM structurées et à variable latente, algorithms CCCP. Optimization à grande échelle: Frank-Wolfe, SGD à variance réduite, méthodes bloques-coordonnées. Apprendre à chercher. RNN. Algorithmes combinatoires: réseaux coût-min, optimization sous-modulaire, programmation dynamique. | 4 | Ma 14:30 – 17:29 Ve 14:30 – 16:29 | 23-01-2018 – 30-04-2018 |
Courville Aaron | IFT 6135 – Apprentissage de représentations | Sujets avancés en algorithmes d’apprentissage : architectures profondes, réseaux de neurones et modèles probabilistes non supervisés. | 4 | Lu 09:30 – 11:29 Me 12:30 – 14:29 | 08-01-2018 – 30-04-2018 |
Pal Christopher | INF 8225 (Poly) – Techniques probabilistes et d’apprentissage | Méthodes probabilistes d’intelligence artificielle. Réseaux bayésiens, modèles de Markov cachés, champs aléatoires de Markov. Inférence. Théorie de la décision statistique et des réseaux de décision. Traitement probabiliste de la langue naturelle et de la perception visuelle. Systèmes experts, forage de données, recherche d’informations et vision par ordinateur. Apprentissage profond et par renforcement. | 3 | Ma 15:45 – 18:45 Je 13:45 – 16:45 | 08-01-2018 – 30-04-2018 |
Precup Doina | COMP 767 (McGill) – Advanced Topics: Reinforcement learning | Sujets avancés en apprentissage par renforcement. | 4 | Ma 4:00 – 5:30 PM Je 4:00 – 5:30 PM | 08-01-2018 – 16-04-2018 |
Pineau Joelle | COMP 551 (McGill) – Applied Machine Learning | Sujets spéciaux en apprentissage automatique et forage des données, incluant clustering, réseaux de neurones, machines à vecteurs de support, arbres de décisions. Méthodes comme le choix de features et la réduction de dimensionalité, estimation d’erreur et validation empirique, conception d’algorithmes et parallélisation, gestion de grands ensembles de données. | 4 | Ma 11:35 AM – 12:55 PM Je 11:35 AM – 12:55 PM Lu 8:35 AM – 9:55 AM Me : 8:35 AM – 9:55 AM | 08-01-2018 – 16-04-2018 |
Ioannis Mitliagkas | IFT-6085 – Theoretical principles for deep learning | Ce cours consiste à faire un survol des plus récentes publications théoriques sur l’apprentissage profond. Pour chaque publication choisie, Dr. Mitliagkas introduira les notions théoriques nécessaires pour bien en comprendre la démarche scientifique des auteurs, mais aussi les résultats présentés. Plusieurs thèmes seront traités, tels que l’optimisation de fonctions non convexes et la théorie de l’information. Comme l’objectif principal de ce cours est d’initier les participant.e.s aux nouvelles recherches dans ce domaine, la principale évaluation de ce cours consiste sera sous forme de projet de recherche. | 4 | Me 9:30 – 11:30 Je 9:00 – 11:00 | 08-01-2018 – 30-04-2018 |
Alain Tapp | IFT 6271 – Sécurité informatique | Confidentialité et intégrité des données à clé privée et publique. Protection des couches de protocoles TCP/IP; protection contre les parasites informatiques. Méthodes d’authentification d’usagers. Évaluation et gestion des risques. | 3 | Lu 09:30 – 11:30 Je 12:30 – 13:30 | 08-01-2018 – 30-04-2018 |
Charlin Laurent | n/a | n/a | n/a | n/a | n/a |
Bengio Yoshua | n/a | n/a | n/a | n/a | n/a |
Vincent Pascal | n/a | n/a | n/a | n/a | n/a |
Liste des cours et horaires - Automne 2017
Noms Professeurs | Cours/sigles | Descriptions | Crédits | Horaires | Dates |
---|---|---|---|---|---|
Courville Aaron | IFT 3395/6390 – Fondements de l’apprentissage machine | Éléments de base des algorithmes d’apprentissage statistique et symbolique. Exemples d’applications en forage de données, reconnaissance des formes, régression non linéaire, et données temporelles. | 4 | Mer 9:30 – 11:30 Cours Jeu 9:30 – 10:30 Cours Jeu 10:30 – 12:30 Lab | 2017-09-06 – 2017-12-07 |
Lacoste-Julien Simon | IFT 6269 – Modèles graphiques probabilistes et apprentissage | Représentation des systèmes comme des modèles graphiques probabilistes, inférence dans les modèles graphiques, apprentissage des paramètres à partir de données. | 4 | Ma 14:30 – 16:29 Sém Ve 13:30 – 15:29 Sém | 2017-09-05 – 2017-12-08 |
Paull Liam | IFT 6080 – Duckietown | Problèmes en perception, navigation, et contrôle, et leur intégration système dans dans le cadre des véhicules autonomes. Enseignement à code ouvert avec emphase sur l’expérience pratique. | 4 | Lu 10:30 – 12:20 Cours Me 11:30-13:30 Cours | 2017-09-06 – 2017-12-06 |
Pal Christopher | INF8702 (Poly) – Infographie avancée | Rendu graphique en temps réel. Rendu d’objets polygonaux. Rendu d’objets surfaciques. Utilisation de textures. Courbes et surfaces paramétriques. Évolution du modèle de réflexion locale. Modèles d’illumination globale. Rendu de volumes. Modélisation artistique. Réalité virtuelle. | 3 | Ma 9:30-12:30 Lab Ve 12:45 – 15:45 Cours | |
Precup Doina | COMP 652 (McGill) – Machine Learning | Un survol de la fine pointe de la technologie en apprentissage automatique, incluant les propriétés théoriques et les applications pratiques de ces algorithmes. | 4 | Lu 14:35 – 15:55 Cours Me 14:35 – 15:55 Cours | 2017-09-05 – 2017-12-07 |
Pineau Joelle | COMP 551 (McGill) – Applied Machine Learning | Clustering, réseaux de neurones, machines à vecteurs de support, arbres de décisions. Méthodes comme le choix de features et la réduction de dimensionalité, estimation d’erreur et validation empirique, conception d’algorithmes et parallélisation, gestion de grands ensembles de données. | 4 | Lu 13:05 – 14:25 Cours Me 08:35 – 9:55 Cours | 2017-09-05 – 2017-12-07 |
Charlin Laurent | 6-602-07 (HEC)- Analyse multidimensionnelle appliquée | Data mining, analyse factorielle, Sélection de variables et de modèles, Régression logistique, Analyse de regroupement, Analyse de survie, Données manquantes. | 3 | Je 18:45-21:45 Cours | n/a |
80-629-17A (HEC) – Apprentissage automatique pour données grandes échelles et prise de décisions | Modèles d’apprentissage automatique supervisés (classification, régression) et non-supervisés (agrégation et modélisation de sujet) appliqué aux données massives à l’aide du calcul haute performance (grappes). | 3 | Mer 8:30-11:30 Cours | n/a | |
Lodi Andrea | MTH6404 (Poly)- Programmation en nombres entiers | Cours donné en anglais à l’automne et français au printemps. Méthodes d’énumération implicite (branch-and-bound) : arbre d’énumération, stratégie d’exploration, règles de branchement. Théorie polyédrale : inégalités valides, dimension, faces et facettes. Unimodularité. Méthodes de plans coupants. Coupes de Chvátal-Gomory. Décomposition de Dantzig-Wolfe, génération de colonnes, Benders. Relaxation lagrangienne. Problèmes de sac à dos et du commis voyageur. | 3 | Ma 12:45 – 15:45 Cours | n/a |
Cheung Jackie | Comp 550 (McGill)- Traitement du language naturel | Introduction à la modélisation du language naturel: algorithmes, formalisms, applications. Morphologie computationelle, analyse syntaxique, lexique et composition, analyse du discours. Application: résumé et traduction automatique, traitement du langage. Apprentissage automatique pour traitement du langage. | 3 | Ma 16:05 – 17:25 Cours Je 16:05 – 17:25 Cours | 2017-09-05 – 2017-12-06 |
Liste des cours et horaires - Été 2017
Noms Professeurs | Cours/sigles | Descriptions | Crédits | Horaires | Dates |
---|---|---|---|---|---|
Pal Christopher | INF6953H (Poly) – Deep Learning | Les réseaux de neurones convolutifs, les autoencodeurs, les réseaux neuronaux récurrents, les réseaux de longue mémoire à court terme « LSTM ». Les réseaux stochastiques, les champs aléatoires conditionnels, les machines de Boltzmann. Apprentissage par renforcement profond. Ce cours sera donné en anglais. | 3 | Ma 13:00 – 16:00 Cours Me 13:00 – 16:00 TP Je 13:00 – 16:00 Cours | 2017-05-07 – 2017-08-24 |
Liste des cours et horaires - Hiver 2017
Noms Professeurs | Cours/sigles | Descriptions | Crédits | Horaires | Dates |
---|---|---|---|---|---|
Lacoste-Julien Simon | IFT 6085 – Prédiction structurée avancée | Modèles énergétiques. Apprentissage génératif/discriminatif. Champs aléatoires conditionnels. SVM structurées et à variable latente, algorithms CCCP. Optimization grande échelle: Frank-Wolfe, SGD variance réduite, méthodes bloques-coordonnées. Apprendre à chercher. RNN. Algorithms combinatoriels: réseaux coût-min, optimization sous-modulaire, programmes dynamiques. | 4 | Me 10:30 – 12:29 Ve 15:00 – 16:59 | 6 Jan au 12 Avr 2017 |
Courville Aaron | IFT 6266 – Algorithmes d’apprentissage | Sujets avancés en algorithmes d’apprentissage : architectures profondes, réseaux de neurones et modèles probabilistes non supervisés. | 4 | Lu 14:30 – 16:29 Je 09:30 – 11:29 | 5 Jan au 13 Avr 2017 |
Pal Christopher | INF 8225 (Poly) – Techniques probabilistes et d’apprentissage | Méthodes probabilistes d’intelligence artificielle. Réseaux bayésiens, modèles de Markov cachés, champs aléatoires de Markov. Inférence. Théorie de la décision statistique et des réseaux de décision. Traitement probabiliste de la langue naturelle et de la perception visuelle. Systèmes experts, forage de données, recherche d’informations et vision par ordinateur. | 3 | Lundi 12h45 – 15h45 TP Mardi 9h30 – 12h30 Cours | |
Precup Doina | COMP 652 (McGill) – Machine Learning | Un survol de la fine pointe de la technologie en apprentissage automatique, incluant les propriétés théoriques et les applications pratiques de ces algorithmes. | 4 | Mardi 13:05 – 14:25 Jeudi 13:05 – 14:25 | 4 Jan au 11 Avr 2017 |
COMP 767 (McGill) – Advanced Topics: Reinforcement learning | Sujets avancés en apprentissage par renforcement. | 4 | Ven 10:05 – 12:55 | 4 Jan au 11 Avr 2017 | |
Pineau Joelle | COMP 551 (McGill) – Applied Machine Learning | Sujets spéciaux en apprentissage automatique et forage des données, incluant clustering, réseaux de neurones, machines à vecteurs de support, arbres de décisions. Méthodes comme le choix de features et la réduction de dimensionalité, estimation d’erreur et validation empirique, conception d’algorithmes et parallélisation, gestion de grands ensembles de données. | 4 | Mardi 13:05 – 14:25 Jeudi 13:05 – 14:25 | 4 Jan au 11 Avr 2017 |
n/a | |||||
Bengio Yoshua | n/a | n/a | n/a | n/a | n/a |
Vincent Pascal | n/a | n/a | n/a | n/a | n/a |
Liste des cours et horaires - Automne 2016
Noms Professeurs | Cours/sigles | Descriptions | Crédits | Horaires | Dates |
---|---|---|---|---|---|
Vincent Pascal | IFT 3395 – Fondements de l’apprentissage machine (1er cycle) | Éléments de base des algorithmes d’apprentissage statistique et symbolique. Exemples d’applications en forage de données, reconnaissance des formes, régression non linéaire, et données temporelles. Remarques: Des connaissances d’analyse numérique sont recommandées, par exemple le IFT 2425. | 3 | Me 09:30 – 11:29 Cours Je 09:30 – 10:29 Cours Je 10:30 – 12:29 LAB | 1 sept au 8 décembre 2016 |
IFT 6390 – Fondements de l’apprentissage machine (2e cycle) | Éléments de base des algorithmes d’apprentissage statistique et symbolique. Exemples d’applications en forage de données, reconnaissance des formes, régression non linéaire, et données temporelles. | 4 | Me 09:30 – 11:29 Cours Je 09:30 – 10:29 Cours Je 10:30 – 12:29 LAB | 1 sept au 8 décembre 2016 | |
Lacoste-Julien Simon | IFT 6269 – Modèles graphiques probabilistes et apprentissage | Représentation des systèmes comme des modèles graphiques probabilistes, inférence dans les modèles graphiques, apprentissage des paramètres à partir de données. | 4 | Ma 14:30 – 16:29 Cours Ven 13:30 – 15:29 Cours | 2 sept au 6 déc 2016 |
Charlin Laurent | 6-602-07 (HEC)- Analyse multidimensionnelle appliquée | Data mining, analyse factorielle, Sélection de variables et de modèles, Régression logistique, Analyse de regroupement, Analyse de survie, Données manquantes | 3 | Lu 12:00 – 15:00 Cours | 29 août au 5 déc 2016 |
Bengio Yoshua | n/a | n/a | n/a | n/a | n/a |
Courville Aaron | n/a | n/a | n/a | n/a | n/a |
Pal Christopher | n/a | n/a | n/a | n/a | n/a |