Portrait de Tegan Maharaj

Tegan Maharaj

Membre académique principal
Professeure adjointe en apprentissage automatique, HEC Montréal, Département de sciences de la décision
Sujets de recherche
Apprentissage de représentations
Apprentissage multimodal
Apprentissage profond
Systèmes dynamiques
Théorie de l'apprentissage automatique

Biographie

Je suis professeure adjointe au Département de sciences de la décision à HEC Montréal. Mes objectifs de recherche sont de contribuer à la compréhension et aux techniques de la science du développement responsable de l’IA, tout en appliquant utilement l’IA à des problèmes écologiques à fort impact liés au changement climatique, à l’épidémiologie, à l’alignement de l’IA et à l’évaluation des impacts écologiques. Mes travaux récents portent sur deux thèmes : l’utilisation de modèles profonds pour l’analyse des politiques et l’atténuation des risques; et la conception de données ou d’environnements de tests unitaires pour évaluer empiriquement le comportement d’apprentissage ou simuler le déploiement d’un système d’IA. N’hésitez pas à me contacter pour toute collaboration dans ces domaines.

Je suis généralement intéressée par l’étude de ce qui « entre » dans les modèles profonds : non seulement les données, mais l’environnement d’apprentissage plus globalement, qui comprend la conception/spécification des tâches, la fonction de perte et la régularisation, ainsi que le contexte sociétal du déploiement, notamment les considérations de confidentialité, les tendances et les incitatifs, les normes et les préjugés humains. Je suis préoccupée et passionnée par l’éthique de l’IA, la sécurité et l’application de l’apprentissage machine à la gestion de l’environnement, à la santé et au bien-être social.

Étudiants actuels

Maîtrise recherche - UdeM
Superviseur⋅e principal⋅e :
Maîtrise recherche - HEC
Superviseur⋅e principal⋅e :
Maîtrise recherche - HEC
Doctorat - HEC

Publications

Deep Nets Don't Learn Via Memorization
Zoneout: Regularizing RNNs by Randomly Preserving Hidden Activations
We propose zoneout, a novel method for regularizing RNNs. At each timestep, zoneout stochastically forces some hidden units to maintain thei… (voir plus)r previous values. Like dropout, zoneout uses random noise to train a pseudo-ensemble, improving generalization. But by preserving instead of dropping hidden units, gradient information and state information are more readily propagated through time, as in feedforward stochastic depth networks. We perform an empirical investigation of various RNN regularizers, and find that zoneout gives significant performance improvements across tasks. We achieve competitive results with relatively simple models in character- and word-level language modelling on the Penn Treebank and Text8 datasets, and combining with recurrent batch normalization yields state-of-the-art results on permuted sequential MNIST.