Yoshua Bengio

Professeur titulaire, Département d’informatique et de recherche opérationnelle, Université de Montréal.
Chaire de Recherche du Canada sur les algorithmes d’apprentissage statistique.
Fondateur et directeur scientifique de Mila.
Directeur scientifique d’IVADO. Fellow et directeur de programme CIFAR.

Yoshua Bengio est reconnu comme l’un des plus grands experts mondiaux en matière d’intelligence artificielle et comme un pionnier de l’apprentissage profond.

Depuis 1993, il est professeur au Département d’informatique et de recherche opérationnelle de l’Université de Montréal. Titulaire de la Chaire de recherche du Canada sur les algorithmes d’apprentissage statistique, il est fondateur et directeur scientifique de Mila, l’Institut québécois d’intelligence artificielle, le plus important groupe universitaire de recherche en apprentissage profond au monde.

Sa contribution en recherche est indéniable. En 2018, Yoshua Bengio est l’informaticien qui a recueilli le plus grand nombre de nouvelles citations au monde, grâce à ses nombreuses publications.

Version longue

Reconnu comme l’un des plus grands experts mondiaux en intelligence artificielle, Yoshua Bengio est en outre un pionnier de l’apprentissage profond. Il a commencé ses études à Montréal, où il obtient son doctorat en informatique de l’Université McGill, puis a effectué des études postdoctorales au Massachusetts Institute of Technology (MIT).

Depuis 1993, il œuvre à titre de professeur au Département d’informatique et de recherche opérationnelle (DIRO) de l’Université de Montréal. En 2000, Yoshua Bengio devient titulaire de la Chaire de recherche du Canada sur les algorithmes d’apprentissage statistique. Parallèlement, il fonde et assure la direction scientifique de Mila — l’Institut québécois d’intelligence artificielle — le plus important groupe universitaire de recherche en apprentissage profond au monde. Il cumule également la fonction de directeur scientifique d’IVADO.

Sa contribution en recherche est indéniable. En 2018, Yoshua Bengio est l’informaticien qui a recueilli le plus grand nombre de nouvelles citations au monde, grâce à ses 3 ouvrages de référence et à ses quelque 500 publications.

Le professeur Bengio aspire à découvrir les principes qui mènent à l’intelligence grâce à l’apprentissage, et ses recherches lui ont valu plusieurs distinctions. Il est notamment officier de l’Ordre du Canada, fellow de la Société royale du Canada, récipiendaire du Prix Marie-Victorin en plus d’avoir été nommé Scientifique de l’année par Radio-Canada en 2017. En 2018, on lui remet la médaille du 50e anniversaire du Ministère des Relations internationales et de la Francophonie du Québec. Ces honneurs reflètent l’influence profonde de son travail sur l’évolution de notre société.

Préoccupé par les impacts sociaux de cette nouvelle technologie, il a contribué activement à l’élaboration de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle.

Sélection de publications

Goodfellow, Ian J., Yoshua Bengio, and Aaron Courville (2016). Deep Learning. MIT Press. 

Bahdanau, Dzmitry, Kyunghyun Cho, and Yoshua Bengio (2015). “Neural Machine Translation by Jointly Learning to Align and Translate”. In: ICLR’2015, arXiv:1409.0473

LeCun, Yann, Yoshua Bengio, and Geoffrey Hinton (2015). “Deep Learning”. In: Nature 521.7553, pp. 436–444.

Dauphin, Yann, Razvan Pascanu, Caglar Gulcehre, Kyunghyun Cho, Surya Ganguli, and Yoshua Bengio (2014). “Identifying and attacking the saddle point problem in high-dimensional non-convex optimization”. In: NIPS’2014, arXiv:1406.2572.

Montufar, Guido F., Razvan Pascanu, KyungHyun Cho, and Yoshua Bengio (2014). “On the Number of Linear Regions of Deep Neural Networks”. In: NIPS’2014, arXiv:1402.1869

Goodfellow, Ian J., Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio (2014). “Generative Adversarial Networks”. In: NIPS’2014, arXiv:1406.2661.

Yoshua Bengio, Li Yao, Guillaume Alain, and Pascal Vincent (2013). “Generalized Denoising Auto-Encoders as Generative Models”. In: NIPS’2013, arXiv:1305.6663.

Pascanu, Razvan, Guido Montufar, and Yoshua Bengio (2014). “On the number of inference regions of deep feed forward networks with piece-wise linear activations”. In: International Conference on Learning Representations 2014 (Conference Track),arXiv:1305.6663.

Glorot, X., A. Bordes, and Y. Bengio (2011). “Deep Sparse Rectifier Neural Networks”. In: AISTATS’2011.

Glorot, Xavier and Yoshua Bengio (2010). “Understanding the difficulty of training deep feedforward neural networks”. In: AISTATS’2010.

Bengio, Yoshua, Jerome Louradour, Ronan Collobert, and Jason Weston (2009). “Curriculum Learning”. In: ICML’09, 2009_curriculum_icml.

Bengio, Yoshua (2009a). “Learning deep architectures for AI”. In: Foundations and Trends in Machine Learning 2.1, pp. 1–127.

Bengio, Yoshua, Pascal Lamblin, Dan Popovici, and Hugo Larochelle (2007). “Greedy Layer-Wise Training of Deep Networks”. In: NIPS’2006. Ed. by Bernhard Schölkopf, John Platt, and Thomas Hoffman. MIT Press, pp. 153–160.

Pascal Vincent, Hugo Larochelle, Yoshua Bengio, and Pierre-Antoine Manzagol (2008). “Ex-tracting and Composing Robust Features with Denoising Autoencoders”. In: Proceedings of the Twenty-fifth International Conference on Machine Learning (ICML’08). Ed. by William W. Cohen, Andrew McCallum, and Sam T. Roweis. ACM, pp. 1096–1103.

Yoshua Bengio, Réjean Ducharme, Pascal Vincent, and Christian Jauvin (2003). “A Neural Probabilistic Language Model”. In: Journal of Machine Learning Research 3, pp. 1137– 1155.

Bengio, Yoshua and Samy Bengio (2000). “Modeling High-Dimensional Discrete Data with Multi-Layer Neural Networks”. In: Advances in Neural Information Processing Systems 12 (NIPS’99). Ed. by S.A. Solla, T.K. Leen, and K-R. Müller. MIT Press, pp. 400–406.

LeCun, Yann, Leon Bottou, Yoshua Bengio, and Patrick Haffner (1998). “Gradient-Based Learning Applied to Document Recognition”. In: Proceedings of the IEEE 86.11, pp. 2278– 2324.

Bengio, Y., P. Simard, and P. Frasconi (1994). “Learning Long-Term Dependencies with Gradient Descent is Difficult”. In: IEEE Transactions on Neural Networks 5.2, pp. 157– 166.

Bengio, Yoshua, Samy Bengio, Jocelyn Cloutier, and Jan Gecsei (1991). “Learning a Synaptic Learning Rule”. In: International Joint Conference on Neural Networks (IJCNN). Seattle, WA, II–A969. 

Formation


1992 – 1993
Bourse post-doctorale, AT&T Bell Laboratories, NJ, É.-U.
Algorithmes d’apprentissage et de vision | Groupe de Larry Jackel et Yann LeCun

1991 – 1992
Bourse post-doctorale, MIT, MA, É.-U.
Bourse CRSNG | Apprentissage statistique / Données séquentielles
Department of Brain and Cognitive Sciences | Groupe de Michael I. Jordan

1988 – 1991
Doctorat en informatique, Université McGill, Montréal
Bourse CRSNG | Réseaux de neurones et modèles de Markov

1986 – 1988
Maîtrise en informatique, Université McGill, Montréal
Reconnaissance vocale et approches statistiques

1982 – 1986
B. Ing. en génie informatique, programme d’études spécialisées,
Université McGill, Montréal

Titres et distinctions

2018 – 2023
Titulaire d'une Chaire en IA CIFAR-Canada (IACC) (1,25 M$)

Depuis 2016
Directeur scientifique, IVADO, Institut de valorisation des données

2016-2023
Boursier, Fonds d’excellence en recherche Apogée Canada (93,6 M$)
Principal demandeur, Données au service des Canadiens : apprentissage profond et optimisation aux fins de la révolution du savoir ; la plus importante bourse reçue par l’UdeM.

Depuis 2014
Codirecteur, programme Apprentissage automatique, apprentissage biologique, CIFAR
Anciennement appelé Calcul neuronal et perception adaptative (CNPA) et dirigé au départ par Geoff Hinton, ce programme a financé les premières percées en apprentissage profond.

Depuis 2013
Fondateur et co-président, ICLR (International Conference on Learning
Representations)

2012 – 2013
Membre du comité des prix, Association d’informatique canadienne
Également membre des comités des prix du meilleur article de NeurIPS 2012 et de l’ICML 2016 ainsi que des comités de sélection des prochains présidents de programme (2013-2018).

Depuis 2010
Membre du conseil d’administration, Fondation Neural Information Processing Systems (NeurIPS, anciennement NIPS)

2009
Président, NeurIPS, Neural Information Processing Systems (NeurIPS) est une conférence scientifique de très haut niveau – la plus importante dans le domaine (plus de 1 000 propositions retenues) – dont les critères d’examen et d’acceptation se comparent à ceux des meilleures revues (taux d’acceptation de 20 à 25 %). Avec 56 articles publiés dans le cadre des congrès au fil des ans, se distingue comme l’un des contributeurs les plus prolifiques de la communauté NeurIPS.

2008
Coprésident de programme, NeurIPS 2008

2005 – 2015
Chaire de recherche industrielle, CRSNG

Depuis 2004
Boursier principal, CIFAR (Institut canadien de recherches avancées)

Depuis 2000
Chaire de recherche du Canada en algorithmes d’apprentissage statistique
Niveau 2, 2000 – 2005 ; niveau 1, depuis 2006.

1999-2009
Membre du conseil d’administration, Centre de recherches mathématiques (UdeM)

1993
Fondateur et directeur scientique, Mila - Institut québécois d’intelligence artificielle
D’abord appelé LISA (fondé en 1993), Mila rassemble des chercheurs de l’Université de Montréal et de l’Université McGill au sein d’un organisme sans but lucratif. Comptant 300 chercheurs représentant 15 facultés, il s’agit du plus important centre de recherche universitaire sur l’apprentissage profond dans le monde, qui a produit des articles avant-gardistes dans le domaine, notamment sur l’introduction à l’apprentissage profond (2006), l’apprentissage par curriculum (2009), la puissance des fonctions ReLU pour les réseaux profonds (2011) et les progrès réalisés grâce aux réseaux génératifs adverses (GAN) et à la traduction automatique neuronale (2014).

Prix et honneurs

2019
Prix d’excellence pour l’ensemble des réalisations, Association pour l’intelligence artificielle au Canada

2018
Médaille du 50e anniversaire, ministère des Relations internationales et de la Francophonie

2017
Prix Marie-Victorin, Prix du Québec
La plus haute distinction de la province de Québec dans le domaine des sciences

2017
Scientifique de l’année, Radio-Canada

2017
Membre de la Société royale du Canada


2017
Officier de l’Ordre du Canada

2015
Les 10 découvertes qui ont marqué l’année 2015, La Recherche
Pour ses travaux sur les minimums locaux des réseaux de neurones

2009
Prix Urgel-Archambault, ACFAS