Portrait de Gaétan Marceau Caron

Gaétan Marceau Caron

Directeur principal, Recherche appliquée en apprentissage automatique

Biographie

Gaétan Marceau Caron est le directeur de la recherche appliquée en apprentissage automatique à Mila – Institut québécois d’intelligence artificielle. Son objectif est de promouvoir une équipe de chercheurs et de chercheuses travaillant à l’aide de l’intelligence artificielle et conjointement avec l’industrie sur des problèmes scientifiques difficiles, dont les solutions auront des retombées de grande valeur pour la société canadienne.

Il a plus de 12 ans d’expérience dans le transfert de connaissances relatives à l’intelligence artificielle à travers des projets collaboratifs en recherche appliquée. Diplômé en ingénierie de Polytechnique Montréal et d’ENSTA Paris (Institut Polytechnique de Paris) et titulaire d’un doctorat en recherche scientifique de l’Université Pierre-et-Marie-Curie (Sorbonne Universités) et de l’Université Paris-Saclay, il possède cette double expertise de l’analyse des systèmes industriels et de la création de solutions innovantes répondant à des besoins sociétaux de plus en plus complexes.

Durant les 7 dernières années, à Mila, il a été consultant scientifique dans plus de 25 projets avec l’industrie et comme formateur dans 6 éditions de l’école en apprentissage profond co-organisée avec IVADO.

Publications

OpenFake: An Open Dataset and Platform Toward Large-Scale Deepfake Detection
Deepfakes, synthetic media created using advanced AI techniques, have intensified the spread of misinformation, particularly in politically … (voir plus)sensitive contexts. Existing deepfake detection datasets are often limited, relying on outdated generation methods, low realism, or single-face imagery, restricting the effectiveness for general synthetic image detection. By analyzing social media posts, we identify multiple modalities through which deepfakes propagate misinformation. Furthermore, our human perception study demonstrates that recently developed proprietary models produce synthetic images increasingly indistinguishable from real ones, complicating accurate identification by the general public. Consequently, we present a comprehensive, politically-focused dataset specifically crafted for benchmarking detection against modern generative models. This dataset contains three million real images paired with descriptive captions, which are used for generating 963k corresponding high-quality synthetic images from a mix of proprietary and open-source models. Recognizing the continual evolution of generative techniques, we introduce an innovative crowdsourced adversarial platform, where participants are incentivized to generate and submit challenging synthetic images. This ongoing community-driven initiative ensures that deepfake detection methods remain robust and adaptive, proactively safeguarding public discourse from sophisticated misinformation threats.