Biasly
L’intelligence artificielle (IA) pour détecter et corriger les propos misogynes.
L’intelligence artificielle (IA) pour détecter et corriger les propos misogynes.
Biasly est un projet de recherche en IA qui s’appuie sur des algorithmes de pointe de traitement du langage naturel pour détecter et corriger les propos misogynes dans les textes écrits, qu’ils soient exprimés ouvertement ou de manière cachée.
Biasly a été développé pour expliquer pourquoi un langage peut être interprété comme misogyne, et pour suggérer des façons de le reformuler afin de réduire ou de supprimer les connotations misogynes.
Biasly a été conçu à l’origine par Andrea Jang, Carolyne Pelletier, Ines Moreno et Yasmeen Hitti pendant leur stage d’été au AI4Good Lab. Leur objectif était de construire un outil d’apprentissage automatique capable de détecter et de corriger les préjugés sexistes dans les textes écrits. Pour concrétiser leur idée, elles ont décidé d’entreprendre un stage d’IA humanitaire avec Mila, où elles ont développé une taxonomie pour les préjugés sexistes dans les textes. Leur stage a pris fin depuis, mais l’équipe de chercheuses de Mila a poursuivi leurs travaux afin de concrétiser la vision de Biasly.
L’équipe actuelle de Biasly a été constituée de manière stratégique afin de garantir une réalisation responsable et à fort impact de ce travail.
Nos chercheuses en apprentissage automatique sont Anna Richter*, MSc (sciences cognitives) et Brooklyn Sheppard*, MSc (traitement de la parole et du langage).
Le projet est géré par Allison Cohen, gestionnaire principale de projets, en collaboration avec des expertes du domaine, notamment Elizabeth Smith, PhD (experte en linguistique), Tamara Kneese, PhD (spécialiste des études de genre), Dr. Yue Dong, conseillère du traitement du langage naturel (NLP), et Carolyne Pelletier, ingénieure en traitement du langage.
Le projet a également eu la chance de bénéficier de la perspicacité et de l’expertise de la chercheuse en IA, Ioana Baldini, PhD, et de l’experte en études de genre, Alex Ketchum, PhD.
L'équipe de Biasly prévoit de publier l'ensemble des données et le code source libre en 2024. Les publications de l'équipe ont été soumises à des conférences sur l'IA et seront rendues publiques une fois que les décisions de ces conférences auront été finalisées.