Biasly

L’intelligence artificielle (IA) pour détecter et corriger les propos misogynes.

Logo du projet et photo d'une femme travaillant sur un ordinateur.

À propos de Biasly

Biasly est un projet de recherche en IA qui s’appuie sur des algorithmes de pointe de traitement du langage naturel pour détecter et corriger les propos misogynes dans les textes écrits, qu’ils soient exprimés ouvertement ou de manière cachée. 

Biasly a été développé pour expliquer pourquoi un langage peut être interprété comme misogyne, et pour suggérer des façons de le reformuler afin de réduire ou de supprimer les connotations misogynes.

L'origine du projet

Biasly a été conçu à l’origine par Andrea Jang, Carolyne Pelletier, Ines Moreno et Yasmeen Hitti pendant leur stage d’été au AI4Good Lab. Leur objectif était de construire un outil d’apprentissage automatique capable de détecter et de corriger les préjugés sexistes dans les textes écrits. Pour concrétiser leur idée, elles ont décidé d’entreprendre un stage d’IA humanitaire avec Mila, où elles ont développé une taxonomie pour les préjugés sexistes dans les textes. Leur stage a pris fin depuis, mais l’équipe de chercheuses de Mila a poursuivi leurs travaux afin de concrétiser la vision de Biasly.

Biasly passe à la vitesse supérieure

L’équipe actuelle de Biasly a été constituée de manière stratégique afin de garantir une réalisation responsable et à fort impact de ce travail. 

Nos chercheuses en apprentissage automatique sont Anna Richter*, MSc (sciences cognitives) et Brooklyn Sheppard*, MSc (traitement de la parole et du langage). 

Le projet est géré par Allison Cohen, gestionnaire principale de projets, en collaboration avec des expertes du domaine, notamment Elizabeth Smith, PhD (experte en linguistique), Tamara Kneese, PhD (spécialiste des études de genre), Dr. Yue Dong, conseillère du traitement du langage naturel (NLP), et Carolyne Pelletier, ingénieure en traitement du langage. 

Le projet a également eu la chance de bénéficier de la perspicacité et de l’expertise de la chercheuse en IA, Ioana Baldini, PhD, et de l’experte en études de genre, Alex Ketchum, PhD.

Prochaines étapes

L'équipe de Biasly prévoit de publier l'ensemble des données et le code source libre en 2024. Les publications de l'équipe ont été soumises à des conférences sur l'IA et seront rendues publiques une fois que les décisions de ces conférences auront été finalisées.

Équipe

Membres Mila
Portrait de Allison Cohen
Gestionnaire senior, Projets appliqués
Collaboratrices
Dr. Yue Dong (University of California, Riverside)
Dr. Tamara Kneese (University of California, Berkeley)
Carolyne Pelletier (Mantium)
Dr. Elizabeth Smith (UQÀM)
*Dr. Ioana Baldini (ancienne collaboratrice, IBM Research)
*Dr. Alexandra Ketchum (ancienne collaboratrice, McGill University)
*Anna Richter (ancienne collaboratrice, Mila)
*Brooklyn Sheppard (ancienne collaboratrice, Mila)

Partenaires

Ce projet a été généreusement soutenu par DRW.

Des questions sur le projet?