Description du projet
Biasly est un projet de recherche en IA qui s’appuie sur des algorithmes de pointe de traitement du langage naturel pour détecter et corriger les propos misogynes dans les textes écrits, qu’ils soient exprimés ouvertement ou de manière cachée. Biasly a été développé pour expliquer pourquoi un langage peut être interprété comme misogyne, et pour suggérer des façons de le reformuler afin de réduire ou de supprimer les connotations misogynes.
Origine
Biasly a été conçu à l’origine par Andrea Jang, Carolyne Pelletier, Ines Moreno et Yasmeen Hitti pendant leur stage d’été au AI4Good Lab. Leur objectif était de construire un outil d’apprentissage automatique capable de détecter et de corriger les préjugés sexistes dans les textes écrits. Pour concrétiser leur idée, elles ont décidé d’entreprendre un stage d’IA humanitaire avec Mila, où elles ont développé une taxonomie pour les préjugés sexistes dans les textes. Leur stage a pris fin depuis, mais l’équipe de chercheuses de Mila a poursuivi leurs travaux afin de concrétiser la vision de Biasly.
Biasly passe à la vitesse supérieure
L’équipe actuelle de Biasly a été constituée de manière stratégique afin de garantir une réalisation responsable et à fort impact de ce travail.
Nos chercheuses en apprentissage automatique sont Anna Richter, M. Sc. (sciences cognitives), Brooklyn Sheppard, M. Sc. (traitement de la parole et du langage).
Le projet est géré par Allison Cohen, gestionnaire principale de projets, en collaboration avec des expertes du domaine, notamment Elizabeth Smith, Ph. D. (experte en linguistique), Tamara Kneese, Ph. D. (spécialiste des études de genre), Dr. Yue Dong, conseillère du traitement du langage naturel (NLP), et Carolyne Pelletier, ingénieure en traitement du langage.
Le projet a également eu la chance de bénéficier de la perspicacité et de l’expertise de la chercheuse en intelligence artificielle, Ioana Baldini, Ph. D., et de l’experte en études de genre, Alex Ketchum, Ph.D.
Prochaines étapes
Biasly prévoit que son ensemble de données et ses modèles seront disponibles, en code ouvert (open source), d’ici septembre 2023.
En fonction des performances de l’outil, et conformément aux normes éthiques de l’IA, nous déterminerons si Biasly sera offert en tant qu’extension Chrome téléchargeable.
Nous sommes toujours à la recherche de possibilités de soutien financier. Si vous souhaitez vous impliquer, veuillez contacter Allison Cohen.