Mila > Biasly

Biasly

L’IA pour détecter et corriger les propos misogynes

Description du projet

 

Biasly est un projet de recherche en IA qui s’appuie sur des algorithmes de pointe de traitement du langage naturel pour détecter et corriger les propos misogynes dans les textes écrits, qu’ils soient exprimés ouvertement ou de manière cachée. Biasly a été développé pour expliquer pourquoi un langage peut être interprété comme misogyne, et pour suggérer des façons de le reformuler afin de réduire ou de supprimer les connotations misogynes.

À propos du projet

Origine 

Biasly a été conçu à l’origine par Andrea Jang, Carolyne Pelletier, Ines Moreno et Yasmeen Hitti pendant leur stage d’été au AI4Good Lab. Leur objectif était de construire un outil d’apprentissage automatique capable de détecter et de corriger les préjugés sexistes dans les textes écrits. Pour concrétiser leur idée, elles ont décidé d’entreprendre un stage d’IA humanitaire avec Mila, où elles ont développé une taxonomie pour les préjugés sexistes dans les textes. Leur stage a pris fin depuis, mais l’équipe de chercheuses de Mila a poursuivi leurs travaux afin de concrétiser la vision de Biasly.

Biasly passe à la vitesse supérieure

L’équipe actuelle de Biasly a été constituée de manière stratégique afin de garantir une réalisation responsable et à fort impact de ce travail.

Nos chercheuses en apprentissage automatique sont Anna Richter, M. Sc. (sciences cognitives), Brooklyn Sheppard, M. Sc. (traitement de la parole et du langage).

Le projet est géré par Allison Cohen, gestionnaire principale de projets, en collaboration avec des expertes du domaine, notamment Elizabeth Smith, Ph. D. (experte en linguistique), Tamara Kneese, Ph. D. (spécialiste des études de genre), Dr. Yue Dong, conseillère du traitement du langage naturel (NLP), et Carolyne Pelletier, ingénieure en traitement du langage.

Le projet a également eu la chance de bénéficier de la perspicacité et de l’expertise de la chercheuse en intelligence artificielle, Ioana Baldini, Ph. D., et de l’experte en études de genre, Alex Ketchum, Ph.D.

Prochaines étapes

Biasly prévoit que son ensemble de données et ses modèles seront disponibles, en code ouvert (open source), d’ici septembre 2023.

En fonction des performances de l’outil, et conformément aux normes éthiques de l’IA, nous déterminerons si Biasly sera offert en tant qu’extension Chrome téléchargeable.

Nous sommes toujours à la recherche de possibilités de soutien financier. Si vous souhaitez vous impliquer, veuillez contacter Allison Cohen.

Membres de l’équipe

Allison Cohen

Responsable principale des projets d’IA appliquée, Mila

Anna Richter

Scientifique du traitement du langage naturel (NLP), Mila

Brooklyn Sheppard

Scientifique du traitement du langage naturel (NLP), Mila

Dr. Yue Dong

Professeure adjointe, University of California – Riverside

Conseillère du traitement du langage naturel (NLP)

Carolyne Pelletier

Ingénieure NLP séniore, Mantium

Elizabeth Smith, Ph. D.

Professeure de linguistique, UQAM

Tamara Kneese, Ph. D.

Chercheuse invitée, Center for Science, Technology, Medicine, and Society, Université de Californie, Berkeley

Alexandra Ketchum, Ph. D. (anciennement)

Chargée de cours à l’Institut d’études sur le genre, la sexualité et le féminisme de McGill

Contributeurs

Ce projet a bénéficié du soutien généreux de DRW.