Mila > Biasly

Biasly

Une solution alimentée par l’IA pour contrer les biais sexistes et raciaux générés par l’humain et l’ordinateur

Description du projet

Biasly AI exploite un algorithme de traitement du langage naturel pour analyser les textes en ligne afin non seulement d’identifier les préjugés conscients et inconscients, mais aussi de débiaiser les phrases problématiques.

Cet outil comble une lacune importante parmi les capacités d’apprentissage automatique existantes et répond aux besoins d’un certain nombre de groupes de parties prenantes. Ainsi, cet outil peut être utilisé par plusieurs intervenants, notamment :

  • Les employeurs au sein de certaines industries prédominées par un sexe ou une démographie raciale qui souhaitent améliorer le langage utilisé dans les offres d’emploi afin d’attirer des candidats plus diversifiés ;
  • Les agences de marketing et/ou de presse qui cherchent à éliminer les préjugés subconscients de leurs campagnes et articles ;
  • Les créateurs de forums Internet et de sites de médias sociaux à des fins de modération de contenu ;
  • Les chercheurs dont les travaux portent sur la discrimination raciale ou fondée sur le sexe ;
  • Les internautes qui désirent s’engager de manière plus critique avec le contenu qu’ils consomment en ligne.

À propos du projet 

Son origine

Biasly AI a été initialement conçu par Andrea Jang, Carolyne Pelletier, Ines Moreno et Yasmeen Hitti pendant leur stage d’été au AI4Good Lab. Leur objectif était de construire un outil d’apprentissage automatique capable de détecter et de corriger les biais de genre dans les textes. Afin de donner vie à leur idée, l’équipe a décidé d’entreprendre un stage d’IA humanitaire avec Mila, où elles ont développé une taxonomie pour les biais de genre dans les textes ainsi qu’un ensemble de données sur les biais de genre. Bien que leurs stages aient pris fin depuis, une équipe de chercheurs de Mila a repris ce travail afin de concrétiser la vision de Biasly AI.

Porter Biasly AI à de nouveaux sommets

L’équipe actuelle de Biasly AI a été créée dans un souci de diversité. L’équipe comprend des personnes issues de diverses disciplines universitaires, de différents sexes, ethnies et pays. Jia Xue, fondatrice du Artificial Intelligence for Justice Lab de l’Université de Toronto, dirige le volet du projet lié aux sciences sociales, alors que Yoshua Bengio, directeur scientifique de Mila, et le chercheur postdoctoral Dianbo Liu, se concentrent sur le volet technique. L’équipe comprend également des stagiaires du Cameroun, du Nigeria, de l’Ouganda et du Bénin.

À la lumière du climat politique et social actuel, l’équipe a décidé d’élargir le champ d’application de Biasly AI pour inclure non seulement les préjugés sexistes, mais aussi les préjugés raciaux. Pour que ce modèle soit le plus efficace possible, la question des préjugés raciaux doit également être prise en compte et affrontée.

Prochaines étapes

Biasly AI devrait avoir un prototype final pour une mise en œuvre le 30 septembre 2021. Une fois ce prototype terminé, le projet sera peaufiné et professionnalisé par l’équipe de recherche appliquée de Mila. Après la professionnalisation de l’outil, Biasly AI sera déployé et téléchargeable sous forme d’extension Chrome gratuite. En plus de l’extension Chrome, Biasly AI aura un certain nombre d’outils à disposition pour permettre à d’autres personnes dans le domaine de construire des applications d’IA anti-biaise, notamment : un ensemble de données open source sur les biais sexistes et raciaux, ainsi qu’un guide des meilleures pratiques d’annotation.

Nous continuons à rechercher des possibilités de soutien financier. Si vous êtes intéressés à être impliqués dans ce projet, veuillez contacter Allison Cohen : allison.cohen@mila.quebec.

Membres de l’équipe

Collaborateurs

  • Guergana Savova 
  • Tim Miller
  • Danielle Bitterman
  • Zhuang Ma
  • Yang Xie 
array(1) { ["wp-wpml_current_language"]=> string(2) "fr" }