Les systèmes basés sur l’intelligence artificielle contiennent des biais affectant disproportionnellement les populations moins bien représentées dans les données ayant servi à les entraîner. A l’occasion du mois de l’histoire des Noirs, Foutse Khomh, chercheur à Mila, professeur à Polytechnique Montréal et titulaire d’une chaire en IA Canada-CIFAR, explique comment il prend en compte ces biais dans son travail de recherche et aborde des solutions pour y remédier.
Professeur à Polytechnique Montréal depuis une dizaine d’années, Foutse Khomh travaille sur de nombreux projets allant du traitement d’images satellitaires pour observer les émissions de méthane dans l’atmosphère à des robots circulant dans des chaînes de production pour anticiper les besoins de maintenance, en passant par des outils de modélisation pour l’aérospatial.
Il s’intéresse notamment aux enjeux de confiance des systèmes d’IA pour s’assurer qu’ils soient sûrs, fiables et qu’ils n’aient pas d’effets néfastes sur les utilisateurs, notamment sur les couches défavorisées de la société qui pourraient ne pas avoir été assez prises en compte tout au long du développement de ces systèmes.
Depuis quelques années, son groupe de recherche s’est ainsi rapproché de spécialistes en éthique pour mieux aborder les différents enjeux sociaux des logiciels qu’ils développent et faire remonter puis corriger les éventuels problèmes, notamment liés aux biais.
« Les enjeux de biais sont au cœur des technologies d’IA car l’apprentissage profond, notamment, dépend énormément des données utilisées pour extraire les fonctionnalités et propriétés. L’information encodée dans les données va énormément influer sur ce que le système résultant peut faire, il faut donc s’assurer de la bonne représentativité de différentes facettes de notre société dans cette information pour que ce système soit aussi adapté à la diversité de la société », selon Foutse Khomh.
“Les données sont déséquilibrées car historiquement, certains pans de la société comme les Noirs et les Premières Nations ont moins été représentés dans les données qu’on utilise pour entraîner les modèles. Même quand il y a une représentation, elle n’est pas toujours adéquate car parfois entachée de nos biais existants”.
Ce manque de représentation induit des biais dans les données alimentant les modèles et marginalise davantage des populations déjà sous-représentées. Par exemple, certains systèmes de reconnaissance faciale ont un taux d’erreur très élevé dans le cas de personnes à la peau foncée.
Ces modèles ont été entraînés avec une disparité dans la représentation des différentes couleurs de peau et ont donc moins de points de comparaison pour bien identifier les personnes à la peau foncée, menant à des discriminations dans le monde réel.
“L’algorithme apprenant les structures récurrentes présentes dans les données, le manque de représentativité est donc un des principaux problèmes. Une bonne partie de la solution vient du fait de prendre conscience de cet état de ce déséquilibre dans les données. Par la technologie, on peut apporter des correctifs, mais il est essentiel de pouvoir ensuite apporter la preuve que ces correctifs ont été efficaces afin de contrôler le comportement du système.”
Une des solutions appliquées par son groupe de recherche pour contrer les biais inhérents aux systèmes fondés sur l’IA est de mettre en place des mécanismes d’évaluation tout au long du cycle de vie du logiciel pour détecter les éventuels problèmes dans son fonctionnement puis apporter des correctifs ou le remplacer par une version plus fiable.
“On peut compenser les manquements d’un modèle si on a bien compris ses sources et ses manifestations. Ces modèles ne seront jamais parfaits, mais si on comprend suffisamment comment ils fonctionnent, on est capables de bâtir un système robuste”.
Selon Foutse Khomh, une éducation plus diversifiée et une prise de conscience des enjeux liés aux biais permettrait aussi de mieux représenter les réalités sociales dans la mise en place de systèmes basées sur l’IA.
“Il faut que le public comprenne comment ces technologies sont développées et l’impact qu’elles peuvent avoir sur lui. Il y a un besoin d’éducation et c’est à travers cette interaction que nous allons améliorer la qualité des données qu’on utilise et améliorer la répartition des compétences pour travailler sur ces technologies et s’assurer qu’on développe des technologies qui ne bénéficient pas qu’à une minorité mais à la majorité de la société.“
Foutse Khomh souligne que les chercheurs de Mila sont assez bien sensibilisés à la problématique, notamment à travers des initiatives comme l’École d’été internationale sur les biais et la discrimination en IA, mais que des progrès restent à faire.
“Dans la recherche qu’on fait, on devrait intégrer cette réalité, que ce ne soit pas un problème dont on ne se soucie qu’après avoir bâti un système, mais un problème dont on a conscience pendant tout le processus d’idéation et de construction de ces systèmes. Il faut aussi s’assurer de diversifier le bassin de personnes qui cherchent des solutions à ces problèmes pour avoir des idées plus originales, aborder le problème de la bonne façon et collectivement y apporter des réponses.”