Mila > Nouvelles > 14 grandes idées tirées de la première conférence de Mila sur les droits humains et l’IA

11 Mar 2024

14 grandes idées tirées de la première conférence de Mila sur les droits humains et l’IA

Du 14 au 16 février 2024, Mila a accueilli des leaders du monde entier pour sa première conférence internationale sur l’intelligence artificielle (IA) et les droits humains, Protéger les droits humains à l’ère de l’IA. Ensemble, des expertes et experts provenant d’organisations internationales, d’ONG, du monde académique et de la sphère politique ont échangé sur les solutions pour mieux intégrer les droits humains à la gouvernance de l’IA et assurer leur protection dans le monde entier.

À travers 14 citations, voici les principales conclusions de la conférence:

1. L’innovation en IA doit être plus diversifiée

« Nous voyons déjà certaines applications de l’IA, du développement durable à l’humanitaire en passant par l’amélioration de l’efficacité d’allocation et d’utilisation des ressources. Mais les modèles économiques existants ne permettront pas de saisir ces opportunités, et la concentration existante du pouvoir technologique et économique ne va pas aider en ce sens. Six à sept entreprises ne vont pas nous sortir de nos problèmes. Nous avons besoin d’une participation plus diversifiée dans l’élan d’innovation en IA. » – Amandeep Singh Gill, Envoyé spécial du Secrétaire général pour les technologies, ONU

2. La responsabilité doit être intégrée dans les systèmes d’IA

« Les entreprises devraient démontrer au public ou à ses représentants que leurs systèmes ne vont pas nuire au public avant même de les déployer ou de les construire. » – Yoshua Bengio, fondateur et directeur scientifique, Mila

Yoshua Bengio, Amandeep Singh Gill, et Alondra Nelson lors du panel d’ouverture.

3. La gouvernance de l’IA devrait aller au-delà des cadres existants

« Le parapluie de “l’IA pour le bien” manque de spécificité… Les lois sur les droits humains, la Déclaration universelle des droits de l’homme de l’ONU sont très pertinentes pour une grande partie de notre travail, mais nous devons opérationnaliser ces principes dans la gouvernance mondiale de l’IA. » – Alondra Nelson, professeure Harold F. Linder, Institute for Advanced Study

4. Les entreprises d’IA font partie de la solution

« Bien que les États restent les principaux garants de la protection des droits humains, il est de plus en plus reconnu que les entreprises doivent également les respecter. Cela est essentiel, car avec la centralité décroissante des États et l’intégration de nouveaux acteurs dans l’ordre international, le secteur privé devient un acteur crucial et de plus en plus puissant qui doit faire partie de la solution. » – Catherine Régis, professeure titulaire, Université de Montréal, chaire en IA Canada-CIFAR, membre académique associée, Mila

5. La législation sur l’IA ne devrait pas être l’objectif final

« En tant qu’avocats, nous ne devrions pas nous attendre à ce que tout puisse être résolu avec un beau texte législatif : le travail ne se termine pas par une liste à cocher. Il s’agit de trouver un juste milieu entre le développement d’outils et de méthodologies pour opérationnaliser sans être tenté de penser que le travail est terminé pour autant. » – Nathalie Smuha, professeure adjointe de droit, KU Leuven

6. La régulation de l’IA est dans l’air du temps

« Il y a des perspectives convergentes concernant le fait que mieux gouverner ces technologies est dans l’air du temps. La question n’est pas de réguler ou non l’IA, mais de savoir de quels outils nous disposons pour assurer que le développement de ces technologies ait une meilleure influence et que nous contrôlions les risques en termes de biais, de discrimination ou d’abus. » – Gabriela Ramos, sous-directrice générale pour les Sciences Sociales et Humaines, UNESCO

7. Les sanctions concernant les violations des droits humains par l’IA sont essentielles

« Avoir des droits humains est fondamental, mais les faire respecter est également central. Dans certains cas, il n’est pas facile d’obtenir réparation lorsque vos droits ont été violés, à moins que vous ne soyez très riche et capable d’engager des cabinets d’avocats pour vous représenter. » – Karine Perset, chef de l’unité IA et de OCDE.AI, Division des politiques de l’économie numérique de l’OCDE

8. Les normes sur les droits humains peuvent guider les développeurs d’IA

« Nous devons avoir des normes qui aident les organisations à prendre en compte les évaluations et préoccupations liées aux droits humains, car les informaticiens ne sont pas formés pour cela. Les normes sont des méthodologies qui aident les développeurs à s’engager avec les parties prenantes et à prendre en compte ces problématiques. » – Clara Neppel, directrice principale – Opérations européennes, IEEE

9. Des voix plus diversifiées doivent être entendues sur l’IA

« L’un des problèmes dans la gouvernance de l’IA aujourd’hui est que, en général, la société civile et les groupes marginalisés ne sont pas représentés à la table. Pour être représentés, ils ont besoin de ressources, de soutien, de formation, et ils doivent être invités. » – Wanda Muñoz, consultante principale, inclusion, égalité des genres et désarmement humanitaire et membre du Feminist AI Research Network

10. La gouvernance de l’IA bénéficie de perspectives interculturelles

« Alors que nous déterminons la réglementation pour gouverner l’IA, nous devons penser à partir d’une perspective de pays et populations défavorisés. Qui a été le plus affecté par ces technologies et comment les protégeons-nous? Tant que nous ne nous éloignons pas d’une perspective pro-occidentale, individualiste, nous n’y arriverons jamais. » – Jake Okechukwu Effoduh, professeur adjoint de droit, Toronto Metropolitan University

11. La sensibilisation est cruciale pour protéger les droits humains

« La grande majorité des institutions n’ont aucune idée de l’endroit dans leur pays où l’IA est utilisée, et quels droits humains sont les plus affectés. Selon la région, l’IA et la discrimination n’est pas non plus le problème le plus pressant sur lequel se concentrer.n. La surveillance des violations des droits humains est un besoin urgent, et nous devrions nous concentrer davantage sur la surveillance et la sensibilisation de l’ensemble de la population. » – Nele Roekens, conseillère juridique auprès d’Unia, l’Institution nationale belge des droits humains et l’organisme de promotion de l’égalité

12. La multidisciplinarité est essentielle pour bien gouverner l’IA

« Nous ne pouvons pas séparer la technologie de l’IA de l’environnement dans lequel elle est créée, utilisée et gouvernée. Il n’y a pas de solutions technologiques pour toutes les conséquences technologiques… Nous devons examiner les problèmes d’un point de vue beaucoup plus large, beaucoup plus multidisciplinaire. » – Virginia Dignum, professeure titulaire d’Intelligence Artificielle Responsable, Université d’Umeå, Suède

De gauche à droite : Karine Perset, Patrick Penninckx, Neema Lugangira et Benjamin Prud’homme.

13. Une meilleure gouvernance mondiale de l’IA garantit qu’aucun pays ne soit laissé pour compte

« Si vous excluez les législateurs de l’équation, ils vont créer des lois qui peuvent ou non être applicables, et les gens pourraient se retourner et commencer à les pointer du doigt. Les connaissances en IA entre les pays du Nord et du Sud sont inégales, et nous devons nous assurer que nous renforçons les capacités des législateurs. » – Neema Lugangira, Membre du Parlement (CCM) représentant les ONG Tanzanie continentale

14. Nous sommes à un moment crucial dans la gouvernance de l’IA

« Ce qui manque actuellement est un consensus, non pas sur les droits humains, les principes de démocratie ou de l’État de droit qui doivent être défendus, mais sur les différences institutionnelles. Et nous devons être capables de surmonter celles-ci pour nous concentrer sur ces dimensions centrales sur lesquelles nous sommes tous d’accord afin de pouvoir les mettre en œuvre. » – Patrick Penninckx, Responsable de département – Société de l’information au Conseil de l’Europe