Comment protéger les droits humains à l’ère de l’intelligence artificielle?

Vue aérienne d'une foule traversant la rue

Le développement de l’intelligence artificielle (IA) a connu une croissance fulgurante suite à l’arrivée de l’agent conversationnel d’OpenAI, ChatGPT. De notion académique obscure, l’IA est devenue en quelques mois source de convoitise pour les entreprises et de préoccupations pour les citoyen·ne·s, malgré les espoirs qu’une technologie si puissante suscite. Toutefois, les grands oubliés de cet engouement sont les droits humains, encore trop peu présents dans les discussions mondiales sur la gouvernance de l’IA.

En tant qu’institut de recherche majeur en intelligence artificielle, Mila s’est rapidement placé à l’avant-garde des enjeux à l’intersection de la technologie et des droits humains.

En mars 2023, Mila et l’UNESCO ont lancé conjointement  un livre intitulé Angles morts de la gouvernance de l’intelligence artificielle sur l’urgente nécessité d’encadrer l’IA face à des changements technologiques sans précédent. Un mois plus tard, le fondateur de Mila et plusieurs membres de la communauté ont signé une lettre mettant en garde contre les travers d’un développement débridé de la technologie.

L’institut a également organisé la première école d’été sur l’IA responsable et les droits humains puis la première conférence internationale avec des représentant·e·s d’organisations internationales, de la société civile et de nombreux·ses expert·e·s du milieu académique et des milieux de pratiques pour faire progresser l’intégration et la protection des droits humains dans les mécanismes de gouvernance de l’IA.

Le constat? Bon nombre d’acteur·rice·s au cœur de l’encadrement et du développement de l’IA sont mobilisé·e·s ou du moins à l’écoute. Mais les manières d’améliorer la situation ne sont pas toujours évidentes ni concrètes. Dans un contexte de développement technologique effréné, il est urgent de trouver des solutions.

Parmi celles-ci, la reddition de compte des entreprises s’avère indispensable.

 

Intégrer les droits humains dans le développement de l’IA

Alors que les obligations en matière de respect des droits humains – notamment en vertu du cadre international – incombent en priorité aux États, la montée en puissance du secteur privé nécessite d’imposer aussi des obligations aux entreprises.

C’est d’ailleurs l’objectif des Principes directeurs relatifs aux entreprises et aux droits de l’homme, émis par l’Organisation des Nations Unies (ONU). Or, ces principes n’ont pas de portée contraignante.

Il est donc nécessaire que toute nouvelle avenue d’encadrement ou de mise en œuvre des droits humains en IA envisage de manière complémentaire, voire intégrée, les secteurs privé et public pour atteindre ses objectifs.

De plus, il est urgent de créer des outils concrets qui favorisent la prise en compte des droits humains dans le développement et le déploiement des systèmes d’IA, et ce, tant au sein des gouvernements que des entreprises et des milieux de recherche. Si les juristes ont une aisance avec la gymnastique des droits humains, ce n’est pas toujours le cas des développeur·euse·s d’IA.

Ces dernier·ère·s doivent donc disposer d’outils adéquats pour s’assurer que les systèmes développés et déployés respectent ces droits qui demeurent souvent abstraits et complexes. 

Un des outils prometteurs à cet égard est celui des « évaluations d’impacts sur les droits humains », qui définissent des paramètres et stratégies pour anticiper les impacts des projets d’IA sur les droits selon leurs caractéristiques propres (type d’IA, données utilisées, degré d’explicabilité, etc.) et secteurs d’application (santé, éducation, immigration, etc.).

Une fois ces impacts identifiés, les outils proposent la mise en œuvre de stratégies pour réduire les risques jusqu’à un degré jugé acceptable, et ce, avant le déploiement du système d’IA. 

Le Québec et le Canada doivent se doter de tels outils, fiables et adaptés à la réalité de l’IA, pour guider la communauté de l’IA et mieux protéger les droits humains.

Tout d’abord, une IA bénéfique à l’humain (ce qui doit être l’objectif des percées prometteuses en IA) ne peut aller à l’encontre des droits fondamentaux comme le droit à la vie, à l’égalité ou à la liberté. Ces droits font partie de la colonne vertébrale de l’IA responsable.

Aucun droit n’est absolu et des arbitrages entre différents droits au sein de la société ainsi qu’entre les intérêts individuels et collectifs doivent parfois être faits. Apprendre à gérer les tensions qui existent entre le respect de ces droits – comme celles entre le respect du droit à la vie privée et celui du droit à la vie, notamment dans le secteur de la santé – fait partie du défi que nous devons relever.

Les droits humains n’ont peut-être pas un effet aussi séduisant que l’innovation technologique, mais ils constituent l’une de nos boussoles les plus chèrement acquises et qui reste malheureusement menacée dans nos sociétés.