Mila > AIR

AIR


Le domaine de l’intelligence artificielle (IA) évolue rapidement, et les responsables politiques du monde entier élaborent régulièrement des lignes directrices, des règles et des réglementations pour faire face à cette évolution. 

Toutefois, il peut être difficile de s’y retrouver parmi les changements réglementaires. Nous nous sommes entretenus avec des avocat·e·s, des juges, des responsables politiques et des universitaires qui nous ont fait part des difficultés à obtenir de l’information consolidée et à jour sur l’évolution des politiques à l’échelle mondiale. Tous·tes ont souligné la nécessité d’un outil qui pourrait aider à trouver et à sélectionner les changements de politiques de l’IA les plus pertinents sans avoir à gérer les verrous d’accès payant. De plus, de l’aide lors de la phase de recherche initiale étaient souhaitée, notamment en obtenant des commentaires sur les pistes de recherche et les idées, un peu comme un compagnon de remue-méninges.

Bien que l’Observatoire OCDE des politiques de l’IA soit considéré comme une ressource de confiance, les utilisateur·trice·s potentiels souhaitaient un accès plus efficace à l’information, qui pourrait les aider à entreprendre la recherche de politiques. 

Mila s’est donc associé à l’Observatoire OCDE des politiques de l’IA pour relever les défis auxquels sont confrontées les personnes qui travaillent sur les politiques en matière d’IA et dans les domaines connexes. Cette collaboration est l’occasion de développer AIR (AI Recap), un outil de questions et réponses (Q&R) offrant un accès facile à de l’information de haute qualité sur les politiques en matière d’IA du monde entier, ainsi qu’à des analyses pertinentes produites par les spécialistes de l’OCDE.

L’objectif


Alors que les outils existants utilisent des recherches par mots-clés pour trouver et récupérer les documents de politique pertinents, AIR utilise une technologie de pointe de l’intelligence artificielle (notamment les grands modèles de langage) pour améliorer le processus de recherche et de récupération. AIR comprend la nature et le contexte de la question et génère des réponses concises en langage naturel; l’information fournie est plus accessible que si l’utilisateur·trice avait cherché dans une base de données complète de documents de politique.
 

Le type de renseignements que AIR peut fournir à l’utilisateur·trice est limité à l’information contenue dans l’ensemble de données de l’Observatoire OCDE des politiques de l’IA. Cela nous permet de garantir des réponses pertinentes et de haute qualité.

Tester la version bêta

AIR utilise Buster, une bibliothèque Python open source. Une fois finalisé, AIR aidera les décideurs politiques et toute personne intéressée par les politiques en matière d’IA à accéder à des informations fiables.

Tester la version bêta de AIR sur Hugging Face

Membres de l’équipe 


Les travaux AIR ont été menés par l’équipe d’IA4Humanity à Mila : Hadrien Bertrand, Allison Cohen, Jeremy Pinto, Benjamin Prud’homme et Jerome Solis, en collaboration avec l’équipe de l’OCDE
: Luis Aranda, Fabio Curipaixao et Jan Sturm.

Hadrien Bertrand
Scientifique en recherche appliquée sénior, Équipe de recherche appliquée, Mila

Allison Cohen
Responsable des projets d’IA appliquée, Mila

Jeremy Pinto
Scientifique en recherche appliquée sénior, Équipe de recherche appliquée, Mila

Benjamin Prud’homme
Vice-Président, Politiques publiques, Société et Affaires mondiales, Mila

Jérôme Solis
Directeur, Projets d’IA appliquée, IA pour l’humanité, Mila

Luis Aranda, OCDE

Fabio Curipaixao, OCDE

Jan Sturm, OCDE

Foire aux questions


Apprenez-en davantage sur cette bibliothèque Python open-source,
Buster.

Qu'est-ce que Buster ?

Buster est une bibliothèque Python open-source développée par l'équipe de recherche appliquée en apprentissage automatique de Mila. Elle propose des outils basés sur de grands modèles de langage, tels que ChatGPT, en leur donnant une orientation plus spécifique de récupérer des informations uniquement depuis des sources fiables. Buster peut être utilisé comme un chatbot pour répondre à des questions sur n'importe quel sujet, en se basant sur des documents préalablement sélectionnés par une organisation spécifique ou un individu.

Quel problème Buster cherche-t-il à résoudre ?

Parcourir des centaines de pages de documents juridiques, politiques ou techniques est très prenant, et les recherches traditionnelles basées sur des mots-clés peuvent donner des résultats insatisfaisants. Les outils basés sur de grands modèles de langage comme ChatGPT peuvent répondre à un large éventail de questions, mais ne sont pas suffisamment précis pour des tâches spécialisées. Buster vise à combler ce fossé en facilitant l'accès à de grandes quantités de données tout en limitant - mais pas en éliminant complètement - les écueils courants de ChatGPT, tels que les hallucinations ou les réponses inventées.

Comment fonctionne Buster ?

Tout d'abord, une base de connaissances doit être établie en divisant les documents en sections sémantiquement significatives qui peuvent ensuite être "alimentés" à Buster. Lorsqu'un utilisateur soumet une question dans la boîte de discussion, l'outil analyse ce jeu de données prédéterminé, sélectionne les morceaux de données les plus pertinents et les envoie à ChatGPT, qui récupère et synthétise les données en utilisant un langage naturel.

Quels sont les avantages de l'utilisation de Buster ?

Buster permet aux utilisateurs de gagner du temps en accédant facilement à des informations à partir de grandes bases de données en utilisant un langage naturel. Son champ d'action est limité, ce qui réduit les chances d'obtenir une réponse non pertinente, car l'utilisateur sait exactement quel jeu de données a été utilisé pour fournir une sortie. Enfin, Buster indique toujours la source qu'il a utilisée pour élaborer ses réponses, offrant un degré de transparence dans ses réponses.

Quelles sont les limitations de Buster ?

Buster est limité aux informations contenues dans la base de connaissances et ne peut pas répondre à des questions en dehors de son champ d'application. Buster n'est pas conçu pour traiter des requêtes excessivement larges, telles que la rédaction d'un résumé complet d'un document, ou pour effectuer des comparaisons entre différents documents. Enfin, tout comme ChatGPT, il n'y a aucune garantie que Buster ne fournira pas de réponses inventées, il est donc recommandé aux utilisateurs de toujours vérifier l'exactitude des réponses en consultant la source fournie.

Buster est également construit sur une infrastructure existante (il n'est pas une solution autonome), il héritera donc des limitations de ces systèmes (c'est-à-dire les hallucinations, les fonctionnalités de sécurité, les changements de performance du modèle avec le temps).