Mila lance le Studio de sécurité en intelligence artificielle avec une initiative de recherche phare visant à prévenir le suicide à l’ère des grands modèles de langage (LLMs)

Un jeune homme seul assis sur un banc, regardant son téléphone

Montréal, le 10 octobre 2025 — À l’occasion de la Journée mondiale de la santé mentale, Mila est fier d’annoncer le lancement du Studio de sécurité en intelligence artificielle ainsi que de sa première initiative visant à réduire les risques liés à la mauvaise utilisation des agents conversationnels (chatbots) par des personnes en détresse psychologique.

Ce projet se concentrera sur les enjeux de santé mentale associés à l’utilisation des agents conversationnels  par les jeunes, en développant des mécanismes de protection concrets pour détecter et bloquer les contenus nuisibles, notamment des filtres contre l’assistance au suicide.

L’objectif pour la prochaine année est de mettre en place des garde-fous en intelligence artificielle capables de détecter les interactions potentiellement dangereuses avec les agents conversationnels et de prévenir les réponses nuisibles, tout en redirigeant les utilisateurs vers des services publics d’aide en santé mentale appropriés.

« L’IA peut être un outil extraordinaire, mais sans mesures de protection adéquates, elle peut aussi causer du tort. Le Studio de sécurité en intelligence artificielle de Mila a été conçu pour protéger les utilisateurs et instaurer un climat de confiance autour de cette technologie puissante, afin d’en favoriser une adoption responsable. Pour élaborer une solution complète et efficace, cette initiative devra aller au-delà du domaine technique  en collaborant étroitement avec les milieux législatifs et de l’éducation, les médecins et d’autres secteurs clés, puisque la sécurité de l’IA représente autant un défi social et éthique que technologique », a déclaré Simona Gandrabur, responsable du Studio de sécurité en intelligence artificielle de Mila.

Accélérer l’adoption responsable d’une IA digne de confiance

Au cours des prochains mois, le Studio développera :

  • des filtres intelligents pour bloquer le contenu généré par l’IA incitant ou aidant à l’automutilation ou au suicide
  • des tests de fiabilité pour évaluer la sécurité et la robustesse des modèles d’IA conversationnelle et générative
  • des outils d’évaluation des risques psychologiques et éthiques, élaborés en collaboration avec des experts en santé mentale, en éducation et en sciences sociales
  • des cadres de conformité pour guider l’utilisation responsable de l’IA dans les secteurs public et privé

Trois grandes priorités orienteront les travaux du Studio de sécurité en intelligence artificielle :

  • Filtres indépendants : concevoir des mécanismes de contrôle indépendants et externes pour prévenir les interactions nuisibles avec les applications de grands modèles de langage
  • Évaluation multi-tours : créer des cadres rigoureux pour tester la sécurité des IA en contexte conversationnel et agentique
  • Alignement : mener des recherches visant à améliorer l’alignement des LLM sur les valeurs humaines

Le Studio s’engage à transformer la recherche académique en protections concrètes pour les jeunes, tout en favorisant un développement technologique pragmatique et une collaboration étroite entre les milieux éducatifs, technologiques et législatifs.

Ce projet est réalisé par Mila grâce à l’utilisation ciblée des fonds de l’Institut canadien pour une IA sécuritaire. Il représente une utilisation responsable et transparente des ressources publiques afin de renforcer la sécurité et la fiabilité des technologies d’intelligence artificielle, marquant une étape essentielle vers un écosystème durable de confiance au bénéfice des citoyens, des institutions et de l’économie canadienne.