De nombreux robots conversationnels d'IA sont conçus pour simuler le soin, l’empathie et la compagnie. À ce titre, ils ont commencé à occuper des rôles émotionnels et sociaux de plus en plus importants dans la vie des personnes, en particulier chez les jeunes. En raison de cette évolution, ainsi que d’un corpus de recherches en pleine expansion sur les impacts de l’utilisation prolongée et dépendante des robots conversationnels sur la santé mentale, leur déploiement non réglementé suscite des inquiétudes croissantes chez les éducateur·rice·s, les clinicien·ne·s et les jeunes eux-mêmes.
Coorganisé par le Mila AI Safety Studio et le Fellowship Mila en politiques de l'IA, cet événement réunit des expertises transversales issues de la technologie, de la santé mentale, de l’éducation et des politiques publiques afin d’aborder les risques posés par les robots conversationnels d’IA en tant que défi interconnecté. En tant qu’événement pré-conférence de la première Conférence sur les politiques de l’IA de Mila, À l’avant-garde des politiques de l’IA : vers des solutions basées sur les faits, la discussion se concentre sur la convergence entre la sécurité de l’IA, le bien-être des jeunes et la gouvernance : la manière dont les choix de conception influencent les résultats psychologiques, comment les connaissances éducatives et cliniques peuvent éclairer des garde-fous techniques, et comment le travail interdisciplinaire sur ces enjeux peut nourrir des réponses politiques proactives et porteuses de sens.
L’événement comprendra trois présentations d’expert·e·s couvrant quatre piliers interconnectés : la technologie, la santé mentale, l’éducation et les politiques publiques. Il sera suivi d’une table ronde modérée et d’une séance de questions-réponses avec le public afin de favoriser le dialogue entre les secteurs et les disciplines.
Les participantes et participants repartiront avec :
- une compréhension plus claire des risques émergents pour la santé mentale associés aux robots conversationnels d’IA et aux compagnons numériques ;
- des éclairages sur l’articulation entre les choix de conception, les mécanismes de sécurité et les interventions éducatives ;
- un vocabulaire commun pour discuter de l’IA, de l’empathie et des droits numériques des jeunes à travers les disciplines.