Fellowship Mila en politiques de l’IA

Mobiliser l’expertise en intelligence artificielle (IA) pour générer un impact politique.

Logo de la bourse Mila AI Policy Fellowship avec l'image d'une main collant des notes sur un tableau.

Aperçu

L'IA transforme rapidement nos sociétés. Pourtant, un écart important subsiste entre la recherche et les politiques publiques, les décideur·euse·s ayant souvent du mal à traiter la masse d'informations nécessaires pour prendre des décisions répondant aux besoins de la société. Le Fellowship Mila en politiques de l'IA comble cet écart en reliant recherche et politiques publiques grâce à une approche sociotechnique.

Ce programme de six mois réunit des expert·e·s du monde entier — notamment des scientifiques en IA, des chercheur·euse·s en sciences sociales et humaines, et des spécialistes des politiques publiques — pour collaborer sur des défis concrets. Par le biais d'événements publics et de notes politiques, les fellows traduisent la recherche en orientations pratiques et fondées sur des données probantes à l'intention des décideur·euse·s locaux et mondiaux.

Chaque année, une nouvelle cohorte travaille avec les conseillers·ères en IA de Mila et le Secrétariat des politiques d'IA de Mila pour développer des recommandations politiques répondant aux défis et opportunités sociétaux liés au développement, au déploiement et à la gouvernance de l'IA, dans le cadre de thématiques annuelles.

Domaines thématiques

Les impacts sociétaux de l'IA sont multidimensionnels, et le Fellowship Mila en politiques de l'IA reflète cette réalité. Des recommandations politiques efficaces tiendront compte des interactions entre la conception technique, l'infrastructure, les dynamiques sociales et les incitations.

Le Fellowship Mila en politiques de l'IA invite des contributions dans le cadre de thématiques annuelles. Les priorités transversales comprennent l'intégration de perspectives de sécurité pour l'atténuation des risques et la prévention des préjudices, l'adoption d'approches responsables et éthiques du déploiement de l'IA, et la promotion de l'IA au bénéfice de tous·tes. L'appel à candidatures 2026-2027 invite des propositions dans les domaines suivants : IA et intégrité de l'information et gouvernance démocratique, santé et bien-être, souveraineté et sécurité, IA autochtone, éducation, et climat et monde naturel.

IA, intégrité de l'information et gouvernance démocratique

L'intégrité de l'information — la capacité d'accéder à la connaissance, de la vérifier et de lui faire confiance — est une pierre angulaire de la prise de décision démocratique, de l'activité économique et du progrès scientifique. La prolifération rapide des grands modèles génératifs et des systèmes d'IA agentiques transforme fondamentalement nos écosystèmes d'information. Ce phénomène offre des occasions sans précédent pour la création de connaissances, tout en introduisant des risques systémiques de manipulation à grande échelle, de désinformation automatisée et d'érosion de la confiance institutionnelle. Ce volet thématique se concentre sur l'élaboration de stratégies concrètes pour faire avancer des écosystèmes de connaissance dignes de confiance et préserver le contrat social dans les environnements où l'IA est omniprésente. Les propositions s'aligneront sur les principes de la gouvernance démocratique, notamment en ce qui concerne la qualité des interactions civiques et les occasions de participation politique, parallèlement à la tenue d'élections démocratiques équitables et intègres, l'établissement de la responsabilité institutionnelle et le respect de l'état de droit, ainsi que la promotion des droits de la personne et de l'égalité réelle. Ces enjeux de politique publique exigent une compréhension claire des capacités et des limites intégrées dans la conception technique des modèles, des plateformes et des infrastructures numériques.

Exemples de sujets :

  • La confiance et le discours public à l'ère des médias synthétiques : Élaboration de normes politiques pour le filigranage, la provenance et la vérification dans les modèles multimodaux, afin de préserver les standards éditoriaux et les médias d'intérêt public.
  • L'intégrité électorale et les systèmes agentiques : Prise en charge des défis politiques posés par l'utilisation de l'IA générative dans les campagnes électorales, notamment la persuasion ciblée, la manipulation coordonnée et l'essor des robots de désinformation autonomes.
  • L'amplification algorithmique et les flux d'information : Examen des approches réglementaires relatives aux systèmes de recommandation et à leur rôle dans la formation du discours public, en atténuant les modèles fondés sur l'« engagement à tout prix ».
  • La responsabilité institutionnelle et la responsabilité contextuelle : Traçage de voies vers des cadres juridiques et de responsabilisation efficaces qui tiennent compte de l'opacité de l'IA, des comportements autonomes et de la prévisibilité limitée des systèmes en constante adaptation.
  • Les politiques en matière d'IA centrées sur les droits : Révision des cadres juridiques pour assurer la protection de la liberté d'expression, de la vie privée et du droit à l'information (accès aux données) au sein des systèmes pilotés par l'IA.
  • L'information économique et l'intégrité financière : Prise en charge de la fiabilité des informations sur les entreprises et les marchés face à la fraude financière, à la manipulation des marchés et à la prise de décision économique automatisée propulsées par l'IA.
  • Les alternatives démocratiques à l'IA centralisée : Exploration de modèles d'« IA d'intérêt public » et de cadres d'IA constitutionnels qui privilégient la contribution collective et l'alignement démocratique plutôt que la propriété et le contrôle privés centralisés.
  • La communication en matière de santé et de sciences : Formulation de réponses politiques à la désinformation générée par l'IA à grande échelle dans la communication sur la santé et les sciences, y compris la crédibilité, l'accessibilité et la gouvernance d'une connaissance publique fiable.
IA, santé et bien-être

À mesure que les systèmes d'IA s'intègrent profondément dans nos vies, agissant parfois comme principal vecteur de prestation de soins de santé, d'espaces sociaux numériques et d'environnements professionnels, ils présentent des occasions uniques d'innovation tout en posant des risques importants pour la santé mentale et le bien-être psychosocial. Ce volet thématique explore l'interrelation profonde entre les systèmes d'IA et les dimensions physiques, mentales et sociales de la santé humaine, en mettant l'accent sur la protection des droits et du bien-être des jeunes et des travailleur·euse·s. En préservant le développement cognitif et social des jeunes générations tout en veillant à ce que le milieu de travail contemporain reste adapté aux besoins humains, ce volet cherche à garantir que l'adoption technologique favorise un bien-être holistique, la sécurité psychologique et une croissance humaine significative.

Exemples de sujets :

  • La santé mentale et l'interaction humain-IA : Conception d'interventions pour prévenir les préjudices et promouvoir la sécurité psychologique dans les environnements où la communication ou la prise de décision assistée par l'IA est courante.
  • Le développement des jeunes et les droits des enfants : Prise en compte des impacts cognitifs et développementaux à long terme des interactions humain-IA sur les jeunes générations et établissement de protections pour les droits numériques des enfants.
  • L'IA biologiquement réactive et responsable (politique) : Exploration des normes réglementaires ou des obligations qui reflètent les impacts comportementaux et cognitifs intentionnels de l'interaction humain-IA (engagement, dépendance, «déchargement» cognitif).
  • La modernisation des normes de santé et de sécurité au travail : Révision des politiques existantes pour remédier aux préjudices psychosociaux qui accompagnent l'intégration de l'IA dans les milieux de travail, tels que les changements dans le contrôle de l'emploi, l'érosion du soutien social et les effets sur la satisfaction au travail.
  • La participation institutionnelle et la voix des travailleur·euse·s : Élaboration de propositions politiques permettant aux syndicats et aux représentant·e·s des travailleur·euse·s de participer activement à la conception, à l'adoption et à la gouvernance de l'IA en milieu de travail. Ces propositions peuvent également s'appliquer aux professionnel·le·s de la santé et de la santé mentale qui utilisent l'IA pour la prestation de soins.
Souveraineté et sécurité en matière d'IA

Au milieu des bouleversements géopolitiques mondiaux, la centralité de la souveraineté et de la sécurité en matière d'IA est devenue un enjeu dans les forums nationaux et internationaux. Ce volet thématique aborde les complexités des récits et des définitions concurrentes de la souveraineté en matière d'IA, ainsi que les implications sécuritaires réelles inhérentes à la convergence de l'innovation mondiale et des infrastructures essentielles. À mesure que l'intégration de l'IA prend de l'ampleur dans les secteurs public et privé, de nouveaux vecteurs de risque émergent — des vulnérabilités dans les chaînes d'approvisionnement en IA aux problèmes d'interopérabilité, en passant par la cybercriminalité à grande échelle. Ce volet cherche à mettre en lumière ces enjeux et à trouver des solutions pour préserver l'intégrité et la gérance des données et des ressources tout en renforçant la résilience systémique dans un monde de plus en plus numérique et interconnecté.

Exemples de sujets :

  • La sécurité de la recherche et l'intégrité des chaînes d'approvisionnement : Élaboration d'orientations pour un développement sécuritaire de l'IA tenant compte de l'origine du code source et de la sécurité des intrants clés de la chaîne d'approvisionnement.
  • La cyber-résilience et les infrastructures essentielles : Faire en sorte que l'IA contribue à la sécurité des services essentiels plutôt que d'introduire de nouvelles vulnérabilités, notamment par le biais de l'approvisionnement.
  • Les communs de données et les infrastructures partagées : Exploration de mécanismes permettant aux nations de mettre en commun leurs ressources en matière de calcul, de talents et de données pour remettre en question les modèles de propriété centralisés.
  • La souveraineté énergétique et en matière de calcul : Prise en charge de l'accès inégal et volatile à l'énergie et à la puissance de calcul qui sous-tend les avancées en IA.
  • L'interopérabilité et la reconnaissance mutuelle : Identification de mécanismes d'assurance interjuridictionnels favorisant une collaboration internationale significative dans les domaines universitaire, de la R&D et du commerce.
  • La souveraineté et la gérance des données : Équilibre entre les priorités nationales à travers de multiples juridictions et les chaînes d'approvisionnement de l'innovation mondiale, en garantissant l'intégrité de la propriété et de la gérance des données.
IA autochtone

L'IA autochtone place la souveraineté et l'autodétermination autochtones au centre de l'intersection entre l'intelligence artificielle et la capacité des communautés à gérer et à faire progresser leurs propres cultures, langues et systèmes de connaissances. Alors que l'IA remodèle de plus en plus la gouvernance mondiale, le développement économique et l'infrastructure numérique, il est urgent de veiller à ce que les peuples autochtones — dans le contexte canadien et au-delà — soient des leaders et des décideurs en matière de politique d'IA. Ce volet thématique donne la priorité à l'élaboration de cadres politiques qui vont au-delà de la simple atténuation des préjudices pour concrétiser la souveraineté et la gérance autochtones des données.

Sujets suggérés :

  • La souveraineté et la gouvernance autochtones des données : Élaboration de mécanismes politiques pour la propriété, le contrôle et la gérance des données relatives aux peuples, aux terres et aux ressources autochtones dans le cadre des stratégies nationales et internationales en matière d'IA.
  • La confidentialité collective et le consentement dans l'apprentissage automatique : Prise en compte des limites des lois individualistes sur la vie privée par la conception de cadres pour la confidentialité collective des données et le consentement communautaire dans l'entraînement de modèles à grande échelle.
  • L'IA au service de la revitalisation linguistique et culturelle : Proposition de lignes directrices et de normes techniques pour l'utilisation de l'IA dans la préservation des langues autochtones, tout en protégeant contre l'extraction ou la commercialisation non autorisées des savoirs traditionnels.
  • L'adoption éthique de l'IA et l'atténuation des impacts : Développement d'outils d'évaluation d'impact dirigés par les communautés pour évaluer les effets sociotechniques du déploiement de l'IA dans les territoires et les structures de gouvernance autochtones.
  • L'infrastructure et l'inclusion économique : Voies politiques pour renforcer le leadership autochtone dans l'économie numérique par des investissements dans l'infrastructure numérique appartenant aux communautés, l'entrepreneuriat et le développement de talents spécialisés.
  • Les systèmes de connaissances autochtones en matière d'IA : Intégration des épistémologies autochtones dans la conception des protocoles d'éthique et de sécurité de l'IA pour favoriser un paysage mondial de l'IA plus diversifié et plus représentatif.
IA, éducation et transformation du marché du travail

Alors que l'IA permet un apprentissage hyperpersonnalisé et nécessite une reconversion professionnelle à grande échelle, les orientations politiques doivent évoluer pour gérer les transitions systémiques tout en prévenant les préjudices et en garantissant un accès inclusif. Ce volet thématique aborde le rôle transformateur de l'IA dans les environnements d'éducation et d'apprentissage, ainsi que ses profondes répercussions sur la littératie, l'équité et l'avenir de la main-d'œuvre mondiale. L'accent est mis sur la promotion d'une gestion du changement bénéfique et d'une transformation organisationnelle — de l'enseignement primaire au perfectionnement professionnel — pour soutenir l'apprentissage tout au long de la vie. Ce volet accorde la priorité à la protection des droits des étudiant·e·s et des enseignant·e·s en matière de données, tout en explorant comment l'IA peut être mise à profit pour améliorer le co-raisonnement humain-IA et les compétences épistémiques, en veillant à ce qu'aucune communauté ne soit laissée pour compte dans la transition vers une économie propulsée par l'IA.

Sujets suggérés :

  • L'équité et la prévention des préjudices dans l'apprentissage personnalisé : Conception de cadres de gouvernance pour garantir que les outils éducatifs propulsés par l'IA n'aggravent pas les inégalités socioéconomiques existantes ni n'introduisent de résultats pédagogiques biaisés.
  • La vie privée et la protection des données en éducation : Établissement de normes rigoureuses pour la collecte, l'utilisation et la protection à long terme des données des étudiant·e·s et des enseignant·e·s au sein des plateformes d'apprentissage activées par l'IA.
  • La reconversion de la main-d'œuvre et les transitions professionnelles : Élaboration d'orientations politiques pour des interventions visant à faire face aux déplacements et à assurer la préparation au marché du travail par des voies inclusives de reconversion et de perfectionnement professionnel à grande échelle.
  • La littératie en matière d'IA : Proposition de feuilles de route pour améliorer et favoriser des compétences critiques en littératie de l'IA aux différents niveaux d'enseignement, dans l'enseignement supérieur et dans l'apprentissage continu.
  • La voix des travailleur·euse·s dans la technologie éducative : Garantir que les enseignant·e·s, les syndicats et les représentant·e·s des étudiant·e·s sont des participant·e·s actif·ve·s dans la conception et l'adoption de systèmes d'IA dans les écoles et les milieux de travail.
  • Le co-raisonnement humain-IA et les compétences épistémiques : Exploration des soutiens politiques aux changements pédagogiques qui mettent l'accent sur la pensée critique, la littératie médiatique et la résilience cognitive à l'ère de la production automatisée des connaissances.
  • La participation institutionnelle inclusive : Élaboration de stratégies de transformation systémique qui habilitent les communautés marginalisées à prendre la tête de l'adoption d'une IA sécuritaire et responsable au sein des établissements d'enseignement.
IA, climat et le monde naturel

L'IA offre de puissants outils pour l'action climatique, mais elle a elle-même une empreinte environnementale. Ce volet thématique se concentre sur les solutions politiques à l'intersection de l'IA, du climat et du monde naturel. Il englobe des initiatives politiques visant la gestion de l'empreinte environnementale propre à l'IA, ainsi que la promotion d'applications à fort impact qui mettent l'IA au service de la protection de l'environnement, de l'adaptation au changement climatique et de l'atténuation des catastrophes. Les propositions peuvent également formuler des recommandations pour des utilisations de l'IA favorisant l'efficacité, l'innovation et la gérance dans les secteurs des ressources naturelles, notamment la foresterie, les mines, l'agriculture, les pêches, la gestion de l'eau et les systèmes énergétiques.

Exemples de sujets :

  • L'empreinte environnementale et les déchets électroniques : Normes de transparence pour la consommation d'énergie, d'eau et de matériaux de l'IA, ainsi que des lignes directrices de gestion visant à garantir des cycles de vie durables du matériel informatique (approvisionnement, économie circulaire, pratiques d'élimination, etc.).
  • L'IA adaptée à l'usage («petite IA» par opposition à la «grande IA») : Orientations pour le choix de modèles à l'échelle appropriée et à l'efficacité optimale pour des tâches industrielles ou environnementales spécifiques.
  • La gestion des ressources naturelles : Identification de soutiens stratégiques pour les applications d'IA au service de la productivité et de la gestion dans les secteurs des mines, de la foresterie, de l'agriculture et des pêches.
  • L'adaptation au changement climatique et l'atténuation des catastrophes : Orientations pour le déploiement de l'IA afin d'activer les systèmes d'alerte précoce, la planification des interventions d'urgence et la résilience des infrastructures.
  • Les systèmes énergétiques : Déploiement de l'IA pour des réseaux électriques plus efficaces, l'équilibrage de la charge et des économies d'énergie plus larges.
  • La désinformation climatique : Interventions pour préserver le consensus scientifique dans les écosystèmes d'information assistés par l'IA contre la désinformation liée au climat.

Qui peut postuler ?

Le Fellowship Mila en politiques de l'IA accueille des chercheur·euse·s et des professionnel·le·s, juniors et seniors, issus des politiques publiques, des sciences sociales, des sciences humaines ou de domaines connexes, qui souhaitent mobiliser leur expertise en IA pour générer un impact politique. Conçu pour des personnes actives dans le milieu universitaire, la société civile, la fonction publique ou le secteur privé et disposant d'une expérience pertinente en politiques publiques, le Fellowship permet aux participant·e·s de mener un projet ciblé et délimité dans le temps en parallèle de leurs engagements existants, dans le but de relier recherche, pratique et impact politique.

Nous recherchons plus particulièrement des chercheur·euse·s et praticien·ne·s ayant :

  • Un diplôme de deuxième cycle (MSc, MA ou équivalent) dans un domaine pertinent tel que les politiques publiques, le droit, la sociologie, l'éducation, la psychologie, l'économie ou des disciplines connexes.
  • Au moins 3 ans d'expérience professionnelle ou académique supplémentaire.
  • Une expérience démontrée liée aux politiques publiques, soit par des fonctions en interface avec les processus décisionnels, soit par une expertise thématique.
  • Une proposition originale, pertinente et réalisable, démontrant une solide connaissance du sujet, un engagement envers sa réussite et le potentiel d'un impact politique concret.
  • Une expérience dans des initiatives interdisciplinaires ou multipartites est un atout.
Elyas Felfoul, fellow du programme Fellowship Mila en politiques de l'IA durant la Conférence sur les politiques de l'IA de Mila.
Elyas Felfoul, fellow du programme Fellowship Mila en politiques de l'IA durant la Conférence sur les politiques de l'IA de Mila.
Photo d'Isadora Letourneau sur scene devant un public
Isadora Hellegren, responsable du Fellowship et de la recherche en politiques de l'IA à Mila durant la Conférence sur les politiques de l'IA de Mila. Cet événement a réuni des chercheur·euse·s de premier plan, des décideur·euse·s publics, des représentant·e·s gouvernementaux et des expert·e·s de l’industrie afin d’aborder les enjeux et opportunités les plus critiques à l’intersection de l’intelligence artificielle et des politiques publiques.
Photo d'Helen Hayes sur scène qui présente son projet
La fellow Helen Hayes présente ses travaux sur les avenues politiques visant à concevoir des agents conversationnels plus sûrs afin de protéger les jeunes dans les écosystèmes d'IA.

Activités et livrables

Les fellows sont tenu·e·s de :
  • Consacrer 15 heures par semaine au Fellowship de septembre à février (en personne ou en ligne)
  • Participer aux rencontres mensuelles avec les conseillers·ères en IA de Mila et le Secrétariat des politiques d'IA de Mila (en personne ou en ligne)
  • Participer aux séances principales mensuelles de la cohorte (en ligne)
  • Participer aux volets en présentiel du Fellowship, notamment la Semaine des politiques de l'IA de Mila
  • Compléter l'ensemble des livrables avant la fin du Fellowship 

Livrables : 
  • Note politique – Rédiger une note politique de 6 à 8 pages sur le sujet choisi, avec des recommandations politiques claires et concrètes à l'intention d'un public cible spécifique ; peut être co-rédigée avec un·e conseiller·ère en IA de Mila ou des membres du Secrétariat des politiques d'IA de Mila
  • Table ronde politique – Organiser un événement d'expert·e·s (table ronde, atelier, etc.) à l'intention de parties prenantes externes au Québec, au Canada ou à l'international (en personne, en ligne ou en format hybride)
  • Conférence politique Mila – Présenter ses travaux à la communauté de recherche de Mila (format hybride)
  • Stratégie de diffusion – Soumettre un plan d'engagement et de diffusion de la note politique, de la table ronde ou d'autres activités
  • Résumé du rapport de recherche (interne) – Résumé de 10 pages couvrant le processus, la méthodologie, les résultats et les références clés

Comment postuler

Pour postuler au programme Fellowship en politiques de l'IA de Mila, vous devez :

  • Compléter votre application sur la plateforme Awards afin de pouvoir sauvegarder et modifier votre candidature avant de la soumettre
  • Vous assurer de remplir les critères d'admissibilité indiqués
  • Remplir le formulaire de candidature
  • Téléverser tous les documents requis

Pour que la candidature soit considérée comme complète, vous devez soumettre :

  • Un formulaire de candidature dûment rempli, conforme aux exigences du programme
  • Une proposition de projet (environ 2 pages, maximum 1 000 mots)
  • Un échantillon de publication ou d'écrit publié (p. ex., publication universitaire, note politique, billet de blogue ou autre écrit professionnel)
  • Les coordonnées d'une référence
  • Un CV

La proposition de projet doit :

  • Identifier clairement les objectifs principaux avec le ou les enjeux ou lacunes politiques spécifiques, le ou les publics cibles, et l'impact politique visé
  • S'aligner sur le domaine thématique choisi (ou un autre domaine pertinent) et les objectifs du Fellowship, en contribuant à des collaborations interdisciplinaires et à la traduction de la recherche en recommandations politiques concrètes
  • Démontrer une faisabilité réaliste dans le cadre de la période de six mois du programme
  • Décrire votre expérience ou expertise en matière de politiques publiques
  • Représenter un travail original et indépendant ; ne doit pas être généré en grande partie par l'IA

Vous avez jusqu'au 16 avril 2026 pour déposer vos candidature. 
Appliquez ici

Publications du Fellowship Mila en politiques de l'IA

Le Fellowship Mila en politiques de l'IA traduit une expertise approfondie en IA en travaux de politique publique rigoureux et orientés vers l’intérêt public. Découvrez les publications politiques issues de la première cohorte.

Explorer les publications

Foire aux questions

Quel type de projets recherchez-vous ?

Nous accueillons des propositions bien élaborées, approfondies, interdisciplinaires et pertinentes pour les politiques publiques, en accord avec l’un ou plusieurs des domaines thématiques et les objectifs du programme. La proposition doit :

  • Démontrer clairement ce que vous souhaitez accomplir durant le Fellowship Mila en politiques de l'IA. Cela inclut la description des objectifs clés du projet en lien avec des enjeux ou des lacunes politiques spécifiques, le public cible et l’impact politique visé ;

  • S’aligner sur le domaine thématique sélectionné ou démontrer clairement la pertinence d’autres sujets proposés ;

  • Démontrer comment vous comptez traduire la recherche en pistes d’action concrètes pour les politiques publiques ;

  • Présenter un travail original et indépendant ; les propositions massivement générées par IA rendront difficile l'évaluation de votre candidature ;

  • Démontrer la faisabilité du projet sur la période de six mois du programme.

Longueur maximale : 1 000 mots / l'équivalent de 2 pages (excluant les références, s’il y a lieu).

Puis-je proposer un projet hors des thèmes mentionnés ?

Oui. Les candidat·e·s peuvent soumettre des propositions en dehors des domaines prédéfinis, mais doivent expliquer clairement la pertinence pour les politiques de l'IA, la faisabilité et le potentiel d'impact.

Puis-je collaborer avec un·e chercheur·euse de Mila ou un partenaire externe ?

Oui. Le programme vous jumellera avec un conseiller ou une conseillère de Mila et un membre du secrétariat aux politiques. Toutefois, vous pouvez également proposer d'autres collaborateur·rice·s dans votre candidature, y compris des bailleurs de fonds et des partenaires institutionnels.

Comment les candidatures sont-elles sélectionnées ?

Les fellows seront sélectionné·e·s selon plusieurs critères. Ceux-ci incluent une évaluation approfondie de la qualité et du potentiel d'impact des propositions de projets soumises, l'alignement avec les domaines thématiques (ou la pertinence d'autres sujets), le jumelage avec les conseiller·ère·s et le secrétariat aux politiques, ainsi qu'une considération globale de la diversité de la cohorte. Les candidat·e·s présélectionnés pourraient être invité·e·s à une brève entrevue avant la décision finale.

Dans quelle langue se déroule le programme ?

Les langues de travail du Fellowship Mila en politiques de l'IA sont le français et l’anglais.

Dois-je être basé·e au Canada pour postuler ?

Non. Le programme est ouvert aux candidat·e·s du monde entier. Le programme est offert dans un format hybride, avec des activités en personne prévues à Montréal, Québec. Un soutien pour l'obtention d'un visa peut être offert aux fellows sélectionné·e·s qui en ont besoin.

Puis-je obtenir de l’aide pour le visa ?

Oui. Mila peut soutenir votre demande si vous êtes sélectionné·e et avez besoin d’un visa pour les activités en personne.

S'agit-il d'un programme rémunéré ?

Oui. La rémunération est basée sur un taux horaire pour un engagement de 15 heures par semaine. Le taux est variable à l'intérieur d'une échelle établie selon le profil et l'expérience.

Y a-t-il des frais pour postuler ou participer ?

Non. Il n’y a aucun frais de candidature. La participation est entièrement financée, y compris les frais de voyage et d’événement pour les volets en personne.

Les frais de déplacement et d’événements sont-ils couverts ?

Oui. Tous les frais de voyage et les coûts liés aux événements associés aux composantes obligatoires en personne du programme sont couverts par le programme.

Dois-je assister aux sessions en direct malgré les décalages horaires ?

Nous encourageons fortement la participation en direct aux sessions clés. Nous visons à accommoder les fellows dans différents fuseaux horaires et les sessions principales seront planifiées avec la contribution de la cohorte afin de maximiser l'inclusivité.

Vous avez des questions à propos du programme?