Repenser la littératie en IA : des compétences techniques à l'engagement critique

Photo d'un home de dos utilisant ChatGPT visible sur l'écran de son ordinateur

Au cours de la dernière décennie, le codage et la littératie numérique ont été largement promus comme des compétences essentielles pour prospérer dans une économie axée sur la technologie. Mais l'adoption rapide de l’intelligence artificielle (IA), en particulier de l'IA générative, change la donne. Dans un monde où les outils peuvent désormais générer du contenu, écrire du code et prendre des décisions, savoir utiliser les outils numériques est-il suffisant?

Les systèmes d'IA ne sont plus des instruments passifs. Ils produisent du contenu, offrent des recommandations et influencent les décisions et les comportements d'une manière souvent opaque pour les utilisateur·rice·s. Les données en sortie sont façonnées par des modèles largement invisibles, et leurs processus de raisonnement ne sont pas toujours transparents ou faciles à interpréter.

Alors que l'IA imprègne et façonne non seulement notre façon de travailler, mais aussi de vivre, la capacité à interagir de manière critique avec ces systèmes est essentielle, non seulement pour les utiliser efficacement, mais aussi pour préserver l'autonomie humaine. Les compétences techniques seules ne suffisent plus et la littératie en IA doit aller au-delà de la simple utilisation des outils. 

L'IA générative change la donne

L'IA générative est différente d'un simple outil comme une calculatrice : elle peut générer du contenu qui semble avoir été écrit par une personne. Elle rédige des réponses ou des essais avec confiance et fluidité, mimant souvent le raisonnement humain dans son ton et sa structure.

Ces caractéristiques ont des effets réels sur la façon dont les gens apprennent et résolvent des problèmes. Les premières recherches indiquent que les étudiant·e·s se reposant sur ChatGPT pour leurs travaux scolaires peuvent connaître un déclin de la pensée critique, un affaiblissement de l'indépendance en résolution de problèmes et, avec le temps, cela peut éroder leur capacité à réfléchir à des questions complexes sans assistance.

De plus, les grands modèles de langage (LLM) comme ChatGPT sont maintenant traités comme des sources d'information, malgré leur tendance connue à générer du contenu inexact ou fabriqué (ou « hallucinations »).

À mesure que les utilisateur·rice·s accordent plus de confiance à ces systèmes, ils et elles ont tendance à appliquer moins de rigueur aux données en sortie : les utilisateur·rice·s qui dépendent fortement de l'IA sont moins susceptibles de vérifier les résultats, même lorsque des erreurs sont apparentes. Cela a des implications au-delà de l'éducation : lors de la rédaction de textes juridiques, de l'examen d'informations médicales ou de la synthèse de nouvelles, une dépendance incontrôlée aux outils d'IA peut entraîner des erreurs ayant des conséquences réelles.

Nous devons reconsidérer ce qu'implique la littératie numérique à l'ère de l'IA générative et enseigner à la population comment utiliser les systèmes d'IA avec prudence. Nous devrions toujours vérifier les détails importants et connaître les capacités, les limites, les erreurs et les biais de la technologie afin d'en tirer en toute sécurité les bénéfices en matière de productivité.

Les systèmes d'IA générative ne sont plus de simples instruments : ils sont des producteurs actifs de connaissances et de contenu. Pour naviguer dans cette nouvelle réalité, nous devons élargir notre concept de littératie.

Une nouvelle définition de la littératie

La littératie en IA n'est donc pas seulement une question technique ou universitaire, c'est une question civique. Elle nous oblige à repenser qui est considéré·e comme « lettré·e » dans un monde médiatisé par l'IA, et quels types de connaissances nous priorisons en tant que société. Alors que l'IA générative continue de remodeler la communication, la prise de décision et la production de connaissances, la capacité à comprendre et à interroger ces systèmes n'est plus facultative.

Les structures éducatives devraient placer l'IA au centre de leur questionnement et l'utiliser comme un prisme à travers lequel cultiver la pensée critique et élargir la compréhension des élèves sur la façon dont de tels systèmes influencent le monde. Cette approche plus ambitieuse traite l'IA non pas simplement comme un outil, mais comme un système sociotechnique qui exige un examen minutieux, une réflexion et une réinterprétation imaginative de ce que l'éducation peut être.

Cette redéfinition donne à la littératie en IA un nouveau sens. Dans un monde de plus en plus façonné par des technologies qui imitent le comportement humain, comprendre l'IA devient inséparable de la compréhension du monde lui-même. La littératie en IA ne concerne donc pas seulement les compétences techniques : il s'agit de préparer les gens à être des citoyen·ne·s engagé·e·s, critiques et responsables à l'ère de l'IA.

Nous devons aller au-delà de la simple formation des élèves à s'adapter à l'automatisation. L'avenir de l'IA n'a pas besoin d'être un avenir où les machines imitent les humains : des voies plus sûres et plus utiles peuvent résider dans la construction de systèmes qui nous complètent plutôt que de nous imiter. La question est désormais : quel genre d'avenir voulons-nous, et comment l'éducation peut-elle contribuer à le construire?

 

Vous souhaitez en apprendre plus sur l'IA? Découvrez les programmes de développement professionnel à Mila :