L’éducation est-elle la base de la maîtrise de l’intelligence artificielle ?
Depuis l'émergence mondiale de ChatGPT en 2022, l'IA redéfinit le rôle du travail, des compétences et de l'éthique dans tous les domaines. Face aux formidables opportunités et aux défis majeurs, l'éducation est essentielle pour que chacun ne se laisse pas emporter par le tourbillon de l'automatisation, mais sache utiliser l'IA avec sagesse, humanité et responsabilité.

Progression technologique et réchauffement climatique
En novembre 2022, ChatGPT a été lancé et a atteint 100 millions d'utilisateurs en quelques semaines seulement, un taux de propagation record jamais observé dans l'histoire d'Internet. Fin 2023, selon l'Observatoire des incidents liés à l'IA de l'OCDE, le nombre d'incidents liés à l'IA signalés par la presse internationale avait explosé de 1 278 % par rapport à l'année précédente, coïncidant avec l'explosion des modèles génératifs. De la création de contenu à la programmation, en passant par les soins de santé et l'administration publique, l'IA redéfinit discrètement le rôle de l'humain : les tâches répétitives sont progressivement automatisées, tandis que les compétences de supervision, de créativité et de collaboration avec les machines sont de plus en plus requises.
Cette explosion a contraint les organisations internationales à définir d'urgence les « règles du jeu ». Le 7 septembre 2023, l'UNESCO a publié les premières lignes directrices mondiales sur l'IA générative dans l'éducation, avec un message clair : la technologie doit s'inscrire dans un cadre humaniste et respectueux des droits humains, au lieu de rechercher la performance pure. Moins de six mois plus tard, le 13 mars 2024, le Parlement européen a officiellement adopté l'AI Act, première loi juridiquement contraignante au monde sur l'intelligence artificielle, classant l'éducation, la santé et le recrutement comme « à haut risque » et exigeant que tous les systèmes soient transparents et supervisés par des humains à chaque étape. Ces chronologies montrent que ne pas savoir utiliser l'IA est devenu un nouveau handicap pour être compétitif à l'ère numérique.
Quand la société rencontre l'IA : 3 grands problèmes
Malgré son potentiel indéniable, l'IA présente de nombreux défis interdépendants. Premièrement, le déficit de compétences et de culture numérique a conduit beaucoup à considérer l'IA comme une « boîte noire magique ». Sans la capacité de poser les bonnes questions ou de vérifier les sources de données, les utilisateurs sont plus susceptibles d'accepter les résultats générés par les machines, ce qui contribue à la propagation des biais.
Deuxièmement, la vaste base de données consommée par l'IA est chargée de biais historiques. Sans capacité éthique et juridique, nous pourrions être confrontés à des violations du droit d'auteur, à des atteintes à la vie privée ou à des manipulations émotionnelles à grande échelle – des risques contre lesquels la loi sur l'IA met en garde.
Enfin, la structure des emplois évolue. L'IA élimine de nombreux rôles répétitifs et crée de nouveaux métiers, comme ceux d'ingénieurs de réponse, de testeurs de modèles et de contrôleurs d'éthique. Le déficit de compétences va se creuser si les systèmes éducatifs ne s'adaptent pas rapidement.
L'éducation est la « clé »
Le point commun entre ces trois programmes est la nécessité d'une maîtrise universelle de l'IA. L'UNESCO recommande que chaque programme scolaire, du primaire à l'université, enseigne aux apprenants « comment l'IA apprend », qu'ils soient conscients des droits relatifs aux données et qu'ils utilisent les outils de manière sûre et éthique. L'OCDE a récemment annoncé son intention d'inclure une évaluation « Médias et IA » (MAIL) dans l'enquête PISA 2029 ; cela promet de créer une référence mondiale pour la maîtrise de l'IA chez les jeunes de 15 ans.
Dans ce contexte, l'éducation joue un rôle à trois niveaux. Fondamentalement, la mission de l'école est de passer de « l'apprentissage de l'informatique » à « l'apprentissage de la collaboration avec l'IA » : comprendre les mécanismes de l'apprentissage automatique, savoir définir correctement les invites et savoir évaluer et éditer les résultats.
Au niveau avancé, le programme doit intégrer des scénarios éthiques du monde réel – des chatbots de rédaction d’essais aux deepfakes – afin que les apprenants puissent s’entraîner à analyser et à prendre des décisions responsables.
Au niveau de la vie, un réseau de cours de courte durée et de micro-accréditations aide les travailleurs expérimentés à mettre à jour en permanence leurs compétences, en particulier dans les compétences difficiles à automatiser telles que la créativité, la pensée critique et le leadership d'équipe multiculturelle.
Bien sûr, la réforme du contenu ne suffit pas. Les enseignants doivent être outillés pour devenir des « architectes de l'apprentissage », en utilisant l'IA comme assistant pédagogique tout en préservant leur souveraineté pédagogique. Parallèlement, les bases de données d'apprentissage en ligne, qui enregistrent les interactions des étudiants avec l'IA, doivent respecter le principe du « droit à l'explication » énoncé dans la loi sur l'IA, garantissant ainsi transparence et confidentialité.

De la politique à la salle de classe : modèles d'action
Au niveau national, une stratégie de compétences en IA pour 2030 pourrait fixer des objectifs : que 80 % de la population active suive une formation de base en IA ; que 100 % des enseignants aient accès à des ressources pédagogiques conformes aux normes de l’UNESCO ; et que tous les établissements d’enseignement disposent d’un programme obligatoire d’éthique de l’IA. Ce cadre comprendrait un cadre juridique pour les tests supervisés des nouvelles technologies, ainsi qu’un fonds d’innovation pour l’éducation en IA afin d’aider les écoles et les entreprises à collaborer sur des solutions.
Au niveau local, les centres communautaires d'apprentissage en IA fourniront du matériel, des services de connectivité, du mentorat et des programmes de conseil aux startups. Ce modèle est particulièrement utile dans les zones rurales où le risque de « zones blanches en matière de compétences numériques » est le plus élevé.
Au niveau de l'entreprise, le modèle « double mentor » – associant un mentor humain à un assistant IA – aide les employés à raccourcir le cycle de montée en compétences. Parallèlement, des « laboratoires sandbox » permettent de tester l'IA sur des processus réels, mais sous une supervision stricte, transformant les données internes en ressources partagées pour l'apprentissage.
L'intersection de ces trois niveaux est interdisciplinaire. Lorsque les étudiants en informatique sont amenés à collaborer avec des collègues en droit, en psychologie et en design sur leurs projets de fin d'études, ils apprennent non seulement à écrire des algorithmes, mais aussi à évaluer l'impact social, en tenant compte de l'inclusion et de la durabilité.
L'intelligence artificielle quitte le domaine des « technologies du futur » pour devenir l'infrastructure par défaut de la vie. À mesure que cette infrastructure imprègne tous les aspects de la société, nos choix se réduisent : prendre le contrôle ou être balayés. L'éducation, avec sa fonction de transmission du savoir, de stimulation de l'esprit critique et de développement des valeurs humaines, constitue le double fondement qui garantit que les humains ne se perdent pas dans le tourbillon de l'automatisation.
Aujourd'hui, l'éducation permet aux individus de comprendre, de questionner et de réguler l'IA. Demain, elle déterminera la qualité des « collègues virtuels » que la société créera : un catalyseur créatif ou une force incontrôlée. Quelle que soit la puissance de l'IA, le chemin vers son exploitation commence en classe, où nous apprenons à nous demander « pourquoi » avant de nous demander « comment ».