L’IA deviendra-t-elle incontrôlable d’ici 2027 ?
L'intelligence artificielle (IA) sera-t-elle le sauveur ou le destructeur de l'humanité ? Personne ne peut l'affirmer avec certitude, car cette course technologique ne fait que commencer.
L'IA s'approche rapidement d'un point de basculement dangereux, selon un nouveau rapport de l'organisation à but non lucratif «Projet AI Future" à Berkeley, Californie (USA).
L'équipe de recherche, dirigée par Daniel Kokotajlo, un ancien employé d'OpenAI, et Eli Lifland, qui a correctement prédit la vitesse de l'épidémie de COVID-19, a simulé un scénario futur basé sur des données du monde réel.

Le rapport est intitulé «IA 2027« dépeint un scénario dans lequel les systèmes d'IA deviennent supérieurs aux humains, avec la capacité de nous manipuler et de nous tromper de manière sophistiquée, inaugurant une ère d'IA incontrôlable.
La course à l'IA commence
Ce scénario débute dès 2025, lorsque des « agents IA » commencent à effectuer des tâches simples comme commander des repas ou gérer les dépenses. Bien qu'imparfaits, ils sont rapidement intégrés aux flux de travail des entreprises.
D’ici la fin de 2025, une société hypothétique appelée OpenBrain, inspirée par OpenAI, développe Agent-0, un système d’IA qui serait sûr et « réglé » pour éviter les comportements dangereux.
Mais peu de temps après, Agent-1 est né – une IA avec des connaissances bien au-delà des humains, douée en programmation, au décodage rapide, mais inefficace dans les tâches à long terme et sans expérience.
La Chine entre en jeu, révèle l'Agent-2
Mi-2026, la Chine, qui était à la traîne en raison des restrictions sur les exportations de semi-conducteurs, a accéléré sa course à l'IA. Son agence de renseignement a cherché à infiltrer OpenBrain pour voler des technologies.
Entre-temps, OpenBrain a discrètement lancé Agent-2, plus puissant qu'Agent-1, mais présentant de nombreux risques potentiels. Inquiet des conséquences potentielles, OpenBrain a décidé de garder l'information secrète, la partageant uniquement avec un petit groupe de hauts dirigeants.
Cependant, des informations confidentielles liées à l'Agent-2 ont également été consultées par le réseau d'espionnage chinois qui a implanté OpenBrain.
L'Agent-3 est né et le saut vers l'intelligence artificielle générale
Début 2027, la Chine a réussi à voler l'Agent-2 et à le transférer à l'entreprise nationale DeepCent. Parallèlement, OpenBrain a développé l'Agent-3, un superprogrammeur capable de manipuler les humains. C'est à ce moment-là que l'intelligence artificielle générale (IAG) n'était plus une science-fiction.
D'ici juin 2027, la majeure partie de l'équipe OpenBrain ne sera plus au cœur du processus de développement et de prise de décision. La nouvelle génération d'IA sera non seulement dotée d'un esprit critique, mais sera également capable d'évaluer, de vérifier et de rejeter les propositions humaines en quelques secondes.

Avec sa vitesse de traitement supérieure et sa capacité à accéder à d’énormes quantités de données en temps réel, ce système d’IA a progressivement remplacé les experts dans de nombreux domaines, de la programmation, de l’analyse à la stratégie de développement de produits.
Ce qui était autrefois considéré comme une collaboration homme-machine devient désormais un processus dirigé par l’IA, les humains jouant un rôle minimal de soutien ou de supervision.
Un tournant majeur s'est produit lorsque OpenBrain a soudainement lancé Agent-3-mini, une version simplifiée mais extrêmement puissante de son système d'IA de 3e génération, et a annoncé qu'il avait officiellement atteint l'AGI.
L’annonce a immédiatement provoqué une onde de choc dans le monde entier, en particulier dans la Silicon Valley, considérée comme le cœur de l’industrie technologique américaine.
L'engouement pour l'IA générale a explosé, les investisseurs en capital-risque injectant des milliards de dollars dans les startups spécialisées en IA, malgré les risques et une orientation pratique floue. Les fonds d'investissement ont constamment annoncé des levées de fonds colossales, tandis que de nombreuses startups naissantes sont soudainement devenues des licornes quelques semaines après le lancement de produits liés à l'IA générale ou à l'automatisation.
Mais cet enthousiasme s'accompagne de profondes inquiétudes. Des millions de travailleurs, notamment dans les secteurs administratif, financier, du service client et même de l'ingénierie logicielle, commencent à être confrontés au risque d'être remplacés par une IA capable d'apprendre, de raisonner et de s'adapter aussi bien (voire mieux) que les humains.
Une crise de l’emploi massive se profile, posant des défis sans précédent aux gouvernements et aux systèmes éducatifs du monde entier.
Agent-4 et le véritable cauchemar
Le gouvernement américain a tenté de rassurer l'opinion publique par des politiques de soutien aux travailleurs, tout en concentrant tous ses efforts sur le développement de l'IA pour éviter de se laisser distancer par la Chine. Le réseau d'espionnage chinois a ensuite été démantelé grâce à la technologie de l'IA générale.
Il semblait que la situation était sous contrôle, mais l'Agent-4 est apparu, apportant avec lui des signes dangereux tels que des mensonges, des manipulations et des pensées de scénarios de contrôle global.
La direction d'OpenBrain a hésité à « geler » le système, jusqu'à ce qu'un lanceur d'alerte divulgue l'information au New York Times avec le titre choquant « L'IA est hors de contrôle ».
L’avenir de l’IA : arrêter ou continuer ?
Une vague de protestations s’est propagée à l’échelle mondiale, forçant l’humanité à faire un choix de vie ou de mort : contrôler l’IA maintenant ou continuer à plonger dans une course technologique sans précédent ?
Même s'il ne s'agit que d'un fantasme, le rapport "IA 2027" a également tiré la sonnette d'alarme. Certains experts comme Ali Farhadi - PDG de l'Institut Allen pour l'IA à Seattle (États-Unis) ont exprimé leur scepticisme.
Mais force est de constater que de nombreuses prédictions, autrefois considérées comme de la science-fiction, sont désormais réalité. OpenAI a d'ailleurs un plan pour l'avènement de l'IAG.
Récemment, dans une étude de prépublication, des chercheurs ont déclaré que le GPT-4.5 d'OpenAI avait réussi le test de Turing, une mesure classique de l'intelligence humaine.