Les avancées technologiques suivantes en matière d’intelligence artificielle pourraient menacer l’avenir de l’humanité.
(Baonghean.vn) - L'intelligence artificielle (IA) se développe à une vitesse vertigineuse. 2024 devrait être une année explosive, riche en avancées. Parmi elles, trois sont considérées comme les plus inquiétantes en raison de leur potentiel négatif.
Si 2023 a vu des avancées révolutionnaires dans le domaine de l’IA, ce n’était que le début de quelque chose de plus grand. 2024 devrait marquer le début de percées terrifiantes qui pourraient inclure l’intelligence artificielle générale (AGI), la prolifération de robots tueurs alimentés par l’IA et des deepfakes si réalistes qu’ils sont difficiles à distinguer.
L'IA existe depuis des décennies, mais 2023 marquera le début de son développement. ChatGPT d'OpenAI a rendu l'IA accessible et pratique au plus grand nombre. Mais l'histoire de l'IA est mouvementée, et la technologie actuelle repose sur des expériences passées ratées.

La plupart des innovations en IA visent à améliorer des domaines comme le diagnostic médical et la découverte scientifique. Par exemple, un modèle d'IA pourrait analyser une radiographie pour déterminer si vous présentez un risque élevé de cancer du poumon.
Durant la pandémie de COVID-19, les scientifiques ont également mis au point un algorithme capable de diagnostiquer le virus en écoutant les subtiles variations de la toux d'un patient. L'IA est également utilisée pour concevoir des expériences de physique quantique dépassant l'imagination humaine.
Cependant, toutes les avancées technologiques ne profitent pas à l'humanité. Voici les trois avancées les plus effrayantes en matière d'IA qui pourraient survenir en 2024 :
L’intelligence artificielle pourrait avoir des conséquences terrifiantes
L'intelligence artificielle générale (AGI) est une forme d'IA qui a la capacité d'être égale ou supérieure à celle des humains en termes d'intelligence, capable de penser, d'apprendre par elle-même, de résoudre des problèmes complexes et de s'adapter à de nouvelles situations.
Si l'IAG est développée avec succès, elle pourrait révolutionner de nombreux domaines, de l'économie à l'armée. Cependant, elle pourrait aussi avoir des conséquences désastreuses, comme le chômage de masse, des guerres de robots, voire l'extinction de l'humanité.
Pendant ce temps, Q* est le nom d'un nouveau modèle d'IA développé par la société américaine OpenAI, qui aurait le potentiel d'atteindre l'AGI.
Les informations sur le modèle Q* sont encore limitées, mais selon certaines sources, ce modèle est capable de résoudre des problèmes, de raisonner et de percevoir les problèmes bien mieux que les modèles d'IA actuels. De plus, Q* est entraîné sur un vaste ensemble de données, comprenant du texte, des images et du code. Cela lui permet d'apprendre et de s'adapter rapidement à de nouvelles situations.
Nous ne savons toujours pas avec certitude pourquoi le PDG d'OpenAI, Sam Altman, a été licencié puis réintégré fin 2023. Cependant, certaines informations internes suggèrent qu'il s'agit d'une technologie de pointe qui pourrait menacer l'avenir de l'humanité.
Selon Reuters, le système Q* d'OpenAI pourrait représenter une avancée majeure dans le domaine de l'IA générale. Bien que les informations sur ce mystérieux système soient encore limitées, si les rumeurs se confirment, Q* pourrait propulser les capacités de l'IA à un niveau supérieur.
L'IAG représente un point de bascule hypothétique, ou « singularité », où l'IA deviendra plus intelligente que l'humain. Les générations actuelles d'IA accusent encore un retard dans des domaines où l'humain excelle, comme le raisonnement contextuel et la véritable créativité. La plupart des contenus générés par l'IA ne font que régurgiter des données d'entraînement.
Mais les scientifiques affirment que l'IAG pourrait potentiellement surpasser les humains dans certaines tâches. Elle pourrait également être utilisée comme arme pour créer des agents pathogènes plus dangereux, lancer des cyberattaques à grande échelle ou procéder à des manipulations de masse.
La quête de l'AGI relève depuis longtemps de la science-fiction, et de nombreux scientifiques pensent que nous n'y parviendrons jamais. Mais franchir ce cap pour OpenAI serait certainement une surprise, mais ce n'est pas impossible.
Nous savons que Sam Altman a jeté les bases de l'AGI dans un article de blog décrivant l'approche d'OpenAI en février 2023. De plus, les experts ont commencé à prédire une percée imminente, notamment Jensen Huang, PDG du fabricant américain de processeurs Nvidia, qui a déclaré en novembre 2023 que l'AGI pourrait être réalisée dans les cinq prochaines années.
2024 sera-t-elle l'année de la percée pour l'IAG ? Seul l'avenir nous le dira.
Les robots tueurs alimentés par l'IA sont en hausse
Les gouvernements du monde entier utilisent de plus en plus l'IA comme arme de guerre. Le 22 novembre, le gouvernement américain a annoncé que 47 pays avaient approuvé une déclaration sur l'utilisation responsable de l'IA dans l'armée. Pourquoi une telle déclaration ? Parce qu'une utilisation « irresponsable » est une perspective inquiétante et effrayante. Par exemple, des drones dotés d'IA auraient traqué des soldats en Libye sans intervention humaine.
L'IA joue un rôle de plus en plus important dans le domaine militaire. Elle est capable de reconnaître des schémas, d'apprendre par elle-même, de formuler des prédictions ou des recommandations dans un contexte militaire, et la course aux armements de l'IA a déjà commencé. D'ici 2024, l'IA pourrait non seulement être utilisée dans les systèmes d'armes, mais aussi dans la logistique, l'aide à la décision, la recherche et le développement.
Par exemple, en 2022, l'IA a créé 40 000 nouvelles armes chimiques hypothétiques. Plusieurs branches de l'armée américaine ont commandé des drones capables d'identifier des cibles et de surveiller le champ de bataille mieux que les humains. Selon NPR (États-Unis), lors de la dernière guerre entre Israël et le Hamas, Israël a utilisé l'IA pour identifier des cibles au moins 50 fois plus vite que les humains.
Mais l'une des évolutions les plus inquiétantes concerne les systèmes d'armes létaux autonomes (SALA), ou robots tueurs. De nombreux scientifiques et technologues de renom ont mis en garde contre les dangers des robots tueurs, notamment le physicien théoricien Stephen Hawking en 2015 et le milliardaire Elon Musk en 2017, mais cette technologie n'est pas encore généralisée.
Bien que les robots tueurs ne soient pas encore à l’horizon, certains développements inquiétants suggèrent que 2024 pourrait être l’année de leur percée.
Pendant la guerre en Ukraine, la Russie a été accusée d'avoir déployé des drones Zala KYB-UAV capables d'identifier et d'attaquer automatiquement des cibles, selon un rapport du Bulletin of the Atomic Scientists.
Dans le même temps, selon l'Australian Financial Review, l'Australie développe également Ghost Shark, un système de sous-marin autonome, et se prépare à une production de masse.
Le niveau des dépenses consacrées à l'IA par les pays du monde entier est également révélateur. Selon Reuters, les dépenses chinoises en IA sont passées de 11,6 millions de dollars en 2010 à 141 millions de dollars en 2019. Cela s'explique en partie par la concurrence de la Chine avec les États-Unis dans la mise en œuvre des lois.
Ces exemples montrent que l'IA apporte des changements significatifs à la guerre. La course au développement de l'IA militaire est de plus en plus acharnée, obligeant de nombreux pays à envisager une utilisation responsable de l'IA afin d'éviter des conséquences imprévues.
Utiliser l'IA pour créer des vidéos deepfake incroyablement réalistes afin de manipuler les électeurs lors des élections
Deepfake est un type de technologie qui permet de transformer le visage, la voix et les gestes d'une personne dans une vidéo en ceux d'une autre personne, ce qui rend l'apparence et le son indiscernables de la réalité.
Dans un contexte électoral, ces deepfakes hyperréalistes pourraient être utilisés de plusieurs manières pour manipuler les électeurs, notamment :
Discréditer un candidat :Créez des vidéos deepfake de candidats faisant des déclarations mauvaises, racistes ou offensantes pour les discréditer aux yeux des électeurs.
Soutenez d’autres candidats :Créer des vidéos deepfake de célébrités ou de personnes influentes soutenant un candidat particulier, même si elles ne l'ont pas réellement fait.
Créer de fausses rumeurs :Créer des vidéos deepfake de candidats se livrant à des activités illégales ou inappropriées pour semer le doute et ruiner leur réputation.
Provoquer une perte de confiance dans les élections :Création de vidéos deepfake de fraude électorale pour saper la confiance du public dans l’exactitude des résultats des élections.
Le danger des vidéos deepfake incroyablement réalistes pour manipuler les électeurs lors des élections réside dans leur incroyable réalisme. Ces vidéos peuvent tromper les spectateurs en leur faisant croire qu'ils assistent à un événement réel, même s'il est entièrement mis en scène. Cela peut poser de graves problèmes pour la démocratie, car cela peut influencer la participation électorale et l'issue des élections.
Détecter et prévenir l'utilisation de deepfakes lors des élections constitue un défi majeur. La technologie de détection des deepfakes se développe, mais elle est loin d'être parfaite. Les pays commencent à promulguer des lois pour lutter contre leur utilisation abusive, mais leur efficacité reste incertaine.
Il serait alors quasiment impossible de distinguer le vrai du faux à l'œil nu. Si certains outils permettent de détecter les deepfakes, ils ne sont pas encore très répandus. Intel, par exemple, a développé un outil de détection des deepfakes en temps réel qui utilise l'IA pour analyser le flux sanguin. Cependant, selon la BBC, cet outil, baptisé FakeCatcher, a jusqu'à présent produit des résultats incohérents.
Le plus important est de sensibiliser le public à l'existence des deepfakes. Il est important que chacun sache que les vidéos qu'il voit ou entend sur les réseaux sociaux peuvent être fausses et qu'il soit prudent face aux informations qui lui semblent suspectes. En sensibilisant le public, nous pouvons espérer réduire l'impact des deepfakes sur les futures élections.