Des pirates informatiques utilisent ChatGPT pour créer des logiciels malveillants sophistiqués.
Récemment, OpenAI (USA), une entreprise leader dans la recherche en intelligence artificielle, a confirmé que des pirates informatiques exploitaient son modèle d'intelligence artificielle ChatGPT pour créer des logiciels malveillants et mener des cyberattaques.
Un rapport récent a révélé la réalité alarmante de l'exploitation de ChatGPT à des fins de cyberattaques. Plus de 20 incidents ont été recensés depuis début 2024, au cours desquels des pirates informatiques ont utilisé ChatGPT pour mener des attaques de phishing, voler des données et perturber des systèmes, causant ainsi de graves dommages à de nombreuses organisations et particuliers.
Le rapport d'OpenAI révèle un fait alarmant : des groupes de pirates informatiques liés à des États, notamment chinois et iraniens, exploitent pleinement les capacités de ChatGPT pour renforcer leurs cyberopérations. Du perfectionnement de logiciels malveillants complexes à la création de campagnes de propagande malveillantes sur les réseaux sociaux, ChatGPT est devenu un outil puissant pour les cyberattaques de grande envergure.

De manière alarmante, le groupe de pirates informatiques chinois « SweetSpecter » a été découvert utilisant ChatGPT à des fins malveillantes. Ce groupe se sert de ChatGPT pour collecter des informations sensibles, rechercher des failles de sécurité dans le système et développer de nouveaux types de logiciels malveillants. Ils ont même osé attaquer OpenAI directement par hameçonnage afin d'accéder aux données des employés de l'entreprise et de les voler.
Une autre menace sérieuse provient du groupe de pirates informatiques iraniens « CyberAv3ngers », étroitement lié au Corps des gardiens de la révolution islamique. Ce groupe utilise ChatGPT pour identifier les failles des systèmes de contrôle des usines et des infrastructures critiques. Leur objectif est de créer des logiciels malveillants pour attaquer et paralyser ces systèmes, entraînant ainsi de graves conséquences.
Par ailleurs, un autre groupe de pirates informatiques iraniens, baptisé « STORM-0817 », utilise l'intelligence artificielle pour créer des logiciels malveillants destinés aux téléphones Android. Ces logiciels sont capables de dérober des informations personnelles telles que les numéros de téléphone, l'historique des appels et la géolocalisation des utilisateurs.
Bien que des groupes de pirates informatiques aient expérimenté l'utilisation de ChatGPT pour créer des logiciels malveillants, OpenAI affirme que cela n'a pas permis de réaliser d'avancées majeures dans le domaine des cyberattaques. ChatGPT n'est qu'un outil d'aide à la décision, et la création de cyberattaques efficaces requiert toujours l'expertise et l'expérience humaines.
L'entreprise affirme que les performances observées lors de l'utilisation de GPT-4 par des pirates informatiques restent conformes à ses prévisions. Autrement dit, GPT-4 n'a pas permis de mener des cyberattaques plus sophistiquées et efficaces que d'autres outils.
Le rapport révèle que l'essor de l'IA générative facilite le piratage informatique. N'importe qui, même sans connaissances techniques approfondies, peut utiliser l'IA pour créer des outils de cyberattaque, augmentant ainsi son risque d'être victime d'une attaque.
Face à ces menaces, OpenAI a mis en œuvre des mesures de prévention des activités malveillantes, notamment la suspension des comptes associés aux activités identifiées. L'entreprise collabore également avec ses partenaires et les parties prenantes du secteur afin de partager des informations sur les menaces et d'améliorer collectivement ses défenses en matière de cybersécurité.
Les experts en sécurité craignent que cette situation ne s'aggrave à mesure que l'intelligence artificielle (IA) devient plus performante. Ils affirment que les entreprises qui développent l'IA doivent impérativement mettre en place des mesures de protection robustes et des systèmes de détection efficaces afin d'empêcher toute utilisation malveillante de cette technologie.
Les révélations d'OpenAI sonnent l'alarme pour l'industrie technologique et les décideurs politiques, les incitant à prendre en compte les risques potentiels associés aux systèmes d'IA avancés.
L'intelligence artificielle (IA) est de plus en plus présente dans nos vies. Pour tirer pleinement parti de l'IA tout en garantissant sa sécurité, il est essentiel de trouver un équilibre entre le développement de nouvelles technologies et la protection des données personnelles. Cela permettra d'empêcher les personnes mal intentionnées d'utiliser l'IA à des fins malveillantes.
OpenAI s'est engagée à tout mettre en œuvre pour empêcher toute utilisation abusive de ses outils d'IA à des fins malveillantes. L'entreprise continuera de rechercher et d'éliminer les acteurs malveillants, et partagera ses connaissances avec d'autres chercheurs afin de construire ensemble des systèmes de sécurité plus robustes. OpenAI renforcera également ses défenses contre les attaques de pirates informatiques professionnels, notamment ceux liés à des gouvernements.
À l'avenir, l'IA jouera un rôle important dans nos vies. Toutefois, pour éviter les risques potentiels, les développeurs d'IA, les experts en cybersécurité et les gouvernements doivent collaborer étroitement. Ils doivent travailler ensemble pour trouver des moyens de développer une IA sûre et sécurisée, et empêcher les personnes mal intentionnées de l'exploiter à des fins malveillantes.


