Les pirates utilisent ChatGPT pour créer des logiciels malveillants sophistiqués
Récemment, la société leader dans la recherche en intelligence artificielle OpenAI (USA) a confirmé que des pirates informatiques exploitaient son modèle d'intelligence artificielle ChatGPT pour créer des logiciels malveillants et mener des cyberattaques.
Un rapport récent a révélé la réalité alarmante de l'exploitation de ChatGPT à des fins de cyberattaques. Plus de 20 incidents ont été recensés depuis début 2024, au cours desquels des pirates ont utilisé ChatGPT pour mener des attaques de phishing, voler des données et perturber des systèmes, causant de graves dommages à de nombreuses organisations et personnes.
Le rapport d'OpenAI révèle un fait alarmant : des groupes de pirates informatiques liés à des États, notamment chinois et iraniens, exploitent pleinement les capacités de ChatGPT pour optimiser leurs cyberopérations. Du perfectionnement de programmes malveillants complexes à la création de campagnes de propagande malveillantes sur les réseaux sociaux, ChatGPT est devenu un outil puissant pour les cyberattaques à grande échelle.

Fait inquiétant, le groupe de hackers chinois « SweetSpecter » a été découvert en train d'exploiter ChatGPT pour mener des activités malveillantes. Le groupe utilise ChatGPT pour collecter des informations sensibles, détecter des failles de sécurité dans le système et développer de nouveaux types de logiciels malveillants. Il a même osé attaquer OpenAI par hameçonnage afin d'accéder aux données des employés de l'entreprise et de les voler.
Une autre menace sérieuse provient du groupe de hackers iranien « CyberAv3ngers », étroitement lié au Corps des gardiens de la révolution islamique. Ce groupe utilise ChatGPT pour identifier les failles des systèmes de contrôle des usines et des infrastructures critiques. Son objectif est de créer du code malveillant pour attaquer et paralyser ces systèmes, entraînant de graves conséquences.
Par ailleurs, un autre groupe de pirates iraniens, baptisé « STORM-0817 », a également été découvert, utilisant l'intelligence artificielle pour créer un logiciel malveillant ciblant les téléphones Android. Ce logiciel malveillant est capable de voler les informations personnelles des utilisateurs, telles que leur numéro de téléphone, leur historique d'appels et leur localisation.
Bien que des groupes de hackers aient expérimenté l'utilisation de ChatGPT pour créer des logiciels malveillants, OpenAI affirme que cela n'a pas permis de percées majeures dans le domaine des cyberattaques. ChatGPT n'est qu'un outil de support, et la création de cyberattaques efficaces requiert toujours l'expertise et l'expérience humaines.
L'entreprise affirme que les résultats observés lors de l'utilisation de GPT-4 par les pirates informatiques correspondaient aux capacités initialement prévues. Autrement dit, GPT-4 n'était pas capable de créer des cyberattaques plus sophistiquées et plus efficaces que d'autres outils.
Le rapport révèle que l'essor de l'IA générative facilite l'accès au piratage informatique. N'importe qui, même avec peu de connaissances techniques, peut utiliser l'IA pour créer des outils de cyberattaque, augmentant ainsi son risque d'être attaqué.
Face à ces menaces, OpenAI a mis en œuvre des mesures pour prévenir les activités malveillantes, notamment le bannissement des comptes associés aux activités identifiées. L'entreprise collabore également avec des partenaires et des parties prenantes du secteur pour partager des informations sur les menaces et améliorer les défenses collectives en matière de cybersécurité.
Les experts en sécurité craignent que cette situation ne s'aggrave à mesure que l'IA gagne en intelligence. Ils affirment que les entreprises qui développent l'IA doivent se doter de mesures de protection solides et de systèmes de détection performants pour empêcher les acteurs malveillants d'exploiter cette technologie à des fins malveillantes.
Les révélations d’OpenAI servent de signal d’alarme pour l’industrie technologique et les décideurs politiques afin qu’ils prennent en compte les risques potentiels associés aux systèmes d’IA avancés.
L'IA prend une place croissante dans nos vies. Pour exploiter pleinement l'IA tout en garantissant sa sécurité, nous devons trouver un équilibre entre le développement de nouvelles technologies et la protection des données personnelles. Cela permettra d'empêcher les acteurs malveillants d'utiliser l'IA pour commettre des actes répréhensibles.
OpenAI s'engage à tout mettre en œuvre pour empêcher les acteurs malveillants d'utiliser ses outils d'IA à des fins malveillantes. L'entreprise continuera de détecter et d'éliminer les acteurs malveillants, et de partager ses connaissances avec d'autres chercheurs afin de construire ensemble des systèmes de sécurité plus performants. OpenAI renforcera également ses défenses contre les attaques des pirates informatiques professionnels, notamment ceux liés aux gouvernements.
À l'avenir, l'IA jouera un rôle important dans nos vies. Cependant, pour éviter les risques potentiels, les développeurs d'IA, les experts en cybersécurité et les gouvernements doivent collaborer étroitement. Ils doivent collaborer pour trouver des moyens de développer l'IA de manière sûre et sécurisée, et empêcher les acteurs malveillants de l'exploiter à des fins néfastes.