Les cybercriminels utilisent l'intelligence artificielle pour commettre des fraudes et créer des logiciels malveillants

Phan Van Hoa (selon Tomshardware, PCmag) DNUM_AHZBAZCACD 14:34

(Baonghean.vn) - Un nouvel avertissement émis par le Federal Bureau of Investigation (FBI) américain montre que les cybercriminels utilisent des programmes d'intelligence artificielle (IA) pour des stratagèmes frauduleux et pour les aider à créer des logiciels malveillants.

Le FBI a récemment émis une alerte concernant la multiplication des cyberattaques utilisant des programmes d'IA. Selon l'agence, les cybercriminels exploitent des programmes d'IA open source pour toutes sortes d'activités malveillantes, notamment le développement de logiciels malveillants et d'attaques par hameçonnage. Le nombre de personnes susceptibles d'utiliser l'IA pour des attaques par hameçonnage ou le développement de logiciels malveillants augmente à un rythme alarmant, et l'impact de cette activité s'accroît.

Anh minh hoa1.jpg
Photo d'illustration.

Le FBI estime également que des modèles d’IA bien sécurisés comme ChatGPT ont été exploités pour développer des logiciels malveillants capables de contourner même les systèmes de sécurité les plus récents.

Certains experts en informatique ont récemment découvert le potentiel dangereux de ChatGPT et sa capacité à créer des logiciels malveillants presque indétectables par les systèmes de détection et de réponse aux points de terminaison (EDR).

L'EDR est un ensemble d'outils de cybersécurité conçus pour détecter et supprimer les logiciels malveillants ou toute autre activité suspecte sur le réseau. Cependant, les experts affirment que ce protocole traditionnel n'est pas adapté aux dommages potentiels que ChatGPT peut engendrer.

Les activités malveillantes vont de l’utilisation de programmes d’IA pour affiner et lancer des escroqueries jusqu’aux conseils technologiques des terroristes pour les aider à mettre au point des attaques chimiques plus puissantes.

La plupart des grands modèles de langage (LLM) comme ChatGPT sont conçus avec des filtres intégrés pour éviter la génération de contenu jugé inapproprié par leur créateur. Cela peut aller de sujets spécifiques à, dans ce cas précis, du code malveillant. Cependant, les utilisateurs trouvent rapidement des moyens de contourner ces filtres. C'est cette tactique qui rend ChatGPT particulièrement vulnérable aux personnes souhaitant créer des scripts malveillants.

« Nous nous attendons à ce qu’avec le temps, à mesure que l’adoption et la démocratisation des modèles d’IA se poursuivent, ces tendances s’accentuent », a déclaré un haut responsable du FBI.

Bien que le FBI n'ait pas révélé les modèles d'IA spécifiques utilisés par les criminels, l'agence a averti que les pirates informatiques recherchent des modèles open source gratuits et personnalisables, ainsi que des programmes d'IA que les pirates informatiques développent eux-mêmes.

Des responsables du FBI ont ajouté que des cybercriminels expérimentés exploitent l'IA pour développer de nouvelles attaques de logiciels malveillants, notamment en utilisant des sites web générés par l'IA comme pages de phishing pour diffuser secrètement du code informatique malveillant. Cette même technologie aide les pirates à développer de nouveaux logiciels malveillants capables d'échapper aux antivirus.

Le FBI a déjà signalé que des escrocs utilisent des générateurs d'images d'IA pour créer de fausses images réalistes et à caractère sexuel de leurs victimes afin d'extorquer de l'argent. La majorité des cas sur lesquels l'agence enquête impliquent des criminels utilisant des modèles d'IA pour améliorer leurs stratagèmes traditionnels. Il s'agit notamment de tentatives visant à piéger des proches ou des personnes âgées par des appels téléphoniques frauduleux utilisant une technologie de clonage vocal par IA.

Face à ce problème, les plus grandes entreprises technologiques mondiales telles qu'Amazon, Google, Meta, OpenAI, ... ont signé un engagement à avoir des mesures pour gérer leurs outils d'IA et auditeront de manière indépendante les programmes d'IA qu'elles créent avant de les publier au public, et développeront des solutions pour marquer le contenu généré par l'IA afin d'aider les utilisateurs à éviter la désinformation et les comportements frauduleux.

Les entreprises technologiques se sont également engagées à investir dans la cybersécurité afin de protéger leur code d'IA propriétaire contre le vol ou la divulgation au public. Les trois principes fondamentaux de l'avenir de l'IA sont la sûreté, la sécurité et la confiance.

Journal Nghe An en vedette

Dernier

x
Les cybercriminels utilisent l'intelligence artificielle pour commettre des fraudes et créer des logiciels malveillants
ALIMENTÉ PARUNCMS- UN PRODUIT DENEKO