Les cybercriminels utilisent l’intelligence artificielle pour commettre des fraudes et créer des logiciels malveillants.

Phan Van Hoa (selon Tomshardware, PCmag) October 7, 2023 14:34

(Baonghean.vn) - Un nouvel avertissement émis par le Federal Bureau of Investigation (FBI) américain montre que les cybercriminels utilisent des programmes d'intelligence artificielle (IA) pour des stratagèmes frauduleux et pour les aider à créer des logiciels malveillants.

Le FBI a récemment alerté sur la montée des cyberattaques alimentées par des programmes d'IA. Selon l'agence, les cybercriminels exploitent des programmes d'IA open source pour toutes sortes d'activités malveillantes, notamment le développement de logiciels malveillants et d'attaques par hameçonnage. Le nombre de personnes qui utilisent l'IA pour des attaques par hameçonnage ou le développement de logiciels malveillants augmente à un rythme alarmant, et l'impact de cette activité s'accentue.

Anh minh hoa1.jpg
Photo d'illustration.

Le FBI estime également que des modèles d’IA bien sécurisés comme ChatGPT ont été exploités pour développer des logiciels malveillants capables de contourner même les systèmes de sécurité les plus récents.

Certains experts en informatique ont récemment découvert le potentiel dangereux de ChatGPT et sa capacité à créer des logiciels malveillants presque indétectables par les systèmes Endpoint Detection & Response (EDR).

L'EDR est un ensemble d'outils de cybersécurité conçus pour détecter et supprimer les logiciels malveillants ou toute autre activité suspecte sur le réseau. Cependant, les experts affirment que ce protocole traditionnel n'est pas adapté aux dommages potentiels que ChatGPT peut engendrer.

Les activités malveillantes vont de l’utilisation de programmes d’IA pour peaufiner et lancer des escroqueries jusqu’aux conseils technologiques des terroristes pour les aider à concevoir des attaques chimiques plus puissantes.

La plupart des grands modèles linguistiques (LLM) comme ChatGPT sont conçus avec des filtres intégrés pour éviter la génération de contenu jugé inapproprié par leurs créateurs. Cela peut aller de sujets spécifiques à, dans ce cas précis, du code malveillant. Cependant, les utilisateurs trouvent rapidement des moyens de contourner ces filtres. C'est cette tactique qui rend ChatGPT particulièrement vulnérable aux individus cherchant à créer des scripts malveillants.

« Nous nous attendons à ce qu’avec le temps, à mesure que l’adoption et la démocratisation des modèles d’IA se poursuivent, ces tendances s’accentuent », a déclaré un haut responsable du FBI.

Bien que le FBI ne divulgue pas les modèles d'IA spécifiques utilisés par les criminels, l'agence prévient que les pirates informatiques recherchent des modèles open source gratuits et personnalisables, ainsi que des programmes d'IA que les pirates développent eux-mêmes.

Des responsables du FBI ont ajouté que des cybercriminels expérimentés exploitent l'IA pour développer de nouvelles attaques de logiciels malveillants, notamment en utilisant des sites web générés par l'IA comme pages de phishing pour diffuser secrètement du code informatique malveillant. Cette même technologie aide les pirates à développer de nouveaux logiciels malveillants capables d'échapper aux antivirus.

Le FBI a déjà alerté sur le fait que des escrocs utilisent des générateurs d'images d'IA pour créer de fausses images réalistes et à caractère sexuel de leurs victimes afin d'extorquer de l'argent. La majorité des cas sur lesquels l'agence enquête impliquent des criminels utilisant des modèles d'IA pour améliorer leurs stratagèmes traditionnels. Il s'agit notamment de tentatives de tromper des proches ou des personnes âgées par des appels téléphoniques frauduleux utilisant une technologie de clonage vocal par IA.

Face à ce problème, les plus grandes entreprises technologiques mondiales telles qu'Amazon, Google, Meta, OpenAI,... ont signé un engagement à avoir des mesures pour gérer leurs outils d'IA et auditeront de manière indépendante les programmes d'IA qu'elles créent avant de les publier au public, et développeront des solutions pour marquer le contenu généré par l'IA afin d'aider les utilisateurs à éviter la désinformation et les comportements frauduleux.

Les entreprises technologiques se sont également engagées à investir dans la cybersécurité afin de protéger leur code d'IA propriétaire contre le vol ou la divulgation au public. Les trois principes fondamentaux de l'avenir de l'IA sont la sûreté, la sécurité et la confiance.

Journal Nghe An en vedette

Dernier

x
Les cybercriminels utilisent l’intelligence artificielle pour commettre des fraudes et créer des logiciels malveillants.
ALIMENTÉ PARUNCMS- UN PRODUIT DENEKO