Le FBI avertit que les cybercriminels utilisent déjà l'IA pour la plupart des types de fraude.
Le Bureau fédéral d'enquête américain (FBI) a averti que les cybercriminels utilisent de plus en plus l'intelligence artificielle (IA) pour créer de faux textes, images, fichiers audio et vidéo, augmentant ainsi l'ampleur et la sophistication de leurs escroqueries.
Les fraudeurs exploitent les progrès de l'IA pour créer en masse de faux contenus très convaincants et automatiser leurs escroqueries afin d'étendre leurs activités. Le FBI a recensé des dizaines de méthodes utilisées par les cybercriminels pour détourner l'IA et faciliter leurs fraudes.
« L’intelligence artificielle générative, en particulier, réduit le temps et les efforts nécessaires aux criminels pour mener à bien des escroqueries », a indiqué le FBI dans un communiqué. « Ces outils facilitent non seulement la création de contenu, mais peuvent également corriger les erreurs humaines susceptibles de révéler une activité frauduleuse. »
.jpg)
L’utilisation de contenu généré par l’IA n’est pas toujours illégale. Cependant, lorsqu’il est utilisé à des fins malveillantes comme la fraude, l’extorsion ou d’autres crimes, il peut être extrêmement difficile d’en identifier la source et de déterminer s’il a été généré par l’IA.
Le FBI estime que fournir des exemples concrets de l'utilisation de l'IA dans la cybercriminalité contribuera à démasquer les escroqueries et à sensibiliser le public à cette menace.
Les cybercriminels utilisent du texte généré par l'IA pour tromper les lecteurs.
Les textes générés par l'IA sont souvent très convaincants et trompent facilement les lecteurs. Ils sont exploités par des criminels pour perpétrer des escroqueries telles que des attaques d'ingénierie sociale, des arnaques par courriel, des arnaques sentimentales, des escroqueries à l'investissement et bien d'autres stratagèmes frauduleux. Ces contenus peuvent être utilisés à mauvais escient dans des situations telles que :
- Création de multiples faux profils sur les plateformes de médias sociaux, utilisant de fausses informations, images et identités pour gagner la confiance des victimes.
- L'utilisation de tactiques de réponse rapide permet aux escrocs d'optimiser leur capacité à atteindre et à interagir avec un large éventail de publics cibles en ligne.
- Les sites web frauduleux sont souvent conçus avec un contenu attrayant et professionnel pour inciter les utilisateurs à participer à des activités d'investissement opaques.
- Sur les sites web frauduleux, les chatbots alimentés par l'IA sont programmés pour interagir avec les victimes de manière naturelle et convaincante.
Les cybercriminels utilisent de fausses images générées par l'IA pour commettre des fraudes.
Les cybercriminels exploitent rapidement l'IA pour créer des images falsifiées et convaincantes, destinées à servir de photos de profil, de cartes d'identité et de faux documents. Le FBI met en garde contre l'utilisation de ces images à des fins frauduleuses diverses, notamment :
- Les faux profils sur les réseaux sociaux sont un outil utilisé dans les attaques d'ingénierie sociale, notamment pour perpétrer des escroqueries par courriel, des escroqueries sentimentales, des escroqueries à la confiance et pour inciter les victimes à réaliser de faux investissements.
- Les faux documents, tels que les permis de conduire ou les cartes d'identité, sont des imitations sophistiquées de documents officiels, permettant aux criminels d'usurper l'identité d'autrui et de mener à bien des escroqueries complexes.

- Utilisation d'images retouchées de manière sophistiquée dans des conversations privées pour convaincre les victimes de croire à de fausses identités, et ainsi instaurer un climat de confiance.
- Exploiter l'image de célébrités ou d'influenceurs pour promouvoir des produits contrefaits ou des programmes frauduleux, exploiter la réputation de personnalités publiques pour accroître la force de persuasion et attirer des victimes.
- Utiliser des images de catastrophes naturelles et d'accidents tragiques pour susciter la compassion, appeler à des dons pour de fausses organisations caritatives et tromper les victimes afin qu'elles transfèrent de l'argent.
- Créer des images compromettantes des victimes pour les faire chanter, menacer leur réputation et les contraindre à payer de l'argent ou à satisfaire à d'autres exigences.
Des cybercriminels utilisent l'IA pour cloner des voix et tromper leurs victimes.
Des cybercriminels se font passer pour des célébrités, des personnalités publiques, voire des proches de leurs victimes, afin de les escroquer. Le FBI a recensé plusieurs cas d'utilisation de fichiers audio générés par intelligence artificielle comme outil sophistiqué, notamment :
- Utiliser l'IA pour créer de fausses voix de proches, simuler des situations d'urgence afin d'exploiter la compassion et inciter les victimes à envoyer de l'argent ou à payer une rançon.
- Exploiter la technologie de génération sonore par IA pour contourner l'authentification vocale, accéder aux comptes bancaires et effectuer des transactions non autorisées, causant ainsi de graves préjudices aux victimes.
Les cybercriminels utilisent des vidéos générées par l'IA dans des appels vidéo frauduleux
Le FBI avertit que les cybercriminels utilisent de plus en plus l'intelligence artificielle pour créer de fausses vidéos d'apparence authentique et crédible, notamment des contenus tels que :
- Utilisation de fausses vidéos générées par l'IA pour mener des conversations vidéo en direct, en se faisant passer pour des dirigeants d'entreprise, des agents des forces de l'ordre ou d'autres personnes autorisées afin de frauder et de gagner la confiance des victimes.

- Utiliser de fausses vidéos pour mener des conversations privées, afin de « prouver » que la personne qui contacte en ligne est une personne « réelle » et digne de confiance, et ainsi manipuler la victime plus efficacement.
L'utilisation de fausses vidéos, souvent au contenu mensonger ou fictif, est utilisée pour promouvoir des programmes d'investissement frauduleux et attirer les investisseurs. Ces vidéos visent à créer une impression de professionnalisme et de confiance, incitant ainsi les victimes à investir dans des projets inexistants.
Et les recommandations du FBI pour se protéger contre la cybercriminalité
Identifier les arnaques générées par l'IA est de plus en plus complexe, car elles sont conçues pour tromper même les personnes les plus expérimentées. Face à ce constat, le FBI propose quelques conseils utiles pour vous aider à vous protéger contre les menaces potentielles.
- Établissez un mot ou une phrase secrète au sein de votre famille, à utiliser comme méthode de vérification d'identité en cas d'urgence.
Les images ou vidéos générées par l'IA présentent souvent des défauts qui peuvent trahir leur supercherie. Il peut s'agir de mains ou de pieds difformes, de dents ou d'yeux d'apparence inhabituelle, de visages asymétriques ou flous, et d'accessoires comme des lunettes ou des bijoux qui semblent irréalistes.

De plus, d'autres anomalies peuvent apparaître, telles que des ombres inexactes, des filigranes artificiels, une latence accrue en temps réel, des voix off désynchronisées et des mouvements manquant de fluidité ou de fidélité.
- Portez une attention particulière au ton et au choix des mots, car ce sont des indices importants pour distinguer un véritable appel d'un être cher d'une fausse voix générée par une IA.
Soyez vigilant·e quant aux contenus en ligne incluant votre image et votre voix. Paramétrez vos comptes de réseaux sociaux en mode privé et limitez votre liste d'abonnés aux personnes que vous connaissez réellement. Ces mesures réduisent le risque d'utilisation frauduleuse de vos informations personnelles.
Ne partagez jamais d'informations sensibles avec des personnes que vous avez rencontrées uniquement en ligne ou par téléphone. De même, ne transférez jamais d'argent, de cartes-cadeaux, de cryptomonnaies ou tout autre actif à des personnes que vous ne connaissez pas bien ou que vous avez rencontrées uniquement en ligne ou par téléphone.
Une règle importante : ne faites confiance à personne qui vous appelle. Recherchez plutôt les coordonnées officielles de la banque ou de l’organisme concerné auprès de sources fiables et appelez directement le numéro de téléphone indiqué sur le site web officiel.


