Le FBI avertit que les cybercriminels utilisent déjà l'IA pour presque tous les types de fraude
Le Federal Bureau of Investigation (FBI) américain a averti que les cybercriminels utilisent de plus en plus l’intelligence artificielle (IA) pour créer de faux textes, images, fichiers audio et vidéos, augmentant ainsi l’ampleur et la sophistication de leurs escroqueries.
Les fraudeurs exploitent les avancées de l'IA pour créer de grandes quantités de faux contenus très convaincants et automatiser leurs escroqueries afin d'accroître leurs opérations. Le FBI a identifié des dizaines de manières dont les cybercriminels exploitent l'IA pour alimenter leurs opérations frauduleuses.
« L'IA générative, en particulier, réduit le temps et les efforts nécessaires aux criminels pour exécuter leurs escroqueries », a indiqué le FBI dans un avis public. « Ces outils facilitent non seulement la création de contenu, mais peuvent également corriger les erreurs humaines qui peuvent être un signal d'alarme pour une activité frauduleuse. »
.jpg)
L'utilisation de contenu généré par l'IA n'est pas toujours illégale. Cependant, lorsqu'il est utilisé à des fins malveillantes telles que la fraude, l'extorsion ou d'autres délits, il devient extrêmement difficile d'en identifier la source et de déterminer s'il a été généré par l'IA.
Le FBI estime que fournir des exemples concrets de la manière dont l’IA est utilisée dans la cybercriminalité contribuera à dénoncer les escroqueries et à sensibiliser le public à la menace.
Les cybercriminels utilisent du texte généré par l'IA pour tromper les lecteurs
Les textes générés par l'IA sont souvent très convaincants et faciles à tromper. Ils sont exploités par des criminels pour commettre des fraudes telles que l'ingénierie sociale, les escroqueries par e-mail, les escroqueries sentimentales, les escroqueries à l'investissement et bien d'autres. Ce contenu peut être utilisé abusivement dans des situations telles que :
- Créez plusieurs faux profils sur les plateformes de médias sociaux en utilisant de fausses informations, images et identités pour gagner la confiance des victimes.
- L’utilisation de tactiques de réponse rapide aide les escrocs à optimiser leur capacité à atteindre et à interagir avec un large éventail de publics cibles en ligne.
- Les sites Web frauduleux sont souvent conçus avec un contenu attrayant et professionnel pour inciter les utilisateurs à participer à des activités d’investissement non transparentes.
- Sur les sites Web frauduleux, des chatbots dotés d’une technologie d’IA intégrée sont programmés pour interagir avec les victimes de manière naturelle et convaincante.
Les cybercriminels utilisent de fausses images générées par l'IA pour commettre des fraudes
Les cybercriminels exploitent rapidement l'IA pour créer de fausses images crédibles, utilisées comme photos de profil, cartes d'identité et faux documents. Le FBI prévient que ces images sont utilisées pour diverses escroqueries, notamment :
- Les faux profils sur les réseaux sociaux sont un outil d'attaques d'ingénierie sociale, utilisé pour mener des escroqueries par courrier électronique, des escroqueries amoureuses, des escroqueries de confiance et pour attirer les victimes vers de faux investissements.
- Les documents falsifiés, tels que les permis de conduire ou les cartes d’identité, sont des imitations sophistiquées de documents officiels, permettant aux criminels de se faire passer pour des personnes et de voler des identités pour mener des escroqueries complexes.

- Utiliser des images modifiées sophistiquées dans des conversations privées pour convaincre les victimes d'une fausse identité, instaurant ainsi la confiance.
- Exploiter l’image de célébrités ou d’influenceurs pour promouvoir de faux produits ou des programmes frauduleux, exploiter la réputation de personnalités publiques pour accroître leur pouvoir de persuasion et attirer des victimes.
- Utiliser des images de catastrophes naturelles et d’accidents tragiques pour susciter la compassion, appeler à des dons à de fausses organisations caritatives et inciter les victimes à transférer de l’argent.
- Créer des images sensibles des victimes pour les faire chanter, menacer leur réputation et les forcer à payer de l’argent ou à répondre à d’autres exigences.
Les cybercriminels clonent des voix en utilisant l'IA pour tromper leurs victimes
Les cybercriminels se font passer pour des célébrités, des personnalités publiques, voire des proches de leurs victimes, afin de les escroquer. Le FBI a recensé plusieurs cas où des enregistrements audio générés par l'IA ont été utilisés comme outil sophistiqué, notamment :
- Utiliser l'IA pour créer de fausses voix d'êtres chers, simuler des situations d'urgence pour exploiter la compassion et inciter les victimes à envoyer de l'argent ou à payer une rançon.
- Exploiter la technologie de génération de sons de l'IA pour contourner l'authentification vocale, accéder aux comptes bancaires et effectuer des transactions non autorisées, causant de graves dommages aux victimes.
Les cybercriminels utilisent des vidéos générées par l'IA dans des appels vidéo frauduleux
Le FBI prévient que les cybercriminels exploitent de plus en plus la technologie de l'IA pour créer de fausses vidéos qui semblent authentiques et crédibles, y compris des contenus tels que :
- Utiliser de fausses vidéos générées par l'IA pour mener des conversations vidéo en direct, se faire passer pour des dirigeants d'entreprise, des agents des forces de l'ordre ou d'autres personnes autorisées pour escroquer et gagner la confiance des victimes.

- Utiliser de fausses vidéos pour mener des conversations privées, afin de « prouver » que la personne contactée en ligne est une personne « réelle » et digne de confiance, manipulant ainsi la victime plus efficacement.
- Utilisation de fausses vidéos créées pour promouvoir des programmes d'investissement frauduleux, contenant souvent du contenu faux ou fictif pour attirer et tromper les investisseurs. Ces vidéos sont conçues pour créer un sentiment de professionnalisme et de confiance, convainquant ainsi les victimes d'investir dans des projets fictifs.
Et les conseils du FBI pour vous protéger de la cybercriminalité
Identifier les arnaques générées par l'IA devient de plus en plus complexe, car elles sont conçues pour tromper même les humains expérimentés. Dans ce contexte, le FBI propose quelques conseils utiles pour vous protéger des menaces potentielles.
- Établissez un mot ou une phrase secrète au sein de votre famille, à utiliser comme méthode de vérification d’identité dans les situations d’urgence.
Les images ou vidéos générées par l'IA présentent souvent des défauts qui peuvent trahir une contrefaçon. Il s'agit notamment de mains ou de pieds déformés, de dents ou d'yeux inhabituels, de visages asymétriques ou flous, et d'accessoires comme des lunettes ou des bijoux qui paraissent irréalistes.

De plus, d’autres anomalies peuvent apparaître, telles que des ombres inexactes, des filigranes non naturels, une latence accrue en temps réel, une voix désynchronisée et des mouvements manquant de fluidité ou de fidélité.
- Faites très attention au ton de la voix et au choix des mots, car ils peuvent être des indices importants pour faire la distinction entre un véritable appel d’un être cher et une fausse voix générée par l’IA.
- Soyez vigilant quant au contenu en ligne qui inclut votre image et votre voix. Privilégiez vos comptes de réseaux sociaux et limitez votre liste d'abonnés aux personnes que vous connaissez réellement. Ces mesures réduisent le risque que vos informations personnelles soient utilisées à des fins frauduleuses.
- Ne partagez jamais d'informations sensibles avec des personnes rencontrées uniquement en ligne ou par téléphone. De même, ne transférez jamais d'argent, de cartes-cadeaux, de cryptomonnaies ou tout autre actif à des personnes que vous ne connaissez pas bien ou que vous n'avez rencontrées qu'en ligne ou par téléphone.
Une règle importante est de ne pas faire confiance à quiconque vous appelle. Prenez plutôt l'initiative de rechercher les coordonnées officielles de la banque ou de l'institution concernée auprès de sources fiables et appelez directement le numéro de téléphone indiqué sur le site officiel.