Les escroqueries Deepfake augmenteront en 2024
(Baonghean.vn) - Selon la société de vérification de données Sumsub (Royaume-Uni), le nombre de deepfakes dans le monde a été multiplié par 10 au cours de la période 2022-2023, au cours de laquelle le nombre de deepfakes dans la région Asie-Pacifique (APAC) a augmenté de 1 530 %.
Qu'est-ce que Deepfake ?
Deepfake est un terme créé par la combinaison de « Deep Learning » et de « Fake ». Il s'agit d'une technologie qui simule des images faciales humaines et crée de faux fichiers audio, images, voire vidéos. Les créateurs de deepfakes peuvent manipuler les médias et les remplacer par l'apparence d'une personne réelle.

Fondamentalement, la technologie deepfake repose sur la plateforme d'apprentissage automatique open source de Google. Deepfake analyse la vidéo et le portrait d'une personne, puis les fusionne avec une vidéo distincte grâce à l'intelligence artificielle (IA) et remplace les détails du visage, tels que les yeux, la bouche et le nez, par de véritables mouvements et voix.
Plus les images sont originales, plus l'IA dispose de données pour apprendre et créer des images ou des vidéos truquées plus réalistes. Les deepfakes permettent de superposer le visage d'une personne sur celui d'une autre dans une vidéo avec un réalisme incroyable.
Les deepfakes vont augmenter pendant l'année électorale de 2024
L’utilisation de deepfakes pour se faire passer pour des politiciens devient de plus en plus courante, d’autant plus que 2024 est l’année électorale mondiale la plus importante de l’histoire.
Selon les rapports, au moins 60 pays et plus de 4 milliards de personnes dans le monde voteront pour leurs dirigeants et représentants cette année, ce qui fait du problème des deepfakes une préoccupation sérieuse.
Selon le rapport Sumsub, les médias en ligne, notamment les plateformes de réseaux sociaux et la publicité numérique, ont enregistré la plus forte augmentation de la fraude à l'identité entre 2021 et 2023, soit 274 %. Des secteurs comme la santé, les transports et les jeux vidéo sont également touchés.
En outre, dans un rapport sur les menaces mondiales en 2024, la société américaine de technologie de cybersécurité CrowdStrike a déclaré qu'avec un grand nombre d'élections qui auront lieu cette année, il pourrait y avoir de la désinformation et/ou de fausses informations pour semer l'instabilité.
Ainsi, avant les élections indonésiennes du 14 février, les réseaux sociaux ont diffusé une vidéo montrant l'ancien président Suharto soutenir le parti politique qu'il présidait. Cependant, cette vidéo a été identifiée comme un deepfake créé par l'IA, copiant l'intégralité de son visage et de sa voix. Cette vidéo deepfake a été vue 4,7 millions de fois, uniquement sur la plateforme de réseau social X (anciennement Twitter).
Ce n'est pas la première fois que des deepfakes font surface. Au Pakistan, un canular deepfake concernant l'ancien Premier ministre Imran Khan a été diffusé pendant les élections, laissant entendre que son parti boycotterait le scrutin. Parallèlement, aux États-Unis, les électeurs du New Hampshire ont été soudainement bombardés d'une fausse information selon laquelle le président Joe Biden leur demandait de ne pas voter aux primaires.
Les experts affirment que la plupart des deepfakes sont créés par des acteurs nationaux. Carol Soon, chercheuse et directrice de la division culture et société à l'Institut d'études politiques de Singapour, a déclaré que les acteurs nationaux pouvaient inclure des opposants politiques et des opposants, ou des acteurs d'extrême droite et d'extrême gauche.
Dans le même temps, M. Simon Chesterman, directeur principal de la gestion des projets d'IA au sein du programme national d'IA de Singapour, a déclaré que l'Asie n'était pas prête à aborder la question du deepfake dans les élections sous trois aspects : juridique, technologique et éducatif.
Quels sont les dangers des deepfakes ?
Commentant les dangers posés par les deepfakes, Carol Soon a déclaré qu'au minimum, les deepfakes polluent l'écosystème de l'information et rendent difficile pour les gens de trouver des informations précises et de se forger une opinion éclairée sur un parti ou un candidat.
Les électeurs peuvent également se détourner d'un candidat en particulier s'ils voient du contenu sur un sujet scandaleux se propager rapidement sur les réseaux sociaux avant d'être démenti, a déclaré Simon Chesterman. Si certains gouvernements disposent d'outils pour lutter contre la désinformation en ligne, la crainte est que la vérité soit déformée avant d'être corrigée.
« Nous avons vu avec quelle rapidité X (anciennement Twitter) peut être envahi par des fakes pornographiques impliquant Taylor Swift. Ces contenus peuvent se propager à une vitesse incroyable », a déclaré Chesterman, ajoutant que les mesures sont souvent inadéquates et extrêmement difficiles à appliquer. « Souvent, il est trop tard. »
Adam Meyers, de l'entreprise de cybersécurité CrowdStrike, affirme que les deepfakes peuvent également déclencher un biais de confirmation, un effet sur le traitement de l'information. « Même s'ils savent au fond d'eux-mêmes que ce n'est pas vrai, ils l'accepteront quand même si c'est le message qu'ils souhaitent et ce qu'ils veulent croire », explique-t-il.
Pour ajouter à ces inquiétudes, M. Chesterman a déclaré qu'un faux enregistrement vidéo d'une mauvaise conduite électorale, comme le bourrage des urnes, pourrait amener les électeurs à perdre confiance dans la validité de l'élection.
Selon Mme Soon, les candidats peuvent nier la vérité sur eux-mêmes en prétendant que les informations négatives à leur sujet sont toutes fausses.
Les plus grandes entreprises technologiques s'engagent à lutter contre les deepfakes
En février, 20 grandes entreprises technologiques, dont Microsoft, Meta, Google, Amazon, IBM, ainsi que la société d'intelligence artificielle OpenAI et des sociétés de médias sociaux comme Snap, TikTok et X, ont convenu d'un engagement commun pour lutter contre l'utilisation de l'intelligence artificielle à des fins de tricherie lors des élections de cette année.
Cet engagement commun constitue une première étape importante, mais son efficacité dépend de sa mise en œuvre et de son application. Cela nécessitera une approche multidimensionnelle de la part des entreprises technologiques pour mettre en œuvre différentes mesures sur leurs plateformes, a déclaré Soon. Les entreprises technologiques doivent également garantir la transparence de leurs décisions, notamment sur les processus qu'elles suivent.
Mais Simon Chesterman affirme qu'il n'est pas excessif d'attendre des entreprises privées qu'elles assurent des fonctions publiques de base. Déterminer le contenu autorisé sur les réseaux sociaux est une décision difficile, et certaines entreprises peuvent mettre des mois à se prononcer.
Pour atteindre cet objectif, la Content Attestation and Authentication Alliance (C2PA) a lancé une plateforme dédiée à l'authentification des contenus numériques. Cette plateforme permet aux utilisateurs de recevoir des informations vérifiées, telles que le créateur, l'origine et la date de création, ainsi que la généralité des informations ou leur origine (générées par l'IA).
Parmi les entreprises membres de la C2PA figurent Adobe, Microsoft, Google et Intel. OpenAI a annoncé plus tôt cette année le déploiement de la technologie d'authentification C2PA pour les images générées avec son modèle de langage génératif d'images DALL·E 3.
Dans une interview accordée à Bloomberg House lors du Forum économique mondial en janvier, le fondateur et PDG d'OpenAI, Sam Altman, a déclaré que la société s'efforçait de garantir que sa technologie ne soit pas utilisée pour manipuler les élections.
Adam Meyers, de l'entreprise de cybersécurité CrowdStrike, a proposé la création d'une organisation d'ingénierie non partisane et à but non lucratif chargée d'analyser et d'identifier les deepfakes. « Le public pourrait leur envoyer du contenu qu'il soupçonne d'avoir été falsifié. Ce n'est pas facile à communiquer, mais au moins, il existe un mécanisme auquel les gens peuvent se fier », a déclaré Meyers.
Mais en fin de compte, si la technologie fait partie de la solution, elle repose en grande partie sur les utilisateurs. Le public doit redoubler de vigilance et, en plus de vérifier les faits lorsque quelque chose semble très suspect, les utilisateurs doivent également vérifier les informations importantes, surtout avant de les partager.