Les arnaques par deepfake vont augmenter en 2024.

Phan Van Hoa (selon CNBC) March 23, 2024 10:54

(Baonghean.vn) - Selon la société de vérification de données Sumsub (Royaume-Uni), le nombre de deepfakes dans le monde a été multiplié par 10 au cours de la période 2022-2023, le nombre de deepfakes dans la région Asie-Pacifique (APAC) ayant augmenté de 1 530 %.

Qu'est-ce qu'un deepfake ?

Le terme « deepfake », contraction de « deep learning » et « fake », désigne une technologie qui simule des images faciales humaines et crée de faux contenus audio, image ou vidéo. Les créateurs de deepfakes peuvent manipuler des médias et y intégrer l'apparence d'une personne réelle.

1000013982.jpg

En substance, la technologie deepfake repose sur la plateforme d'apprentissage automatique open source de Google. Elle analyse la vidéo et la photo d'une personne, puis les fusionne avec une autre vidéo grâce à l'intelligence artificielle (IA) et remplace les détails du visage (yeux, bouche, nez) par de véritables mouvements faciaux et la voix réelle.

Plus les images originales sont nombreuses, plus l'IA dispose de données pour apprendre et créer des images ou vidéos truquées plus réalistes. Les deepfakes permettent de superposer le visage d'une personne sur celui d'une autre dans une vidéo avec un réalisme saisissant.

Les deepfakes vont se multiplier durant l'année électorale de 2024.

L’utilisation de deepfakes pour usurper l’identité de personnalités politiques est de plus en plus courante, d’autant plus que 2024 est l’année électorale mondiale la plus importante de l’histoire.

Selon certaines sources, au moins 60 pays et plus de 4 milliards de personnes à travers le monde se rendront aux urnes cette année pour élire leurs dirigeants et représentants, ce qui fait des deepfakes une préoccupation majeure.

Selon le rapport Sumsub, les médias en ligne, y compris les plateformes de médias sociaux et la publicité numérique, ont enregistré la plus forte augmentation de la fraude à l'identité entre 2021 et 2023, à 274 %. Des secteurs tels que la santé, les transports et les jeux vidéo sont également parmi ceux touchés par la fraude à l'identité.

Par ailleurs, dans un rapport sur les menaces mondiales en 2024, la société américaine de cybersécurité CrowdStrike a déclaré qu'avec le grand nombre d'élections prévues cette année, il pourrait y avoir de la désinformation et/ou de fausses informations destinées à semer l'instabilité.

Ainsi, avant les élections indonésiennes du 14 février, une vidéo montrant le défunt président Suharto soutenant le parti politique qu'il avait autrefois dirigé a circulé sur les réseaux sociaux. Or, cette vidéo a été identifiée comme un deepfake, un montage créé par intelligence artificielle reproduisant fidèlement son visage et sa voix. Ce deepfake a cumulé 4,7 millions de vues, rien que sur la plateforme X (anciennement Twitter).

Ce n’est pas la première fois que des vidéos truquées (deepfakes) font surface. Au Pakistan, une fausse vidéo de l’ancien Premier ministre Imran Khan a circulé pendant les élections, laissant entendre que son parti boycotterait le scrutin. Aux États-Unis, dans le New Hampshire, des électeurs ont été soudainement inondés d’une fausse information selon laquelle le président Joe Biden leur demandait de ne pas voter aux primaires.

D'après les experts, la plupart des deepfakes sont créés par des acteurs situés au sein même du pays. Carol Soon, chercheuse et directrice du département Culture et société à l'Institut d'études politiques de Singapour, a indiqué que ces acteurs nationaux pourraient inclure des opposants politiques, voire des membres de l'extrême droite ou de l'extrême gauche.

Par ailleurs, M. Simon Chesterman, directeur principal de la gestion de projets d'IA au sein du Programme national d'IA de Singapour, a déclaré que l'Asie n'était pas encore prête à aborder la question des deepfakes dans les élections sous trois aspects : juridique, technologique et éducatif.

Quels sont les dangers des deepfakes ?

Commentant les dangers posés par les deepfakes, Carol Soon a déclaré qu'à tout le moins, les deepfakes polluent l'écosystème informationnel et rendent difficile pour les gens de trouver des informations exactes et de se forger des opinions éclairées sur un parti ou un candidat.

Les électeurs pourraient également se détourner d'un candidat s'ils voient des contenus scandaleux se propager rapidement sur les réseaux sociaux avant d'être démentis, a déclaré Simon Chesterman. Bien que certains gouvernements disposent d'outils pour lutter contre la désinformation en ligne, on craint que la vérité ne soit déformée avant même d'avoir pu être rétablie.

« Nous avons constaté la rapidité avec laquelle X (anciennement Twitter) peut être envahi par des vidéos pornographiques truquées impliquant Taylor Swift. Ces contenus peuvent se propager à une vitesse incroyable », a déclaré Chesterman, ajoutant que les mesures prises sont souvent insuffisantes et extrêmement difficiles à appliquer. « Il est souvent trop tard. »

Adam Meyers, de la société de cybersécurité CrowdStrike, affirme que les deepfakes peuvent également déclencher un biais de confirmation, un phénomène qui affecte le traitement de l'information. « Même s'ils savent au fond d'eux-mêmes que c'est faux, ils l'accepteront quand même si cela correspond au message qu'ils souhaitent recevoir et à ce qu'ils veulent croire », explique-t-il.

Pour ajouter à ces inquiétudes, M. Chesterman a déclaré qu'une fausse vidéo montrant des irrégularités électorales telles que le bourrage des urnes pourrait amener les électeurs à perdre confiance dans la validité de l'élection.

Selon Mme Soon, les candidats peuvent nier la vérité sur eux-mêmes en affirmant que les informations négatives les concernant sont toutes fausses.

Les plus grandes entreprises technologiques s'engagent à lutter contre les deepfakes

En février dernier, 20 grandes entreprises technologiques, dont Microsoft, Meta, Google, Amazon, IBM, ainsi que la société d'intelligence artificielle OpenAI et des entreprises de médias sociaux comme Snap, TikTok et X, ont convenu d'un engagement commun pour lutter contre l'utilisation de l'intelligence artificielle à des fins de fraude électorale lors des élections de cette année.

Cet engagement commun constitue une première étape importante, mais son efficacité dépend de sa mise en œuvre et de son application. Cela nécessitera une approche multidimensionnelle de la part des entreprises technologiques afin de déployer différentes mesures sur leurs plateformes, a déclaré Soon. Ces entreprises doivent également garantir la transparence de leurs décisions, notamment en ce qui concerne les processus qu'elles suivent.

Cependant, selon M. Simon Chesterman, il n'est pas excessif d'attendre des entreprises privées qu'elles assurent des fonctions communautaires de base. Décider quel contenu est autorisé sur les réseaux sociaux est une décision complexe, et certaines entreprises peuvent même mettre des mois à se décider.

Pour atteindre cet objectif, la Content Attestation and Authentication Alliance (C2PA) a mis en place une plateforme dédiée à l'authentification des contenus numériques. Cette plateforme permet aux utilisateurs de recevoir des informations vérifiées, telles que des renseignements sur le créateur, l'origine et la date de création, ainsi que sur la nature générale des informations ou leur origine (génération par intelligence artificielle, par exemple).

Parmi les entreprises membres de C2PA figurent Adobe, Microsoft, Google et Intel. OpenAI a annoncé en début d'année le déploiement de sa technologie d'authentification C2PA pour les images générées par son modèle de langage génératif d'images DALL·E 3.

Dans une interview accordée à Bloomberg House lors du Forum économique mondial en janvier, Sam Altman, fondateur et PDG d'OpenAI, a déclaré que l'entreprise s'attachait à veiller à ce que sa technologie ne soit pas utilisée pour manipuler les élections.

Adam Meyers, de la société de cybersécurité CrowdStrike, a proposé la création d'une organisation technique à but non lucratif et apolitique chargée d'analyser et d'identifier les deepfakes. « Le public pourrait leur signaler tout contenu qu'il soupçonne d'avoir été manipulé. Communiquer ce genre de situation n'est pas chose facile, mais au moins il existerait un mécanisme de confiance », a déclaré Meyers.

Mais en fin de compte, si la technologie fait partie de la solution, une grande partie repose sur les utilisateurs. Le public doit être plus vigilant et, outre la vérification des faits lorsqu'une information semble très suspecte, les utilisateurs doivent également vérifier l'exactitude des informations importantes, notamment avant de les partager.

Journal Nghe An en vedette

Dernier

x
Les arnaques par deepfake vont augmenter en 2024.
ALIMENTÉ PARUNCMS- UN PRODUIT DENEKO