Une vidéo d'IA montrant une fausse inondation à Gyeongbokgung suscite des remous et des inquiétudes quant à la manipulation de l'information
L'explosion de la technologie de génération de vidéos par l'IA pose un défi majeur aux fausses nouvelles en Corée du Sud, alors qu'un clip simulant un palais de Gyeongbokgung inondé devient viral.
Une vidéo de l'inondation du palais de Gyeongbokgung prise par l'IA provoque l'indignation du public
Une vidéo créée à l'aide de l'intelligence artificielle (IA) simulant la scène du palais de Gyeongbokgung à Séoul submergé par l'eau fait sensation dans la communauté en ligne coréenne.
La vidéo, publiée par la chaîne YouTube « Golpadak », s'ouvre sur un homme vêtu d'un imperméable jaune debout devant le palais, déclarant : « Il pleut tellement fort… Gyeongbokgung est complètement inondé. » On y voit ensuite des gens écoper de l'eau avec des seaux et même un phoque glisser sur le terrain du palais.
Malgré les détails absurdes, la vidéo a quand même fait croire à de nombreuses personnes qu'elle était réelle, car elle coïncidait avec la période où Séoul a connu des pluies record.
Il a été confirmé plus tard que la vidéo était un produit Veo 3 de Google, qui permet des images et des dialogues réalistes. De nombreuses personnes ont exprimé leur indignation, estimant que le créateur devrait être sanctionné pour avoir délibérément diffusé de fausses informations.
Préoccupations liées aux deepfakes et au défi du contrôle de l'information
L'incident des fausses vidéos des inondations de Gyeongbokgung n'est pas un cas isolé. Des dizaines de fausses vidéos similaires sur les inondations ont fait leur apparition sur YouTube, suscitant de vives réactions de la part des médias et des experts. Ces derniers avertissent que le public est de plus en plus trompé par les contenus générés par l'IA, même lorsque les détails des vidéos sont quelque peu absurdes.

Auparavant, une autre fausse vidéo simulant une coulée de lave au cœur de Séoul avait également semé la confusion parmi les spectateurs. Le créateur de la vidéo, le YouTubeur « Ddalgak », a déclaré que son objectif était de satiriser la crédulité des internautes face aux contenus en ligne. Il a également admis avoir utilisé Veo 3 pour créer cette vidéo, inspirée d'une arnaque impliquant un deepfake d'Elon Musk.

La Corée du Sud renforce son contrôle : la loi sur l’IA et ses failles
En réponse à la vague généralisée de deepfakes, la Corée du Sud a promulgué la « Loi fondamentale sur l'IA », qui entrera en vigueur en janvier 2026. Cette loi exige que toutes les vidéos utilisant l'IA soient filigranées afin que les spectateurs puissent les identifier facilement. Cependant, les experts craignent que les filigranes puissent être facilement supprimés ou modifiés, ce qui réduirait l'effet dissuasif de cette mesure.
« Le développement de technologies par les entreprises d'IA pour identifier les faux contenus réduira les coûts sociaux et sera plus efficace que les mesures administratives », a déclaré Choi Byung-ho, expert à l'Institut de recherche en IA de l'Université de Corée.
Deepfakes : du divertissement à la fraude et à la manipulation politique
Les deepfakes ne sont plus seulement destinés au divertissement ou à la satire, mais deviennent un outil pour des activités illégales graves. Ils sont utilisés pour créer du contenu offensant sans consentement, pour commettre des fraudes financières et même pour manipuler les politiques.
Lors des élections législatives de l'année dernière, l'agence électorale nationale sud-coréenne a détecté et traité plus de 120 fausses images et vidéos d'IA. Cela a conduit à une obligation claire de divulgation publique lors de l'utilisation de l'IA dans les contenus de campagne, afin de garantir la transparence et l'équité pour les électeurs.
Le développement rapide de la technologie deepfake nécessite des mesures de contrôle et d’identification plus efficaces pour protéger les personnes contre la désinformation et les fraudes potentielles.