5 conseils pour repérer les faux contenus générés par l'IA
Les vidéos générées par l'IA ont explosé ces derniers temps, brouillant la frontière entre le vrai et le faux. Pour éviter de vous faire avoir, voici quelques conseils simples pour vous aider à distinguer les contenus dignes de confiance.
Alors que l'IA progresse à une vitesse fulgurante, il devient de plus en plus difficile de distinguer le vrai du faux en ligne. Les images fixes, comme les vidéos générées par l'IA, connaissent un essor fulgurant grâce à des outils comme Sora d'OpenAI et Veo de Google. Il devient donc crucial de distinguer le vrai du faux.

Actuellement, les logiciels de détection de vidéos générées par l'IA sont limités, à l'exception des outils dédiés à la détection des deepfakes. Nous sommes donc largement contraints de nous fier à notre propre observation et à notre intuition. Voici quelques signes clés qui peuvent aider à reconnaître une fausse vidéo générée par l'IA.
1. Les fausses vidéos générées par l'IA ne respectent souvent pas les lois de la physique
L'un des moyens les plus simples de repérer une fausse vidéo générée par l'IA est de vérifier si elle obéit aux lois de la physique. Dans le monde réel, les verres ne lévitent pas, les liquides ne traversent pas les objets solides, mais avec Sora d'OpenAI, ces absurdités peuvent se produire.
Même OpenAI admet que Sora ne simule pas avec précision les interactions de base comme le verre brisé. Lorsque vous regardez des vidéos, soyez attentif à l'action principale et aux détails de l'arrière-plan pour repérer toute anomalie.
Écoutez également votre intuition. Si quelque chose vous semble anormal, même si vous ne parvenez pas à l'exprimer avec des mots, cela pourrait indiquer que la vidéo a été générée par l'IA.
2. Observez attentivement les réactions du monde qui vous entoure.
La réaction du monde environnant est également un signe important pour reconnaître les vidéos d'IA. Dans la vraie vie, croquer une pomme devrait la faire disparaître, mais dans le monde de Sora, ce n'est pas forcément le cas.
OpenAI reconnaît que des interactions comme manger ne produisent pas toujours le même changement d'état dans l'objet. Ainsi, lorsque vous regardez une vidéo, vous devez prêter attention non seulement à l'action, mais aussi à la réaction qui l'accompagne, c'est-à-dire aux conséquences physiques, aux changements dans l'environnement ou dans l'objet.
Par exemple, une personne marche sur du sable mais ne laisse aucune nouvelle empreinte ou de l’eau est renversée sur le sol mais le sol reste sec, sans aucune tache.
3. Voyez-vous quelque chose d’inhabituel dans la vidéo ?
Avez-vous déjà regardé une vidéo et senti que quelque chose clochait, sans pouvoir immédiatement mettre le doigt dessus ? C’est une expérience courante lorsqu’on regarde des vidéos générées par l’IA.
Les anomalies peuvent être évidentes, mais il s'agit parfois d'un simple détail fugace et vague qui vous oblige à vous interroger : « Quel moment m'a mis mal à l'aise ? » Ce sont ces petits détails qui révèlent souvent des incohérences dans la logique de fonctionnement du monde virtuel construit par l'IA.

Par exemple, dans une vidéo, on voit une main humaine peindre soigneusement une branche de cerisier en fleurs. Les coups de pinceau se déplacent continuellement, l'image apparaît progressivement, mais étrangement, la couleur des traits change soudainement, même si le pinceau n'a jamais été replongé dans la palette. C'est un exemple typique d'« erreurs subtiles » que le spectateur doit être attentif à repérer.
4. Essayez le « traçage inversé » en recréant la vidéo
Une autre approche pour aider les utilisateurs à évaluer l’authenticité des vidéos générées par l’IA consiste à essayer de « revenir en arrière » en recréant la vidéo.
Les passionnés de l'outil de conversion de texte en image Midjourney ont expérimenté une approche de « traçage inversé ». Ils ont observé attentivement les vidéos générées par Sora, puis ont réécrit des descriptions proches des images originales et les ont intégrées à l'outil Midjourney pour générer des images fixes.
Les résultats ont montré que, dans de nombreux cas, les vidéos de Sora n'étaient que des « photos animées de mi-parcours ». Cela illustre le lien étroit entre les modèles de génération d'images et de vidéos, et soulève des questions sur le véritable niveau de créativité de Sora.
Si vous souhaitez exploiter davantage vos sens lors de l'analyse d'une vidéo, vous pouvez essayer une approche similaire. Imaginez la description qui pourrait correspondre à la scène et utilisez un outil de conversion de texte en image pour vérifier sa similarité.
Ensuite, effectuez une recherche Google pour voir si la vidéo provient de données publiques. Cette méthode n'est pas parfaite, mais elle constitue une boussole utile pour déterminer s'il s'agit d'une vidéo authentique ou d'une création d'IA.
5. Soyez toujours vigilant et mettez à jour vos connaissances technologiques
La technologie d'IA permettant de générer des vidéos à partir de texte en est encore à ses balbutiements, mais son développement est extrêmement rapide. En peu de temps, les modèles d'IA peuvent créer des vidéos extrêmement détaillées, difficiles à distinguer du vrai du faux.
Cela signifie que le risque d'être trompé par du contenu généré par l'IA augmente. La meilleure façon d'éviter d'en être victime est d'apprendre à « évoluer » avec la technologie, ce qui implique de se tenir au courant des dernières connaissances, de surveiller les nouveaux outils et de pratiquer l'analyse d'images et de sons.