Avertissement sur l'essor de la fausse pornographie à l'ère de l'IA
Avec le développement rapide de l'intelligence artificielle (IA), le problème des deepfakes pornographiques s'accroît à un rythme alarmant. Les experts avertissent que le développement de la technologie deepfake est exploité pour créer de faux contenus pornographiques, causant de graves dommages aux victimes et à la société.
Le deepfake porn est l'utilisation de la technologie de l'IA pour créer ou éditer des vidéos, des images ou d'autres contenus pornographiques, dans lesquels le visage ou le corps d'une personne est composé ou édité pour apparaître comme si elle se livrait à des actions ou à des situations sexuellement explicites qui ne le sont pas.
Les progrès des outils d’IA ont rendu plus facile que jamais la création et la diffusion d’images pornographiques deepfake sans le consentement de la victime.
« Tout être humain peut être victime de deepfake porn. » C'est ainsi que Carrie Goldberg, avocate américaine spécialisée dans les crimes sexuels et la protection de la vie privée en ligne, décrit les risques que représente le deepfake porn à l'ère de l'IA, où n'importe qui peut être exploité sans même le savoir.

La pornographie de vengeance, c'est-à-dire le partage d'images sexuellement explicites sans consentement, existe depuis la création d'Internet. Cependant, l'essor des outils d'IA a accru les risques et élargi le public cible de cette forme de harcèlement.
Aujourd'hui, n'importe qui peut devenir victime, même sans avoir jamais pris ou envoyé de photo de nu. Les outils d'IA modernes sont capables de superposer le visage d'une personne sur un corps nu ou de retoucher des photos existantes pour donner l'impression que la victime est dévêtue, alors que c'est l'inverse.
Au cours de l'année écoulée, la pornographie non consensuelle générée par l'IA a ciblé un large éventail de personnes, des femmes célèbres aux lycéennes. La diversité des victimes montre l'ampleur de cette forme de harcèlement malveillant et comment n'importe qui peut en être victime.
Découvrir que vous ou votre enfant avez été la cible de deepfakes pornographiques est souvent une expérience terrifiante et déprimante, explique Carrie Goldberg. « C'est particulièrement effrayant pour les jeunes qui ne savent pas comment gérer cette situation. Internet, avec son immensité et son ambiguïté, peut être un lieu rempli de menaces », ajoute-t-elle.
Alors que les entreprises technologiques et les législateurs s'efforcent de lutter contre ce fléau, la réalité est que ces outils restent largement disponibles. Alors, que pouvez-vous faire pour vous protéger et protéger vos proches ?
Carrie Goldberg offre quelques conseils importants pour faire face à cette menace. Si vous êtes la cible de pornographie générée par l'IA, la première étape consiste à faire une capture d'écran. Cela permet de préserver des preuves importantes, facilite la procédure judiciaire et protège les droits des victimes.
Ensuite, les victimes peuvent rechercher et utiliser les formulaires fournis par les principales plateformes de médias sociaux comme Google, Meta et Snapchat pour demander la suppression des images pornographiques diffusées.
De plus, des associations à but non lucratif comme StopNCII.org et Take It Down proposent une assistance pour gérer les demandes de suppression de contenu sur plusieurs plateformes. Cependant, Goldberg souligne que tous les sites ne coopèrent pas avec ces groupes, ce qui complique parfois la suppression d'images.
Aux États-Unis, un groupe d’adolescents et de parents victimes de pornographie générée par l’IA se sont présentés lors d’une audience au Capitole pour partager leurs histoires.
Lors de l'audience, le sénateur républicain Ted Cruz a présenté un projet de loi qui a reçu le soutien de la sénatrice démocrate Amy Klobuchar et de nombreux autres collègues.
Le projet de loi criminaliserait la distribution de pornographie non consensuelle générée par l'IA et obligerait les plateformes de médias sociaux à supprimer du contenu dès réception d'une demande d'une victime, une étape majeure vers la protection de la vie privée et la prévention du harcèlement numérique.
Mais les victimes sont souvent contraintes de naviguer dans la complexité et les chevauchements des lois des États. Dans certaines régions, il n'existe aucune loi pénale claire interdisant la création ou la diffusion de pornographie adulte « deepfake », ce qui complique la recherche de justice.
L'avocat Goldberg a partagé franchement : « Mon conseil ne s'adresse pas seulement aux victimes, mais aussi à ceux qui ont l'intention de commettre des crimes : ne devenez pas une personne vile, ne volez pas l'image des autres et ne la transformez pas en un outil pour les humilier. »
Elle a souligné que même si les victimes ont peu de moyens d'empêcher complètement ces comportements, en particulier dans une société numérique en constante évolution, la sécurité et le respect en ligne dépendent toujours du sens moral de chacun : « Nous ne pouvons pas obtenir une protection absolue, mais ne pas être un connard est entièrement la responsabilité de chaque individu. »