Transformation numérique

5 dangers potentiels lorsque vous fournissez des informations personnelles à des chatbots IA

Phan Van Hoa DNUM_ABZAJZCACF 14:26

À l'ère de l'intelligence artificielle (IA), les chatbots sont de plus en plus populaires en tant qu'outils d'assistance intelligents. Cependant, le partage d'informations personnelles avec ces chatbots IA présente de nombreux risques en matière de sécurité, de confidentialité et de protection des données.

Il ne fait aucun doute que l'IA révolutionne le monde. L'explosion des grands modèles de langage (LLM), notamment depuis le lancement de ChatGPT d'OpenAI fin 2022, a fait de l'IA un outil familier pour des centaines de millions d'utilisateurs.

Grâce à leur capacité à accompagner, suggérer et même accompagner dans de nombreuses situations, les chatbots IA sont rapidement utilisés non seulement pour rechercher des informations ou du travail, mais aussi comme « compagnon ».

Ảnh minh họa1
Photo d'illustration.

De plus en plus de personnes partagent des aspects intimes de leur vie avec l'IA, y compris des données sensibles. Mais comme sur les réseaux sociaux, révéler trop d'informations peut avoir des conséquences inattendues. Voici cinq raisons d'être prudent.

1. Les fuites de données constituent une menace pour la sécurité

Les violations de données ne constituent pas seulement un risque technologique, mais aussi une menace directe pour la vie privée et la sécurité des personnes. De fait, la cybersécurité est l'un des secteurs de l'économie numérique qui connaît la croissance la plus rapide, les dommages étant de plus en plus graves.

Selon le FBI (Federal Bureau of Investigation) des États-Unis, la cybercriminalité a causé à elle seule plus de 16 milliards de dollars de pertes en 2024, soit une hausse de 33 % par rapport à l'année précédente. La fraude en ligne et les violations de données personnelles figuraient parmi les trois types de criminalité les plus courants.

Il est inquiétant de constater que seulement 24 % environ des initiatives d’IA générative sont entièrement protégées contre les cyberattaques, ce qui expose les utilisateurs à un risque élevé s’ils partagent des informations trop librement.

En fait, il y a eu de nombreuses violations de données, comme ChatGPT, qui a été impliqué dans une violation de données en mai 2023, exposant les informations sensibles de près de 100 000 utilisateurs et forçant la plateforme à suspendre temporairement ses opérations.

La même année, un groupe de journalistes du New York Times a découvert que leurs informations personnelles avaient été divulguées lors d'un test. Ces incidents nous rappellent brutalement que l'envoi de données personnelles identifiables à des chatbots IA n'est jamais une option sûre.

2. Les deepfakes pourraient devenir un outil d'escroquerie par usurpation d'identité

Partager des informations personnelles avec des outils d'IA augmente non seulement le risque de violation de données, mais ouvre également la voie à une menace plus sophistiquée : la fraude par deepfake. De nos jours, de nombreuses personnes téléchargent régulièrement leurs photos sur des services de retouche basés sur l'IA, de leur embellissement à la création d'images entièrement nouvelles, sans se soucier des conséquences.

Cette commodité fournit par inadvertance de la matière première aux méchants pour créer des deepfakes, des images ou des vidéos manipulées numériquement qui donnent l’impression qu’un personnage fait ou dit quelque chose qui ne s’est jamais produit.

Cette technologie est de plus en plus difficile à détecter et peut tromper aussi bien les utilisateurs lambda que les systèmes d'authentification de base. Par conséquent, les cybercriminels peuvent facilement l'exploiter pour usurper une identité, commettre une fraude, faire du chantage ou nuire gravement à la réputation d'une personne.

Si les deepfakes entièrement créés à partir de données personnelles identifiables restent rares, la capacité à recréer des voix et des images saisissantes à partir de données divulguées est devenue une menace existentielle. Ce danger est particulièrement grand lorsque les données privées des utilisateurs tombent entre de mauvaises mains, ouvrant la voie à des fraudes de plus en plus difficiles à contrôler.

3. Les chatbots IA se souviennent de plus de choses que vous ne le pensez

L'une des règles tacites de l'ère numérique est qu'« Internet n'oublie jamais ». Cela s'applique non seulement aux recherches Google et aux publications sur les réseaux sociaux, mais aussi aux conversations avec les chatbots IA.

Beaucoup pensent qu'en appuyant sur « Supprimer », leurs données disparaissent définitivement. Mais la réalité est plus complexe. Par exemple, OpenAI indique que les conversations ChatGPT ne sont définitivement supprimées du système que dans les 30 jours suivant la suppression complète du compte par l'utilisateur. Pour ceux qui continuent à l'utiliser, certaines conversations ne peuvent pas être supprimées définitivement de l'historique.

Ảnh minh họa2
Le partage d'informations personnelles avec des chatbots IA comme ChatGPT présente de nombreux risques pour la sécurité, la confidentialité et la sécurité des données. Photo : Internet.

Une étude de l'Université de Caroline du Nord (États-Unis) montre que la suppression de données dans de grands modèles linguistiques est possible, mais quasiment impossible à vérifier avec certitude. Cela signifie que les chatbots sont capables de mémoriser bien plus de données que les utilisateurs ne le pensent.

Lorsque les informations personnelles sont conservées à long terme, les risques augmentent considérablement en cas de violation de données, de cyberattaque ciblée ou simplement de changement de politique du fournisseur de services. Dans de tels cas, les conséquences pour les utilisateurs peuvent être désastreuses.

4. Fournir des données permettant aux chatbots IA d'apprendre peut porter atteinte à vos droits de propriété intellectuelle.

Les systèmes d'IA modernes reposent sur des algorithmes d'apprentissage automatique qui s'appuient sur des millions d'ensembles de données pour identifier des modèles et générer des réponses appropriées. Il est important de noter que ce processus d'apprentissage ne s'arrête pas une fois l'IA déployée, et que les données utilisateur recueillies lors des conversations, des interactions et des téléchargements de contenu peuvent devenir une « matière première » permettant au modèle de continuer à s'améliorer.

Cela signifie que toute information que vous fournissez, même involontairement, est potentiellement utilisée pour entraîner l'IA. Fin 2024, le réseau social LinkedIn a essuyé une vague de critiques après avoir admis utiliser les données des utilisateurs pour entraîner ses outils d'IA. Suite à ce tollé, l'entreprise a été contrainte d'ajouter une option de désinscription, mais en réalité, peu de personnes sont au courant ou actives dans sa modification.

LinkedIn ne fait pas exception. Meta exploite également les données de Facebook et d'Instagram, tandis qu'Amazon utilise les conversations avec Alexa pour développer ses modèles. Les conséquences peuvent entraîner de graves violations de propriété intellectuelle, les œuvres générées par l'IA portant parfois une trop grande empreinte personnelle des auteurs et des artistes, les exposant ainsi au risque d'être « copiées » directement sur la plateforme numérique. Ce phénomène est à l'origine de nombreux recours collectifs et d'une vague de protestations de la part de la communauté créative.

5. Les chatbots IA peuvent utiliser vos informations personnelles contre vous

Les risques liés au partage de données personnelles avec l'IA vont au-delà de la violation de la propriété intellectuelle et peuvent impliquer des biais dans les grands modèles linguistiques. Étant entraînés sur de grands volumes de données, ces outils sont susceptibles d'absorber des biais sociaux, ce qui peut conduire à des décisions ou des recommandations discriminatoires.

Le Centre sur la confidentialité et la technologie de l'Université de Georgetown estime que la moitié des adultes aux États-Unis ont des photos dans les bases de données de reconnaissance faciale des forces de l'ordre.

Parallèlement, les Afro-Américains représentent près de 40 % de la population carcérale. Lorsque ces données sont intégrées aux systèmes d'IA, les algorithmes sont plus susceptibles de commettre des erreurs dans l'identification des suspects ou dans l'association d'un visage à une description textuelle ou visuelle.

Les risques ne se limitent pas à la sécurité : la technologie de l’IA est également appliquée à la sélection des candidats à un emploi, à l’approbation des prêts ou à la location de maisons, et peut refléter complètement les préjugés cachés.

Amazon a été contraint d'arrêter son système de recrutement automatisé en 2015 après avoir découvert des préjugés sexistes. Cela montre que, même s'il est difficile pour les individus de contrôler les données qui alimentent l'IA, la prudence dans le partage d'informations reste un moyen nécessaire de se protéger des biais technologiques.

Selon Slashgear
Copier le lien

Journal Nghe An en vedette

Dernier

x
5 dangers potentiels lorsque vous fournissez des informations personnelles à des chatbots IA
ALIMENTÉ PARUNCMS- UN PRODUIT DENEKO