Les pays et les régions du monde entier encouragent le développement de réglementations sur l’intelligence artificielle.

Phan Van Hoa June 23, 2023 10:08

(Baonghean.vn) - Le développement rapide de l'intelligence artificielle (IA) en général, et de l'IA générative comme ChatGPT en particulier, apporte de nombreux avantages considérables. De plus, ces technologies émergentes comportent des risques potentiels, obligeant les pays et les régions à promouvoir l'élaboration de réglementations de contrôle.

Anh minh hoa1.jpg
Photo d'illustration.

Qu'est-ce que l'intelligence artificielle générative ?

L'intelligence artificielle générative (IA générative) est une branche de l'intelligence artificielle qui décrit une classe d'algorithmes capables de générer du nouveau contenu, notamment du texte, des images, des vidéos et de l'audio. Développée à partir des avancées de l'apprentissage profond, l'IA générative produit des résultats similaires à ceux générés par les humains. ChatGPT est la dernière avancée en matière d'IA générative.

L'IA générative permet aux ordinateurs de créer toutes sortes de contenus innovants et stimulants, allant de la musique et de l'art à des mondes virtuels complets. Au-delà du divertissement, l'IA générative offre un large éventail d'applications pratiques, comme la conception de nouveaux produits et l'optimisation des processus métier.

L'IA générative a connu un essor considérable dès ses débuts. Cette puissante technologie disruptive sera bientôt utilisée par les entreprises, existantes comme nouvelles, pour réduire les coûts, fournir de nouveaux services plus performants et plus rapides, et créer de nouvelles capacités de production.

L'IA générative offre des perspectives positives pour l'économie et la société, mais elle comporte également des risques. Par conséquent, la prise de contre-mesures appropriées jouera un rôle important.

Les discussions concernant la réglementation de l’IA générative se sont intensifiées à l’échelle mondiale ces derniers temps, les dirigeants de la science des données et les acteurs de la technologie s’inquiétant des risques sociétaux, notamment de la désinformation et du déplacement des emplois.

Le 30 mai, des scientifiques et des leaders technologiques du monde entier ont signé une lettre ouverte pour reconnaître publiquement les dangers de l’intelligence artificielle, qui pourraient même conduire à l’extinction de l’humanité.

« Minimiser le risque d’extinction que représente pour l’humanité l’IA générée artificiellement doit être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et la guerre nucléaire », indique la lettre.

Sam Altman, PDG d'OpenAI – la société qui a recherché et fourni les produits ChatGPT, et Geoffrey Hinton, un informaticien connu comme le « parrain » de l'intelligence artificielle, ainsi que des centaines de personnes célèbres dans le monde, ont signé la lettre publiée sur le site Web du Center for AI Safety – une organisation à but non lucratif basée à San Francisco (États-Unis).

Les inquiétudes concernant les systèmes d'intelligence artificielle incontrôlés et plus intelligents que les humains s'accroissent, car les chatbots IA de nouvelle génération ont le potentiel de remplacer les humains à l'avenir. Avec l'émergence récente de chatbots IA comme ChatGPT, les pays du monde entier ont œuvré à la mise en place de réglementations pour cette technologie émergente afin de minimiser les risques associés.

Australie

Le gouvernement australien a récemment annoncé le budget fédéral 2023, qui prévoit un investissement de 26,9 millions de dollars dans le réseau d'IA responsable afin de déployer diverses technologies d'IA responsable à travers le pays. Les régulateurs australiens font pression pour une réglementation visant à apaiser les inquiétudes partagées par la Commissaire australienne aux droits de l'homme Lorraine Finlay, qui a déclaré que les chatbots IA comme ChatGPT de Microsoft et Bard de Google pourraient être nocifs pour la société.

Par ailleurs, des discussions sont en cours entre les organismes de réglementation sur d'éventuelles modifications de la Loi sur la protection des renseignements personnels afin de remédier au manque de transparence pouvant résulter de l'entraînement de modèles d'IA sans supervision humaine. Des discussions portent également sur l'utilisation de données et de données biométriques pour l'entraînement de modèles, ce qui pourrait nécessiter des règles de confidentialité supplémentaires.

Victor Dominello, membre du Conseil australien des technologies, a appelé à la création d'un « comité de surveillance au sein du régulateur technologique » pour surveiller et suivre le développement de la technologie d'IA générative et conseiller les agences gouvernementales sur la manière de surveiller cette technologie émergente pour détecter les risques potentiels.

Brésil

Le processus législatif lié à l’IA au Brésil a été stimulé par un cadre juridique approuvé par le gouvernement en septembre 2022, mais a été critiqué en raison du flou des réglementations.

Lors du lancement de ChatGPT en novembre dernier, des discussions ont eu lieu et un rapport a été transmis au gouvernement brésilien, détaillant les propositions relatives à la réglementation de l'IA. L'étude, menée par des juristes, des scientifiques, des chefs d'entreprise et des membres de l'Autorité nationale de contrôle de la protection des données (ANPD), a porté sur trois domaines principaux : les droits des citoyens, la classification des risques, ainsi que les mesures de gouvernance et les sanctions administratives liées à la gestion et à l'utilisation de l'IA.

Ce document est actuellement en cours de discussion au sein du gouvernement brésilien et aucune date de publication précise n’a encore été communiquée.

Amérique

Les États-Unis, terreau fertile d'innovateurs et de développeurs en IA, dont OpenAI, créateur de ChatGPT, ont renforcé la réglementation des outils d'IA. Le directeur de la Federal Trade Commission (FTC) a déclaré le 3 mai que l'agence s'engageait à utiliser la législation existante pour limiter les dangers de l'IA artificielle, tels que l'expansion de l'influence des grandes entreprises et les comportements frauduleux.

Canada

La loi sur l’intelligence artificielle et les données (AIDA) devrait être introduite dès 2025. De plus, des réglementations juridiques sont à l’étude pour gérer les risques et les pièges causés par l’IA afin d’encourager une adoption responsable de cette technologie.

Selon le gouvernement du Canada, l’approche fondée sur les risques est conforme aux réglementations similaires en vigueur aux États-Unis et dans l’Union européenne, et prévoit s’appuyer sur les lois canadiennes existantes en matière de droits de la personne et de protection des consommateurs pour reconnaître la nécessité de systèmes d’IA « à fort impact » pour respecter les lois sur les droits de la personne et la sécurité de l’information.

Les autorités canadiennes seront chargées de veiller à ce que les nouvelles réglementations suivent le rythme des développements technologiques et minimisent leur utilisation à des fins malveillantes.

Chine

L'Administration chinoise du cyberespace (CAC) rédige actuellement une réglementation concernant les services d'IA destinés aux citoyens chinois, notamment les chatbots. Une proposition a été avancée pour inciter les entreprises technologiques chinoises à enregistrer leurs modèles d'IA générative auprès de l'Administration chinoise du cyberespace avant de commercialiser leurs produits.

Selon le projet de loi, l'évaluation de ces nouveaux produits d'IA devra garantir la légalité des sources de données avant leur formation, les développeurs étant tenus de démontrer leur conformité aux valeurs fondamentales du socialisme. L'utilisation de données personnelles à des fins de formation sera interdite et les utilisateurs devront justifier de leur véritable identité. De plus, les modèles d'IA qui diffusent des contenus extrémistes, violents, pornographiques ou des messages appelant au « renversement du gouvernement » enfreindront la réglementation.

Les contrevenants s'exposeront désormais à une amende comprise entre 10 000 yuans (environ 1 454 dollars) et 100 000 yuans (environ 14 545 dollars), ainsi qu'à une suspension de service et à une possible enquête criminelle. De plus, les fournisseurs partageant du contenu jugé inapproprié seront tenus de mettre à jour leurs systèmes dans un délai de trois mois afin de s'assurer de ne pas récidiver. Le projet de loi devrait être finalisé d'ici la fin de l'année.

Union européenne

L'Union européenne est considérée comme un pionnier, son projet de loi sur l'IA devant être approuvé plus tard cette année. L'élaboration de ce projet de loi marque une étape décisive dans la course aux réglementations en matière d'IA, qui s'est intensifiée ces derniers temps. Ce projet de loi, baptisé « European AI Act », est également la première loi occidentale relative aux systèmes d'IA.

La loi de l'Union européenne (UE) sur l'IA est actuellement en cours d'élaboration au Parlement européen, et son vote en plénière est prévu en juin prochain. La réglementation de l'intelligence artificielle dans la région est en cours d'élaboration depuis plusieurs années, la Commission européenne ayant soumis une proposition en avril 2021.

Le projet de loi de l’UE sur l’IA classe les applications de l’IA en quatre niveaux de risque : risque inacceptable, risque élevé, risque limité et risque minimal ou nul.

Risque inacceptable :Comprend tous les systèmes qui représentent une menace claire pour la sécurité et les droits des citoyens, tels que les systèmes qui évaluent le comportement et le mode de vie des citoyens d’un pays et les assistants vocaux qui présentent un risque de préjudice.

Risque élevé :Utiliser l’intelligence artificielle dans les infrastructures critiques comme les transports, l’éducation, l’application de la loi, le recrutement et les robots de santé.

Risque limité :En utilisant des chatbots, les utilisateurs doivent être clairement informés dès le départ de la raison de leur interaction avec les systèmes.

RRisque minimal ou nul :Y compris des systèmes tels que des jeux vidéo alimentés par l’IA ou des filtres anti-spam qui impliquent une IA générative.

Inde

En mars 2021, le gouvernement indien a annoncé une approche prudente en matière de réglementation de l'IA afin de favoriser l'innovation dans tout le pays. Les technologies liées à l'IA ont été qualifiées d'« essentielles et stratégiques » par le ministère indien de l'Électronique et des Technologies de l'information, mais l'agence a indiqué qu'elle mettrait en place des politiques et des mesures d'infrastructure pour lutter contre les préjugés, la discrimination et les problèmes éthiques.

Le gouvernement indien a proposé des cadres réglementaires volontaires pour encadrer l'IA. La Stratégie nationale pour l'intelligence artificielle de 2018 s'est penchée sur cinq domaines clés du développement de l'IA : l'agriculture, l'éducation, la santé, les villes intelligentes et la mobilité intelligente. Puis, en 2020, l'utilisation éthique de l'IA a été détaillée dans le projet de Stratégie nationale pour l'intelligence artificielle, qui exige que tous les systèmes soient transparents, responsables et impartiaux.

Corée

Le projet de loi sud-coréen sur l'IA est actuellement en cours d'élaboration et devrait être prochainement soumis au vote de l'Assemblée nationale. Il précisera donc quels nouveaux modèles d'IA peuvent être créés sans l'approbation du gouvernement et quels modèles doivent être approuvés par celui-ci avant leur mise sur le marché.

Ce nouveau projet de loi sur l’IA se concentre également sur l’établissement de réglementations juridiques liées au développement responsable des systèmes d’IA.

En outre, la Commission de protection des informations personnelles du pays a annoncé son intention de créer un groupe de travail chargé d'examiner la protection des données biométriques, sur la base du développement de l'IA générative.

Royaume-Uni

Au Royaume-Uni, en plus de publier un livre blanc comprenant des conseils spécifiques sur la mise en œuvre des réglementations liées à l'IA, le gouvernement britannique a annoncé le 9 mai qu'il commencerait à évaluer l'impact de l'IA artificielle sur les consommateurs, les entreprises et l'économie, ainsi qu'à envisager la possibilité d'appliquer de nouvelles mesures pour contrôler les technologies telles que ChatGPT de la société OpenAI.

Actuellement, la réglementation de l'IA générative au Royaume-Uni relève des autorités de régulation sectorielles où l'IA est utilisée, sans aucune législation commune prévue au-delà du Règlement général sur la protection des données (RGPD) de l'Union européenne. Le gouvernement a adopté une approche « pro-innovation » dans ses déclarations officielles sur le sujet, visant à positionner le Royaume-Uni comme leader dans la course mondiale à l'IA.

Parallèlement, l'Autorité britannique de la concurrence et des marchés (CMA) a lancé une étude sur les modèles de plateformes d'IA, examinant le développement d'outils tels que ChatGPT afin de prendre en compte la concurrence et la protection des consommateurs. Les résultats de cette étude seront publiés début septembre 2023, a indiqué l'agence.

Japon

Selon les responsables japonais, l'IA générative offre des perspectives positives pour l'économie et la société, mais comporte également des risques. Par conséquent, l'élaboration de contre-mesures appropriées dans ces deux domaines jouera un rôle important.

Le Premier ministre japonais Kishida Fumido a déclaré qu'il demanderait aux agences compétentes de promouvoir rapidement les discussions dans de nombreux domaines afin de maximiser les perspectives et de répondre aux risques liés à l'IA artificielle.

Les responsables japonais ont également déclaré qu’ils élaboreraient des règles internationales pour l’IA artificielle.

Selon l'ère de l'information
Copier le lien

Journal Nghe An en vedette

Dernier

x
Les pays et les régions du monde entier encouragent le développement de réglementations sur l’intelligence artificielle.
ALIMENTÉ PARUNCMS- UN PRODUIT DENEKO