Les pays et les régions du monde entier encouragent le développement de réglementations sur l’intelligence artificielle.
(Baonghean.vn) - Le développement rapide de l'intelligence artificielle (IA) en général, et de l'IA générative comme ChatGPT en particulier, apporte de nombreux avantages. De plus, ces technologies émergentes présentent des risques potentiels, obligeant les pays et les régions à promouvoir l'élaboration de réglementations de contrôle.

Qu'est-ce que l'intelligence artificielle générative ?
L'intelligence artificielle générative (IA générative) est une branche de l'intelligence artificielle qui décrit une classe d'algorithmes capables de générer du nouveau contenu, notamment du texte, des images, des vidéos et de l'audio. Développée à partir des avancées de l'apprentissage profond, l'IA générative produit des résultats similaires à ceux générés par les humains. ChatGPT est la dernière avancée en matière d'IA générative.
L'IA générative permet aux ordinateurs de créer toutes sortes de contenus innovants et stimulants, de la musique et de l'art à des mondes virtuels complets. Au-delà du divertissement, l'IA générative offre un large éventail d'applications pratiques, comme la conception de nouveaux produits et l'optimisation des processus métier.
L'IA générative a connu un essor considérable dès ses débuts. Cette puissante technologie disruptive sera bientôt utilisée par les entreprises, existantes comme nouvelles, pour réduire les coûts, fournir de nouveaux services plus performants et plus rapides, et créer de nouvelles capacités de production.
L'IA générative offre des perspectives positives pour l'économie et la société, mais elle comporte également des risques. Par conséquent, la prise de contre-mesures appropriées jouera un rôle important.
Les discussions concernant la réglementation de l’IA générative se sont intensifiées à l’échelle mondiale ces derniers temps, les dirigeants de la science des données et les acteurs technologiques exprimant des inquiétudes quant aux risques sociétaux, notamment la désinformation et le déplacement des emplois.
Le 30 mai, des scientifiques et des leaders technologiques du monde entier ont signé une lettre ouverte pour reconnaître publiquement les dangers de l’intelligence artificielle, voire le risque de provoquer l’extinction de l’humanité.
« Minimiser le risque d’extinction que représente pour l’humanité l’IA générée artificiellement doit être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et la guerre nucléaire », indique la lettre.
Sam Altman, PDG d'OpenAI – la société qui a recherché et fourni le produit ChatGPT, et Geoffrey Hinton, un informaticien connu comme le « parrain » de l'intelligence artificielle, ainsi que des centaines de personnes célèbres dans le monde, ont signé la lettre publiée sur le site Web du Center for AI Safety – une organisation à but non lucratif basée à San Francisco (États-Unis).
Les inquiétudes concernant les systèmes d'intelligence artificielle non réglementés, plus intelligents que les humains, se multiplient, notamment les chatbots IA de nouvelle génération qui pourraient remplacer les humains à l'avenir. L'émergence récente de chatbots IA comme ChatGPT a incité les pays du monde entier à faire pression pour que cette technologie émergente soit réglementée afin d'atténuer les risques associés.
Australie
Le gouvernement australien a récemment annoncé le budget fédéral 2023, qui prévoit un investissement de 26,9 millions de dollars dans le Réseau d'IA responsable afin de déployer diverses technologies d'IA responsable à travers le pays. Les régulateurs australiens font pression pour que des réglementations soient mises en place afin d'apaiser les inquiétudes partagées par la Commissaire australienne aux droits de l'homme, Lorraine Finlay, qui a déclaré que les chatbots IA comme ChatGPT de Microsoft et Bard de Google pourraient être néfastes pour la société.
Par ailleurs, les régulateurs discutent actuellement d'éventuelles modifications à la Loi sur la protection des renseignements personnels afin de remédier au manque de transparence lié à l'entraînement des modèles d'IA sans supervision humaine. L'utilisation des données et de la biométrie pour l'entraînement des modèles est également en discussion, ce qui pourrait nécessiter des règles de confidentialité supplémentaires.
Victor Dominello, membre du Conseil australien des technologies, a appelé à la création d'un « comité de surveillance au sein du régulateur technologique » pour superviser et surveiller le développement de la technologie d'IA générative et conseiller les agences gouvernementales sur la manière de surveiller cette technologie émergente pour détecter les risques potentiels.
Brésil
Le processus législatif lié à l’IA au Brésil a été stimulé par un cadre juridique approuvé par le gouvernement en septembre 2022, mais a été critiqué en raison du flou des réglementations.
Lors du lancement de ChatGPT en novembre dernier, des discussions ont eu lieu et un rapport a été transmis au gouvernement brésilien, détaillant les propositions relatives à la réglementation de l'IA. L'étude, menée par des juristes, des scientifiques, des chefs d'entreprise et des membres de l'Autorité nationale de contrôle de la protection des données (ANPD), a porté sur trois domaines principaux : les droits des citoyens, la classification des risques, ainsi que les mesures et sanctions administratives liées à la gestion et à l'utilisation de l'IA.
Ce document est actuellement en cours de discussion au sein du gouvernement brésilien et aucune date de publication précise n’a encore été donnée.
Amérique
Les États-Unis, terreau fertile pour les innovateurs et développeurs en IA, dont OpenAI, créateur de ChatGPT, ont renforcé la réglementation des outils d'IA. Le directeur de la Federal Trade Commission (FTC) a déclaré le 3 mai que l'agence s'engageait à utiliser les lois existantes pour limiter les dangers de l'intelligence artificielle, tels que l'expansion de l'influence des grandes entreprises et les comportements frauduleux.
Canada
La loi sur l’intelligence artificielle et les données (AIDA) devrait être introduite dès 2025. De plus, des réglementations juridiques sont à l’étude pour gérer les risques et les pièges causés par l’IA afin d’encourager l’adoption responsable de cette technologie.
Selon le gouvernement du Canada, l’approche fondée sur les risques est conforme aux réglementations similaires en vigueur aux États-Unis et dans l’Union européenne, et prévoit s’appuyer sur les lois canadiennes existantes en matière de droits de la personne et de protection des consommateurs pour reconnaître la nécessité de systèmes d’IA « à fort impact » pour respecter les lois sur les droits de la personne et la sécurité de l’information.
Les autorités canadiennes seront chargées de veiller à ce que de nouvelles réglementations soient en place pour suivre le rythme des développements technologiques et pour limiter leur utilisation à des fins malveillantes.
Chine
L'Administration chinoise du cyberespace (CAC) élabore actuellement une réglementation pour les services d'IA destinés aux citoyens chinois, notamment les chatbots. Une proposition a été avancée pour inciter les entreprises technologiques chinoises à enregistrer leurs modèles d'IA générative auprès de l'Administration chinoise du cyberespace avant de commercialiser leurs produits.
Selon le projet de loi, l'évaluation de ces nouveaux produits d'IA devra garantir la « licéité de la source des données avant l'entraînement », les développeurs étant tenus de démontrer la conformité de leurs produits aux « valeurs fondamentales du socialisme ». L'utilisation de données personnelles à des fins d'entraînement sera interdite et les utilisateurs devront vérifier leur véritable identité. De plus, les modèles d'IA qui partagent des contenus extrémistes, violents, pornographiques ou des messages appelant au « renversement du gouvernement » enfreindront la réglementation.
Les contrevenants s'exposeront désormais à une amende comprise entre 10 000 et 100 000 yuans (environ 1 454 dollars) et 14 545 dollars (environ 14 545 dollars), ainsi qu'à une suspension de service et à une possible enquête criminelle. De plus, les fournisseurs partageant du contenu jugé inapproprié seront tenus de mettre à jour leurs systèmes dans un délai de trois mois afin de s'assurer de ne pas récidiver. Le projet de loi devrait être finalisé d'ici la fin de l'année.
Union européenne
L'Union européenne est considérée comme un pionnier, son projet de loi sur l'IA devant être approuvé plus tard cette année. L'élaboration de ce projet de loi marque une étape décisive dans la course à la régulation de l'IA, qui s'est accélérée ces dernières années. Ce projet de loi, baptisé « European AI Act », est également la première loi occidentale relative aux systèmes d'IA.
La loi de l'Union européenne (UE) sur l'IA est actuellement en cours d'élaboration au Parlement européen, et son vote en plénière est prévu en juin prochain. La réglementation de l'IA dans la région est en cours d'élaboration depuis plusieurs années, la Commission européenne ayant soumis une proposition en avril 2021.
Le projet de loi de l’UE sur l’IA classe les applications de l’IA en quatre niveaux de risque : risque inacceptable, risque élevé, risque limité et risque minimal ou nul.
Risque inacceptable :Comprend tout système qui représente une menace claire pour la sécurité et les droits des citoyens, comme les systèmes qui évaluent le comportement et le mode de vie des citoyens d’un pays et les assistants vocaux qui présentent un risque de préjudice.
Risque élevé :Utilisation de l’intelligence artificielle dans les infrastructures critiques telles que les transports, l’éducation, l’application de la loi, le recrutement et les robots de santé.
Risque limité :En utilisant des chatbots, les utilisateurs doivent être clairement informés dès le départ de la raison pour laquelle ils interagissent avec les systèmes.
Rrisque minime ou nul :Il s’agit notamment de systèmes tels que des jeux vidéo alimentés par l’IA ou des filtres anti-spam qui impliquent une IA générative.
Inde
En mars 2021, le gouvernement indien a annoncé une approche prudente en matière de réglementation de l'IA afin de favoriser l'innovation dans tout le pays. Les technologies liées à l'IA ont été qualifiées d'« essentielles et stratégiques » par le ministère indien de l'Électronique et des Technologies de l'information, mais l'agence a déclaré qu'elle mettrait en place des politiques et des mesures d'infrastructure pour lutter contre les préjugés, la discrimination et les préoccupations éthiques.
Le gouvernement indien a proposé des cadres réglementaires volontaires pour encadrer l'IA. La Stratégie nationale pour l'intelligence artificielle de 2018 s'est penchée sur cinq domaines clés du développement de l'IA : l'agriculture, l'éducation, la santé, les villes intelligentes et la mobilité intelligente. Puis, en 2020, l'utilisation éthique de l'IA a été détaillée dans le projet de Stratégie nationale pour l'intelligence artificielle, qui exige que tous les systèmes soient transparents, responsables et impartiaux.
Corée
Le projet de loi sud-coréen sur l'IA est actuellement en cours d'élaboration et devrait être prochainement soumis au vote de l'Assemblée nationale. Il précisera donc quels nouveaux modèles d'IA peuvent être créés sans l'approbation du gouvernement et quels modèles doivent être approuvés par celui-ci avant leur mise sur le marché.
Ce nouveau projet de loi sur l’IA se concentre également sur l’établissement de réglementations juridiques liées au développement responsable des systèmes d’IA.
En outre, la Commission de protection des informations personnelles du pays a annoncé son intention de créer un groupe de travail chargé d'examiner la protection des données biométriques, sur la base du développement de l'IA générative.
Royaume-Uni
Au Royaume-Uni, en plus de publier un livre blanc comprenant des conseils spécifiques sur la mise en œuvre des réglementations liées à l'IA, le gouvernement britannique a annoncé le 9 mai qu'il commencerait à évaluer l'impact de l'IA artificielle sur les consommateurs, les entreprises et l'économie, ainsi qu'à envisager la possibilité d'appliquer de nouvelles mesures pour contrôler les technologies telles que ChatGPT de la société OpenAI.
Actuellement, la réglementation de l'IA générative au Royaume-Uni est laissée aux autorités de régulation des secteurs où l'IA est utilisée, sans aucune common law prévue au-delà du Règlement général sur la protection des données (RGPD) de l'Union européenne. Le gouvernement a adopté une approche « pro-innovation » dans ses déclarations officielles sur le sujet, visant à positionner le Royaume-Uni comme leader dans la course mondiale à l'IA.
Parallèlement, l'Autorité britannique de la concurrence et des marchés (CMA) a lancé une étude sur les modèles de plateformes d'IA, analysant le développement d'outils tels que ChatGPT afin de prendre en compte la concurrence et la protection des consommateurs. Les résultats de cette étude seront publiés début septembre 2023, a indiqué l'agence.
Japon
Selon les responsables japonais, l'IA générative offre des perspectives positives pour l'économie et la société, mais comporte également des risques. Par conséquent, la prise de contre-mesures appropriées dans ces deux domaines jouera un rôle important.
Le Premier ministre japonais Kishida Fumido a déclaré qu'il demanderait aux agences concernées de promouvoir rapidement des discussions dans de nombreux domaines afin de maximiser les perspectives et de répondre aux risques liés à l'intelligence artificielle.
Les responsables japonais ont également déclaré qu’ils élaboreraient des règles internationales pour l’IA artificielle.