Partout dans le monde, des pays et des régions encouragent l'élaboration de réglementations sur l'intelligence artificielle.

Phan Van Hoa June 23, 2023 10:08

(Baonghean.vn) – Le développement rapide de l’intelligence artificielle (IA) en général, et de l’IA générative comme ChatGPT en particulier, offre de nombreux avantages. Cependant, les technologies émergentes comportent des risques potentiels, incitant les pays et les régions à renforcer leur réglementation.

Anh minh hoa1.jpg
Photo d'illustration.

Qu'est-ce que l'intelligence artificielle générative ?

L'intelligence artificielle générative (IA générative) est une branche de l'intelligence artificielle qui désigne une classe d'algorithmes capables de générer du contenu inédit, notamment du texte, des images, de la vidéo et de l'audio. Développée grâce aux progrès de l'apprentissage profond, l'IA générative produit des résultats similaires à ceux des humains. ChatGPT représente la dernière innovation dans le domaine de l'IA générative.

L'intelligence artificielle générative permet aux ordinateurs de créer toutes sortes de contenus inédits et captivants, de la musique et de l'art aux mondes virtuels entiers. Au-delà du divertissement, elle offre un large éventail d'applications pratiques, comme la conception de nouveaux produits et l'optimisation des processus métier.

L'intelligence artificielle générative a connu une croissance exponentielle dès ses débuts. Cette technologie de rupture puissante sera utilisée très prochainement par les entreprises existantes et nouvelles pour réduire les coûts, fournir de nouveaux services plus performants et plus rapides, et créer de nouvelles capacités de production.

L'intelligence artificielle générative offre des perspectives positives pour l'économie et la société, mais elle comporte également des risques. Par conséquent, la mise en œuvre de contre-mesures appropriées jouera un rôle important.

Ces derniers temps, les discussions concernant la réglementation de l'IA générative se sont intensifiées à l'échelle mondiale, les responsables des sciences des données et les acteurs du secteur technologique soulevant des inquiétudes quant aux risques sociétaux, notamment la désinformation et les pertes d'emplois.

Le 30 mai, des scientifiques et des dirigeants du secteur technologique du monde entier ont signé une lettre ouverte pour reconnaître publiquement les dangers de l'intelligence artificielle, qui pourrait même conduire à l'extinction de l'humanité.

« Minimiser le risque d’extinction que représente l’IA générée artificiellement pour l’humanité doit être une priorité mondiale au même titre que d’autres risques sociétaux tels que les pandémies et la guerre nucléaire », indique la lettre.

Sam Altman, PDG d'OpenAI – la société qui a mené des recherches et fourni les produits ChatGPT – et Geoffrey Hinton, un informaticien connu comme le « parrain » de l'intelligence artificielle, ainsi que des centaines de personnalités du monde entier, ont signé la lettre publiée sur le site web du Center for AI Safety – une organisation à but non lucratif basée à San Francisco (États-Unis).

Les inquiétudes concernant les systèmes d'intelligence artificielle non contrôlés et plus performants que les humains s'accroissent, car les chatbots IA de nouvelle génération pourraient potentiellement remplacer les humains à l'avenir. Face à l'émergence récente de chatbots IA comme ChatGPT, de nombreux pays à travers le monde s'efforcent de réglementer cette technologie émergente afin de minimiser les risques qui y sont associés.

Australie

Le gouvernement australien a récemment annoncé le budget fédéral 2023, qui prévoit un investissement de 26,9 millions de dollars dans un réseau d'IA responsable afin de déployer diverses technologies d'IA responsable à travers le pays. Les autorités de régulation australiennes militent pour une réglementation visant à apaiser les inquiétudes exprimées par la commissaire australienne aux droits de l'homme, Lorraine Finlay, qui a déclaré que les chatbots d'IA tels que ChatGPT de Microsoft et Bard de Google pourraient être préjudiciables à la société.

Par ailleurs, les autorités de réglementation discutent d'éventuelles modifications à la Loi sur la protection des renseignements personnels afin de remédier au manque de transparence lié à l'entraînement des modèles d'IA sans supervision humaine. Des discussions sont également en cours concernant l'utilisation des données et des données biométriques pour l'entraînement des modèles, ce qui pourrait nécessiter des règles de protection de la vie privée supplémentaires.

Victor Dominello, membre du Conseil australien des technologies, a demandé la création d'un « comité de surveillance au sein de l'organisme de réglementation des technologies » chargé de suivre et de contrôler le développement de la technologie d'IA générative et de conseiller les agences gouvernementales sur la manière de surveiller cette technologie émergente afin de détecter les risques potentiels.

Brésil

Au Brésil, le processus législatif relatif à l'IA a été impulsé par un cadre juridique approuvé par le gouvernement en septembre 2022, mais il a fait l'objet de critiques en raison du caractère vague de la réglementation.

Suite au lancement de ChatGPT en novembre dernier, des discussions ont eu lieu et un rapport a été remis au gouvernement brésilien, détaillant des propositions relatives à la réglementation de l'IA. Cette étude, menée par des juristes, des scientifiques, des chefs d'entreprise et des membres de l'Autorité nationale de surveillance de la protection des données (ANPD), portait sur trois axes principaux : les droits des citoyens, la classification des risques et les mesures de gouvernance et sanctions administratives liées à la gestion et à l'utilisation de l'IA.

Ce document fait actuellement l'objet de discussions au sein du gouvernement brésilien et aucune date de publication précise n'a encore été annoncée.

Amérique

Les États-Unis, véritable vivier d'innovateurs et de développeurs en intelligence artificielle, dont OpenAI, créateur de ChatGPT, ont renforcé la réglementation des outils d'IA. Le 3 mai, le directeur de la Federal Trade Commission (FTC) a déclaré que l'agence s'engageait à utiliser les lois existantes pour limiter les dangers de l'IA, tels que l'influence grandissante des grandes entreprises et les comportements frauduleux.

Canada

La loi sur l'intelligence artificielle et les données (AIDA) devrait être introduite dès 2025. De plus, des réglementations juridiques sont à l'étude pour gérer les risques et les écueils liés à l'IA afin d'encourager une adoption responsable de cette technologie.

Selon le gouvernement du Canada, cette approche fondée sur les risques est conforme aux réglementations similaires en vigueur aux États-Unis et dans l’Union européenne, et prévoit de s’appuyer sur les lois canadiennes existantes en matière de droits de la personne et de protection des consommateurs pour reconnaître la nécessité, pour les systèmes d’IA à « fort impact », de respecter les lois sur les droits de la personne et la sécurité de l’information.

Les autorités canadiennes seront chargées de veiller à ce que les nouvelles réglementations suivent l'évolution technologique et minimisent leur utilisation à des fins malveillantes.

Chine

L'Administration du cyberespace de Chine (CAC) élabore actuellement une réglementation relative aux services basés sur l'intelligence artificielle destinés aux citoyens chinois, notamment les chatbots. Une proposition vise à contraindre les entreprises technologiques chinoises à enregistrer leurs modèles d'intelligence artificielle générative auprès de la CAC avant de commercialiser leurs produits.

Selon le projet de loi, l'évaluation de ces nouveaux produits d'IA doit garantir la légalité des sources de données avant l'entraînement, les développeurs étant tenus de démontrer la conformité de leurs produits aux valeurs fondamentales du socialisme. L'utilisation de données personnelles pour l'entraînement sera interdite et les utilisateurs devront être tenus de vérifier leur identité. Par ailleurs, les modèles d'IA diffusant des contenus extrémistes, violents ou pornographiques, ou des messages appelant au renversement du gouvernement, seront considérés comme non conformes à la réglementation.

Les contrevenants s'exposeront désormais à des amendes allant de 10 000 yuans (environ 1 454 dollars) à 100 000 yuans (environ 14 545 dollars), ainsi qu'à la suspension de leurs services et à d'éventuelles poursuites pénales. De plus, les fournisseurs reconnus coupables de diffusion de contenus jugés inappropriés devront mettre à jour leurs systèmes dans un délai de trois mois afin d'éviter toute récidive. Le projet de loi devrait être finalisé d'ici la fin de l'année.

Union européenne

L'Union européenne est considérée comme pionnière, son projet de loi sur l'IA devant être adopté d'ici la fin de l'année. L'élaboration de ce texte marque une étape décisive dans la course que se livrent les autorités pour réglementer l'IA, qui a connu un développement fulgurant ces derniers temps. Ce projet de loi, baptisé « Loi européenne sur l'IA », est également la première législation relative aux systèmes d'IA en Occident.

La loi européenne sur l'intelligence artificielle est actuellement en cours d'élaboration au Parlement européen, un vote en séance plénière étant prévu en juin prochain. La réglementation de l'intelligence artificielle dans la région est à l'étude depuis plusieurs années, la Commission européenne ayant soumis une proposition en avril 2021.

Le projet de loi européen sur l'IA classe les applications d'IA en quatre niveaux de risque : risque inacceptable, risque élevé, risque limité et risque minimal ou nul.

Risque inacceptable :Comprend tous les systèmes qui constituent une menace manifeste pour la sécurité et les droits des citoyens, tels que les systèmes qui évaluent le comportement et le mode de vie des citoyens d'un pays et les assistants vocaux qui présentent un risque de préjudice.

Risque élevé :Utiliser l'intelligence artificielle dans les infrastructures critiques telles que les transports, l'éducation, les forces de l'ordre, le recrutement et les robots de santé.

Risque limité :Y compris dans le cadre de l'utilisation de chatbots, les utilisateurs doivent être clairement informés dès le départ de l'objet de leur interaction avec les systèmes.

RRisque minimal ou nul :Y compris des systèmes comme les jeux vidéo basés sur l'IA ou les filtres anti-spam qui font appel à l'IA générative.

Inde

En mars 2021, le gouvernement indien a annoncé une approche prudente en matière de réglementation de l'IA, afin de favoriser l'innovation dans tout le pays. Le ministère indien de l'Électronique et des Technologies de l'information a qualifié les technologies liées à l'IA de « cruciales et stratégiques », tout en précisant qu'il mettrait en place des politiques et des infrastructures pour lutter contre les biais, la discrimination et les problèmes d'éthique.

Le gouvernement indien a proposé des cadres réglementaires volontaires pour encadrer l'IA. La Stratégie nationale pour l'intelligence artificielle de 2018 s'est concentrée sur cinq domaines clés de développement : l'agriculture, l'éducation, la santé, les villes intelligentes et la mobilité intelligente. En 2020, l'utilisation éthique de l'IA a été détaillée dans le projet de Stratégie nationale pour l'intelligence artificielle, qui préconise la transparence, la responsabilité et l'impartialité de tous les systèmes.

Corée

Le projet de loi sud-coréen sur l'intelligence artificielle est actuellement en cours d'élaboration et devrait être soumis au vote de l'Assemblée nationale prochainement. Il précisera quels nouveaux modèles d'IA pourront être créés sans autorisation gouvernementale et lesquels devront être approuvés par le gouvernement avant leur commercialisation.

Ce nouveau projet de loi sur l'IA vise également à établir des réglementations juridiques relatives au développement responsable des systèmes d'IA.

Par ailleurs, la Commission nationale de protection des renseignements personnels a annoncé son intention de créer un groupe de travail chargé d'examiner la protection des données biométriques, en fonction du développement de l'intelligence artificielle générative.

Royaume-Uni

Au Royaume-Uni, outre la publication d'un livre blanc contenant des orientations spécifiques sur la mise en œuvre de la réglementation relative à l'IA, le gouvernement britannique a annoncé le 9 mai qu'il allait commencer à évaluer l'impact de l'IA artificielle sur les consommateurs, les entreprises et l'économie, et qu'il envisagerait la possibilité d'appliquer de nouvelles mesures pour contrôler des technologies telles que ChatGPT de la société OpenAI.

Actuellement, au Royaume-Uni, la réglementation de l'intelligence artificielle générative est laissée à la discrétion des autorités de régulation des secteurs où elle est utilisée, aucune législation commune n'étant prévue au-delà du Règlement général sur la protection des données (RGPD) de l'Union européenne. Dans ses déclarations officielles sur le sujet, le gouvernement a adopté une approche favorable à l'innovation, visant à positionner le Royaume-Uni comme un chef de file mondial dans le domaine de l'IA.

Parallèlement, l'Autorité britannique de la concurrence et des marchés (CMA) a lancé un examen des modèles de plateformes d'IA, analysant le développement d'outils tels que ChatGPT afin d'évaluer leur impact sur la concurrence et la protection des consommateurs. Les résultats de cet examen seront publiés début septembre 2023, a indiqué l'agence.

Japon

D'après les autorités japonaises, l'intelligence artificielle générative offre des perspectives positives pour l'économie et la société, mais comporte également des risques. Il sera donc essentiel de mettre en place des contre-mesures appropriées, prenant en compte ces deux aspects.

Le Premier ministre japonais Kishida Fumido a déclaré qu'il donnerait instruction aux agences compétentes de promouvoir rapidement des discussions dans de nombreux domaines afin de maximiser les perspectives et de répondre aux risques liés à l'intelligence artificielle.

Les autorités japonaises ont également déclaré qu'elles élaboreraient des règles internationales pour l'intelligence artificielle.

Selon l'ère de l'information
Copier le lien

Journal Nghe An en vedette

Dernier

x
Partout dans le monde, des pays et des régions encouragent l'élaboration de réglementations sur l'intelligence artificielle.
ALIMENTÉ PARUNCMS- UN PRODUIT DENEKO