Transformation numérique

Quel sera l’impact de la première loi mondiale sur l’intelligence artificielle sur les géants de la technologie ?

Phan Van Hoa August 11, 2024 8:00

Août 2024 marque une étape importante lorsque la loi sur l'intelligence artificielle de l'Union européenne entrera officiellement en vigueur, ouvrant un nouveau chapitre avec des réglementations plus strictes, en particulier pour les géants de la technologie.

Début mai, l'Union européenne (UE) a créé un précédent en adoptant la loi sur l'intelligence artificielle (IA), marquant une étape majeure dans la réglementation de l'intelligence artificielle. Le consensus des États membres et des organes législatifs a créé un cadre juridique complet qui promet de remodeler l'avenir de l'IA en Europe et dans le monde.

Ảnh minh họa.
Photo d'illustration.

Qu'est-ce que l'AI Act ?

La loi sur l'IA, considérée comme l'une des lois les plus avancées au monde en la matière, est officiellement entrée en vigueur. En protégeant la vie privée, en prévenant la discrimination et en garantissant la transparence des systèmes d'IA, cette loi protège non seulement les « droits fondamentaux » des citoyens, mais crée également un environnement économique sain, encourageant l'innovation et l'investissement dans le domaine de l'IA.

Parallèlement, cette loi devrait servir de feuille de route aux autres pays pour bâtir un avenir sûr et fiable en matière d'IA. Initialement proposée par la Commission européenne en 2020, cette loi vise à remédier aux impacts négatifs de l'IA, notamment sur les grandes entreprises technologiques américaines, qui sont actuellement les principaux concepteurs et développeurs des systèmes d'IA les plus avancés.

La loi sur l'IA a un champ d'application extrêmement large, couvrant tout produit ou service utilisant l'intelligence artificielle proposé sur le marché de l'UE, quelle que soit son origine. Des géants technologiques mondiaux aux startups locales, chacun devra se conformer à ces nouvelles règles.

« L'approche européenne en matière de technologie accorde la priorité aux personnes et garantit la protection de leurs droits. Avec la loi sur l'IA, l'UE franchit une étape importante pour garantir que l'IA soit appliquée en Europe conformément à la réglementation européenne », a déclaré Margrethe Vestager, vice-présidente exécutive de la Commission européenne.

Parallèlement, M. Tanguy Van Overstraeten, responsable des technologies, des médias et de la technologie au sein du cabinet d'avocats Linklaters à Bruxelles (Suisse), a affirmé que la loi européenne sur l'IA constituait un tournant historique dans la réglementation de l'intelligence artificielle à l'échelle mondiale. Il s'agit d'une loi pionnière, qui ouvre une nouvelle ère dans la gestion des technologies de l'IA, tout en établissant des normes complètes pour les entreprises, des géants technologiques aux start-up innovantes. Il a souligné : « Cette loi aura un impact profond sur toutes les organisations, en particulier celles qui développent, déploient ou utilisent simplement des systèmes d'IA. »

La loi européenne sur l'IA a adopté une approche intelligente et flexible, réglementant l'IA en fonction des risques réels qu'elle représente pour la société. Cela garantira une réglementation adéquate des différentes applications de l'IA, encourageant ainsi l'innovation tout en protégeant les droits des citoyens.

Pour les applications d'IA considérées comme « à haut risque », la loi impose des exigences strictes afin de minimiser les impacts négatifs. Plus précisément, les entreprises doivent réaliser des évaluations de risques complètes, mettre en place des systèmes efficaces d'atténuation des risques, utiliser des données de haute qualité pour entraîner les modèles et assurer la transparence de leurs opérations en enregistrant et en partageant les informations avec les autorités de réglementation.

Des voitures autonomes aux dispositifs médicaux en passant par les systèmes décisionnels critiques, l'IA fait désormais partie intégrante de la vie moderne. Cependant, malgré ses immenses avantages, elle pose également de nombreux défis éthiques et juridiques.

Conscients des risques potentiels, des réglementations strictes ont été mises en place pour gérer les applications d'IA à haut risque. Les systèmes tels que les voitures autonomes et les dispositifs médicaux doivent respecter des normes strictes de sécurité et d'efficacité.

Dans le même temps, les applications d’IA susceptibles d’avoir de graves conséquences sociales sur les systèmes de notation sociale, la prédiction de la criminalité et la reconnaissance des émotions seraient totalement interdites.

Quel est l'impact de l'AI Act sur les grandes entreprises technologiques mondiales ?

Des géants américains tels que Microsoft, Google, Amazon, Apple et Meta collaborent activement et investissent des milliards de dollars dans des entreprises qui, selon eux, peuvent être leaders dans le domaine de l'IA, alors que cette technologie se développe fortement à l'échelle mondiale.

Les plateformes cloud telles que Microsoft Azure, Amazon Web Services et Google Cloud jouent également un rôle clé dans le soutien au développement de l’IA, car une infrastructure informatique massive est nécessaire pour former et exécuter des modèles d’IA.

À cet égard, les grandes entreprises technologiques seront certainement les plus ciblées par la nouvelle réglementation.

La loi sur l'IA ne se limite pas à l'UE, mais a des implications mondiales. Toute organisation dont les activités sont directement ou indirectement liées à l'UE peut être soumise à ce règlement.

À ce titre, les grandes entreprises technologiques seront confrontées à une surveillance accrue de leurs opérations commerciales sur le marché de l’UE, notamment en ce qui concerne la collecte et l’utilisation des données personnelles des utilisateurs.

En raison de préoccupations concernant le respect du Règlement général sur la protection des données (RGPD) de l'UE, Meta a décidé de suspendre temporairement la disponibilité de son modèle d'IA LLaMa sur le marché européen. Bien que la loi européenne sur l'IA impose également de nouvelles exigences, le RGPD demeure le principal facteur qui incite Meta à la prudence dans cette décision.

L'entreprise avait déjà reçu l'ordre de cesser de former ses modèles sur des publications Facebook et Instagram dans l'UE, craignant une éventuelle violation du RGPD.

« Le cadre réglementaire européen, fondé sur les risques, encourage l'innovation tout en privilégiant le développement et le déploiement sûrs des technologies », a déclaré Eric Loeb, vice-président exécutif des affaires gouvernementales chez Salesforce, géant des technologies d'entreprise. « Les autres gouvernements devraient tenir compte de ces règles lors de l'élaboration de leurs propres cadres politiques. »

Comment est gérée la prochaine génération d’intelligence artificielle ?

La loi européenne sur l'IA identifie l'intelligence artificielle de nouvelle génération (IA générative), généralement des modèles d'IA avancés tels que ChatGPT d'OpenAI, Gemini de Google et Claude d'Anthropic, comme des sujets devant être strictement réglementés. Ces modèles sont conçus pour effectuer diverses tâches, de la génération de contenu textuel à la résolution de problèmes complexes, et peuvent même surpasser les capacités humaines dans certains domaines.

Afin de garantir le développement et l’application sûrs et fiables de l’IA, la loi européenne sur l’IA définit des exigences strictes pour les modèles d’IA à usage général, notamment le respect des lois sur le droit d’auteur, la transparence du processus de formation et la garantie de la cybersécurité.

Cependant, les développeurs d’IA craignent que des réglementations trop restrictives puissent limiter le développement de modèles open source, qui jouent un rôle clé dans la promotion de l’innovation et la démocratisation de l’IA.

Parmi les noms notables de la communauté de l'IA open source figurent aujourd'hui LLaMa de Meta, Stable Diffusion de Stability AI et Mistral 7B de Mistral AI. La loi européenne sur l'IA a créé plusieurs failles permettant aux modèles d'IA open source de bénéficier d'un traitement de faveur.

Cependant, pour bénéficier de ces incitations, les fournisseurs doivent être totalement transparents sur la structure et le fonctionnement du modèle, et permettre à la communauté de le développer et d'y effectuer librement des recherches. Cependant, les modèles open source présentant des risques importants pour la société ne bénéficieront pas de ces incitations.

Quelles sont les sanctions pour les entreprises qui enfreignent les dispositions de la loi sur l’IA ?

Les violations de la loi européenne sur l’IA pourraient entraîner de lourdes amendes pour les entreprises, allant de 35 millions d’euros (41 millions de dollars) à 7 % du chiffre d’affaires mondial annuel, selon la gravité de la violation et la taille de l’entreprise.

Il est à noter que cette amende est encore plus élevée que celles imposées par le RGPD, qui prévoit des amendes pouvant atteindre 20 millions d'euros (23,4 millions de dollars) ou 4 % de leur chiffre d'affaires annuel mondial pour violation du RGPD, ce qui démontre que l'UE impose des exigences très strictes au secteur de l'IA. Afin de garantir la mise en œuvre effective de cette réglementation, l'UE a créé un Office européen de l'IA, chargé d'une supervision complète des activités liées à l'IA.

Comme l'a déclaré Jamil Jiva, responsable mondial de la gestion d'actifs de la société fintech française Linedata, ces lourdes sanctions constitueront un puissant moyen de dissuasion contre les actes illégaux dans le domaine de l'IA.

Tout comme le RGPD a établi une norme mondiale en matière de protection des données, la loi européenne sur l'IA façonne l'avenir de l'IA. L'UE joue un rôle moteur dans l'établissement d'un cadre juridique cohérent et complet pour l'IA, garantissant ainsi que cette technologie soit développée et appliquée de manière sûre, fiable et responsable.

Toutefois, la mise en œuvre complète de la loi sur l’IA prendra un certain temps, de nombreuses dispositions importantes n’entrant en vigueur qu’en 2026. Cela montre la nécessité pour les entreprises de commencer à se préparer dès maintenant pour s’adapter aux grands changements à venir.

Les restrictions sur les systèmes de modélisation d'IA à usage général commenceront à s'appliquer 12 mois après l'entrée en vigueur de la loi sur l'IA, tandis que les systèmes d'IA génératifs comme ChatGPT d'OpenAI et Gemini de Google auront 36 mois pour perfectionner leurs systèmes afin de se conformer aux réglementations de la loi sur l'IA.

Selon CNBC, Apnews
Copier le lien

Journal Nghe An en vedette

Dernier

x
Quel sera l’impact de la première loi mondiale sur l’intelligence artificielle sur les géants de la technologie ?
ALIMENTÉ PARUNCMS- UN PRODUIT DENEKO