Transformation numérique

Comment la réglementation de l’IA pourrait-elle évoluer en 2025 ?

Phan Van Hoa DNUM_BAZABZCACF 08:29

L'année 2025 pourrait marquer un tournant majeur dans l'élaboration des réglementations mondiales en matière d'intelligence artificielle (IA), depuis les progrès de la loi révolutionnaire sur l'IA de l'UE jusqu'aux politiques que l'administration Trump pourrait façonner aux États-Unis.

L'année 2025 marque un tournant majeur dans le paysage politique américain, qui promet d'avoir un impact profond sur la gouvernance de l'IA. Le président élu Donald Trump prendra ses fonctions le 20 janvier, accompagné d'une équipe de conseillers d'affaires de haut niveau, dont des personnalités comme Elon Musk et Vivek Ramaswamy. Ils devraient façonner la réflexion politique sur les technologies de pointe comme l'IA et les cryptomonnaies, ouvrant ainsi de nouvelles perspectives pleines de défis et de potentiel.

Ảnh minh họa
Photo d'illustration.

Parallèlement, une juxtaposition intéressante se dessine entre les deux juridictions, le Royaume-Uni et l'Union européenne (UE) adoptant des positions divergentes sur la réglementation technologique. L'UE a adopté une approche plus passive, visant à réprimer les géants de la Silicon Valley à l'origine de puissants systèmes d'IA, tandis que le Royaume-Uni a privilégié une stratégie plus souple, favorisant l'innovation tout en maintenant la surveillance nécessaire.

L'influence deLe milliardaire Elon Musk sur la politiqueIA deAmérique

Bien que l'IA n'ait pas été au cœur de la campagne présidentielle de Donald Trump, elle devrait devenir une priorité sous la nouvelle administration. La nomination par Trump d'Elon Musk, PDG de Tesla et cofondateur d'OpenAI, et de Vivek Ramaswamy, entrepreneur en biotechnologie, à la tête du Département de l'efficacité gouvernementale a constitué une étape importante.

À ce sujet, M. Matt Calkins, PDG de l'entreprise technologique Appian (États-Unis), a déclaré que la relation étroite entre Trump et Musk pourrait être avantageuse pour les États-Unis dans le domaine de l'IA. Il a salué l'expérience de Musk, fondateur de xAI, et a estimé que sa profonde compréhension de l'IA permettrait de définir des politiques efficaces. « Enfin, nous avons quelqu'un au sein de l'administration qui comprend vraiment l'IA », a déclaré Calkins à CNBC.

Ảnh minh họa1
Elon Musk plaidera en faveur de mesures de protection pour contrôler les risques et garantir que l'IA ne menace pas la civilisation humaine. Photo : Internet

Bien qu'il n'y ait eu aucune annonce officielle de directives ou de décrets liés à l'IA, Calkins prédit que Musk fera pression pour mettre en place des mesures de protection afin de contrôler les risques et de garantir que l'IA ne menace pas la civilisation, une préoccupation que Musk souligne depuis des années.

Actuellement, les États-Unis ne disposent d'aucune loi fédérale exhaustive sur l'IA, mais d'une réglementation fragmentée aux niveaux étatique et local. Plus de 45 États, ainsi que Washington D.C., Porto Rico et les Îles Vierges, ont déposé leurs propres projets de loi visant à réglementer ce domaine, soulignant l'urgente nécessité d'un cadre juridique unifié à l'avenir.

Loi européenne sur l'IA

L'UE est actuellement la seule région au monde à disposer d'un cadre juridique complet pour l'IA. Plus tôt cette année, la loi européenne sur l'IA, une loi novatrice, a été officiellement adoptée, marquant une avancée majeure dans la gouvernance de l'IA.

Bien qu'elle ne soit pas encore pleinement en vigueur, la loi a suscité des inquiétudes au sein de la communauté technologique américaine, de grandes entreprises telles qu'Amazon, Google et Meta avertissant que des réglementations strictes pourraient étouffer l'innovation.

Ảnh minh họa2
La loi européenne sur l'IA, une loi révolutionnaire, a été officiellement adoptée, marquant une avancée majeure dans la gouvernance de l'IA. Photo : Internet

En décembre, l'Office européen pour l'IA a publié une deuxième version d'un ensemble de règles pour les modèles d'IA à usage général (GPAI), comme le GPT d'OpenAI. Ce projet prévoit des exemptions pour certains modèles open source et exige des développeurs d'GPAI qu'ils procèdent à des évaluations rigoureuses des risques.

Cependant, l'Association de l'industrie informatique et des communications a déclaré que certaines dispositions du projet dépassaient la portée initiale de la loi, en particulier les mesures liées au droit d'auteur, provoquant une controverse parmi les acteurs du secteur technologique.

Les dirigeants européens du secteur technologique craignent que les sanctions de l'UE contre les grandes entreprises technologiques américaines ne suscitent une réaction négative de la part du président Trump, ce qui pourrait forcer l'UE à ajuster ses politiques.

Royaume-Uniet une approche plus flexible de l'IA

Contrairement à l’UE, le Royaume-Uni s’est montré prudent quant à l’introduction d’obligations légales pour les fabricants de modèles d’IA, craignant que les nouvelles réglementations ne soient trop restrictives et n’étouffent l’innovation.

Le gouvernement du Premier ministre Keir Starmer a récemment annoncé son intention d'élaborer sa propre législation sur l'IA. Le Royaume-Uni devrait adopter une approche plus souple, axée sur les principes fondamentaux plutôt que sur le cadre strict de l'UE, fondé sur les risques.

Le mois dernier, le gouvernement a publié une première indication de l'orientation de la réglementation, avec une consultation sur la gestion de l'utilisation de contenus protégés par le droit d'auteur dans l'entraînement des modèles d'IA. Il s'agit d'un enjeu particulièrement important pour l'IA générative et les grands modèles linguistiques (LLM), qui s'appuient fortement sur des données protégées par le droit d'auteur.

Aujourd'hui, la plupart des masters utilisent des données publiques issues du web ouvert pour entraîner leur IA, mais cela inclut souvent des œuvres d'art et du matériel protégé par le droit d'auteur. Artistes et éditeurs craignent que ces systèmes ne copient leur précieux contenu sans leur consentement.

Pour résoudre ce problème, le gouvernement britannique étudie la possibilité de créer des exceptions à la loi sur le droit d’auteur qui permettraient de former des modèles d’IA à l’aide d’œuvres protégées par le droit d’auteur, tout en garantissant le droit des titulaires de droits d’auteur à refuser l’autorisation d’utiliser leur propriété intellectuelle.

Le Royaume-Uni pourrait devenir un « leader mondial » dans la lutte contre la violation du droit d'auteur des modèles d'IA, a déclaré Matt Calkins, soulignant que le pays n'est pas soumis à la pression de fortes campagnes de lobbying menées par des leaders nationaux de l'IA comme les États-Unis.

Les relations entre les États-Unis et la Chine sont un point de tension potentiel

Alors que les gouvernements du monde entier s’efforcent de réguler les systèmes d’IA en évolution rapide, les tensions géopolitiques entre les États-Unis et la Chine risquent de s’intensifier sous l’administration Trump.

Durant son premier mandat, Trump a adopté une ligne dure envers la Chine, notamment en inscrivant Huawei sur liste noire et en interdisant à l'entreprise de collaborer avec des fournisseurs technologiques américains. Il a également tenté d'interdire TikTok, propriété de l'entreprise chinoise ByteDance, aux États-Unis, avant de revenir sur sa position.

Ảnh minh họa3
Les experts en technologies craignent que le clivage géopolitique entre les États-Unis et la Chine dans le domaine de l'IA ne génère des risques potentiels. Photo : Internet

La Chine cherche à dépasser les États-Unis en matière de domination de l'IA, tandis que ces derniers ont pris des mesures pour restreindre l'accès de la Chine à des technologies clés, notamment les microprocesseurs comme les puces Nvidia, essentiels à la formation de modèles d'IA avancés. En réponse, la Chine a intensifié ses efforts pour développer sa propre industrie nationale des puces.

Les experts en technologie craignent que la fracture géopolitique entre les États-Unis et la Chine dans le domaine de l’IA puisse entraîner des risques potentiels, comme la possibilité que l’un ou l’autre pays développe une forme d’IA bien plus intelligente que les humains.

Max Tegmark, fondateur de l'institut à but non lucratif Future of Life Institute, a averti qu'à l'avenir, les États-Unis et la Chine pourraient créer une forme d'IA capable de s'auto-améliorer et de concevoir de nouveaux systèmes sans intervention humaine, ce qui pourrait forcer les deux pays à développer des règles de sécurité d'IA distinctes pour contrôler les risques.

« La voie optimiste que j’espère est que les États-Unis et la Chine établissent unilatéralement des normes de sécurité nationales pour empêcher leurs entreprises de développer une IA hors de contrôle, non pas pour apaiser les superpuissances rivales, mais simplement pour se protéger », a déclaré Tegmark à CNBC en novembre.

Actuellement, les gouvernements s'efforcent de collaborer pour élaborer des réglementations et des cadres autour de l'IA. En 2023, le Royaume-Uni a accueilli un sommet mondial sur la sécurité de l'IA, auquel ont participé les gouvernements américain et chinois, afin d'aborder les obstacles et les défis potentiels à l'élaboration de politiques réglementaires efficaces en la matière.

Selon CNBC
Copier le lien

Journal Nghe An en vedette

Dernier

x
Comment la réglementation de l’IA pourrait-elle évoluer en 2025 ?
ALIMENTÉ PARUNCMS- UN PRODUIT DENEKO