Transformation numérique

L'IA peut aller au-delà du contrôle humain

Phan Van Hoa DNUM_AIZACZCACF 10:29

Les plus grands scientifiques du monde avertissent que, si elle n’est pas étroitement contrôlée, l’IA pourrait échapper au contrôle humain, entraînant des conséquences imprévisibles.

Ainsi, deux des plus grands scientifiques mondiaux en IA, Max Tegmark - professeur au Massachusetts Institute of Technology (États-Unis) et le professeur Yoshua Bengio à l'Université de Montréal (Canada), ont averti que l'intelligence artificielle générale (IAG) conçue selon le modèle « agent » pourrait devenir dangereuse car les humains risquent de perdre le contrôle de ce système.

Ảnh minh họa
Yoshua Bengio (à gauche) et Max Tegmark (à droite) discutent du développement de l'IAG dans un podcast en direct de l'émission « Beyond The Valley » sur CNBC. Photo : CNBC

Selon eux, l'IAG désigne les systèmes d'IA dotés d'une intelligence supérieure à celle des humains, capables de penser et de prendre des décisions de manière autonome. Sans mécanismes de contrôle stricts, ces systèmes peuvent agir contre la volonté humaine, entraînant des conséquences imprévisibles.

Les inquiétudes des scientifiques proviennent du fait que de nombreuses grandes entreprises technologiques promeuvent le concept d'« agents IA », ou chatbots, capables de jouer le rôle d'assistants numériques et de faciliter le travail et la vie quotidienne. Cependant, l'avenir de l'IAG reste incertain, et les prédictions sont nombreuses et divergentes.

Le problème, selon Yoshua Bengio, est que les systèmes d'IA acquièrent progressivement une certaine « autonomie » et la capacité de penser de manière indépendante. Partage dans le podcast : « Au-delà de la vallée" (traduction: "Au-delà de la Silicon Valley) sur CNBC le 4 février, il a expliqué : « Les chercheurs en IA s'inspirent de l'intelligence humaine pour développer l'intelligence artificielle. Chez l'humain, l'intelligence ne se limite pas à la capacité à comprendre le monde, mais inclut également le comportement de l'agent, l'utilisation de ses connaissances pour atteindre ses objectifs. »

Bengio prévient que c'est ainsi que l'IAG se développe, devenant des agents dotés d'une compréhension approfondie du monde et capables d'agir en conséquence. Il souligne cependant que c'est « très dangereux ».

Poursuivre ce modèle, a-t-il déclaré, équivaudrait à « créer une nouvelle espèce » ou « une nouvelle entité intelligente » sur Terre dont les humains ne peuvent pas être sûrs qu’elle se comportera d’une manière qui nous soit bénéfique.

« Nous devons envisager le pire scénario, et le facteur agent est toujours crucial. Autrement dit, l'IA peut avoir ses propres objectifs, ce qui peut nous mettre en difficulté. »

Bengio a également averti que l’IA pourrait développer des mécanismes d’autoprotection à mesure qu’elle devient plus intelligente, ce qui pourrait mettre l’humanité en porte-à-faux.

« Voulons-nous concurrencer des entités plus intelligentes que nous ? Ce n’est clairement pas une option sûre. Nous devons comprendre comment l’autoprotection peut devenir un objectif de l’IA. »

Selon le professeur Max Tegmark du MIT, la solution de sécurité réside dans le modèle « outil IA », c'est-à-dire des systèmes conçus pour une tâche spécifique, sans agir comme un agent indépendant.

Il cite l'exemple d'un outil d'IA qui pourrait contribuer à la découverte d'un remède contre le cancer ou d'un système de conduite autonome. Ces technologies peuvent encore offrir des capacités puissantes, mais doivent garantir que les humains puissent les contrôler avec un niveau de confiance élevé.

« Je crois que, de manière optimiste, nous pouvons encore exploiter la plupart des avantages apportés par l’IA, à condition que nous appliquions des normes de sécurité de base avant de déployer à grande échelle des systèmes d’IA puissants », a souligné Tegmark.

Les entreprises doivent démontrer que l'humain peut contrôler l'IA avant de la commercialiser, a-t-il déclaré. Une fois ce principe appliqué, l'industrie pourra rapidement innover pour trouver des moyens plus sûrs de déployer l'IA.

Ảnh minh họa1
L'IAG pourrait échapper au contrôle humain et entraîner de graves conséquences. Photo : Internet

En 2023, le Future of Life Institute, fondé par Tegmark, a appelé à un moratoire sur le développement de systèmes d’IA qui pourraient égaler ou surpasser l’intelligence humaine.

Bien que cet appel n’ait pas abouti, il soutient qu’au moins le sujet est devenu davantage un sujet de conversation et qu’il est temps d’agir pour mettre en place des barrières à l’AGI.

« Beaucoup de gens en parlent, mais la question importante est de savoir si nous pouvons les amener à agir », a déclaré Tegmark au podcast Beyond The Valley de CNBC.

« Il serait fou pour les humains de créer quelque chose de plus intelligent qu’eux-mêmes et de ne pas trouver comment le contrôler », a-t-il averti.

Les prédictions concernant l'apparition de l'AGI sont controversées, en partie en raison des différences de définition de l'AGI. Certains experts estiment qu'elle est encore lointaine, tandis que d'autres pensent qu'elle pourrait survenir dans les prochaines années.

Sam Altman, PDG d'OpenAI, a affirmé que son entreprise maîtrisait parfaitement la conception d'IAG et que cette technologie pourrait être disponible plus tôt que beaucoup ne le pensent. Il a toutefois tenté de minimiser l'engouement suscité par l'impact de l'IAG sur la société.

« Je pense que nous parviendrons à l’AGI plus tôt que la plupart des gens ne le pensent, mais l’impact ne sera pas aussi important que beaucoup de gens l’imaginent », a déclaré Altman en décembre.

Bien que ne révélant pas de détails sur l'avancement du développement de l'AGI, la déclaration d'Altman montre qu'OpenAI se rapproche de cet objectif, tout en soulevant de nombreuses questions sur la préparation du monde à l'émergence d'un système intelligent capable d'égaler ou de surpasser les humains.

Selon CNBC
Copier le lien

Journal Nghe An en vedette

Dernier

x
L'IA peut aller au-delà du contrôle humain
ALIMENTÉ PARUNCMS- UN PRODUIT DENEKO