L’intelligence artificielle plus dangereuse que les bombes atomiques ?

Phan Van Hoa DNUM_AHZAFZCACD 17:18

(Baonghean.vn) - Les experts en intelligence artificielle (IA) émettent de graves avertissements sur les dangers que le développement incontrôlé de l'IA représentera pour la société, voire pour la survie de l'humanité elle-même.

Les performances étonnantes d’un modèle d’IA conversationnelle avancé, développé par OpenAI et publié fin novembre 2022 sous le nom de ChatGPT, ont suscité l’espoir que des systèmes capables d’égaler les capacités cognitives humaines, voire de posséder une intelligence « surhumaine », pourraient bientôt devenir une réalité.

Photo d'illustration.

La capacité à comprendre le langage humain et à générer des textes qui ressemblent à ceux des humains est un objectif de longue date de la recherche en IA. Avec l'avènement des grands modèles linguistiques (LLM), cet objectif est plus proche que jamais.

Fondamentalement, ChatGPT est un puissant modèle d'IA conversationnelle qui exploite la puissance des grands modèles linguistiques pour fournir des réponses, des réponses aux questions et des suggestions de type humain en temps réel. Contrairement aux chatbots traditionnels qui se limitent à des réponses préprogrammées, ChatGPT peut comprendre et générer une grande variété de textes créatifs et parfois inexacts.

Cependant, les experts en IA lancent de graves avertissements quant aux dangers que le développement incontrôlé de l’IA représenterait pour la société, voire pour la survie de l’humanité elle-même.

De nombreux avertissements ont été émis sur les dangers de l’IA.

Le 22 mars, le milliardaire Elon Musk et un groupe de plus de 1 000 experts technologiques de renommée mondiale ont lancé le processus de signature d'une lettre ouverte aux Nations Unies, alertant sur le risque d'un développement incontrôlé de l'IA. La lettre ouverte se terminait par la déclaration suivante : « Par conséquent, nous appelons tous les laboratoires d'IA à cesser immédiatement de former des systèmes d'IA plus puissants que GPT-4 pendant au moins six mois. »

Pour justifier la nécessité d'arrêter la recherche sur les modèles ChatGPT de nouvelle génération, la lettre ouverte soutient :

Les modèles d'IA avancés pourraient représenter un changement profond dans l'histoire de la vie sur Terre et nécessiter une planification et un contrôle minutieux. Pourtant, cela n'a pas été fait, même si ces derniers mois ont vu les laboratoires d'IA se lancer dans une course effrénée au développement et au déploiement d'esprits numériques toujours plus puissants que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable. Nous devrions nous demander : devrions-nous automatiser tous les emplois ? Devrions-nous développer des esprits artificiels plus intelligents et capables de nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ?

En réalité, ce n'est pas la première fois que des scientifiques mettent en garde contre le danger potentiel de l'intelligence artificielle pour l'homme. En 2014, le célèbre physicien théoricien britannique Stephen Hawking déclarait : « Le développement complet de l'intelligence artificielle pourrait détruire l'humanité. » Il affirmait également que l'homme serait complètement remplacé par l'intelligence artificielle d'ici 500 ans si la recherche et le développement de cette technologie dangereuse n'étaient pas prudents.

Récemment, Eliezer Yudkowsky, un informaticien américain largement considéré comme l'un des fondateurs du domaine de l'IA, s'est montré encore plus inquiet lorsqu'il a publié un article dans le magazine américain Time intitulé « Suspendre le développement de l'IA ne suffit pas. Nous devons tout arrêter ».

En conséquence, M. Eliezer Yudkowsky a déclaré qu'il était très probable qu'un modèle d'IA doté d'une intelligence surhumaine apparaisse. À ce moment-là, les humains sur Terre seront littéralement menacés de mort. Ce n'est pas « possible », mais « il est évident que cela se produira ».

Les risques potentiels de l'intelligence artificielle dépendent de son utilisation. L'IA a été initialement développée pour assister les humains dans leur travail, notamment pour des tâches répétitives et fastidieuses comme la classification d'images, la consultation d'informations…

Cependant, avec le développement rapide de l’IA ces derniers temps, les scientifiques et les experts en technologie craignent que si elle est développée de manière incontrôlée ou programmée à de mauvaises fins, l’intelligence artificielle puisse avoir de graves conséquences pour les humains et la société.

Le développement de l’IA doit être étroitement contrôlé comme les bombes thermonucléaires

La vue de scientifiques spécialisés en IA appelant à une pause, voire à la fin des travaux en pleine progression dans leur domaine, ne peut que nous rappeler l’histoire des armes nucléaires.

La terrible puissance destructrice des bombes atomiques, créées par les scientifiques tout au long de l’histoire, est également considérée comme un exemple typique de la recherche et du développement de nouvelles technologies.

En 1949, plusieurs physiciens nucléaires de premier plan et d’autres vétérans du projet de bombe atomique ont protesté contre leur participation au développement d’une arme thermonucléaire (« bombe à hydrogène »), car l’énergie libérée par une telle bombe pourrait être 1 000 fois supérieure à celle d’une bombe atomique à fission.

La plupart des scientifiques s'accordent à dire que les bombes thermonucléaires menacent l'avenir même de l'humanité. L'humanité se porterait mieux sans ces super-bombes.

Cependant, au-delà des applications militaires qui représentent une menace pour l'humanité, l'énergie atomique, sous la forme de réacteurs à fission, a apporté de grands bienfaits à l'humanité. L'énergie thermonucléaire, libérée pour la première fois de manière incontrôlée par la bombe thermonucléaire, promet d'apporter des bienfaits encore plus grands.

Lorsque l’IA sera développée au point de pouvoir prendre ses propres décisions pour faire face aux changements de l’environnement qui l’entoure, rechercher des cibles alternatives ou élargir sa portée de cibles, alors les humains ne seront peut-être plus en sécurité.

Par exemple, à l'avenir, l'IA prendra en charge des systèmes importants tels que l'électricité, les transports, la santé, la finance, etc. Elle pourra maîtriser et contrôler tous ces systèmes et prendre et exécuter des décisions en cas d'urgence. Intégrée à des objectifs plus ambitieux, l'IA peut avoir de graves conséquences, comme perturber la circulation en désactivant les feux de circulation ou en coupant l'alimentation des trains urbains, provoquer une série d'accidents, provoquer des pannes de courant généralisées, etc.

Les studios hollywoodiens américains ont également produit de nombreux films inspirés de ce scénario. Cependant, grâce à la technologie d'IA actuelle, ce n'est plus une perspective lointaine, mais peut devenir une réalité. Elon Musk estime que si l'IA se développe sans contrôle, au point d'automatiser les décisions sans intervention humaine, cela pourrait menacer la survie de l'humanité.

C'est pourquoi lui et des milliers d'experts en technologie ont signé une lettre exigeant l'arrêt et le contrôle strict du développement de l'IA, en toute transparence. Selon Elon Musk, les systèmes d'intelligence artificielle sont très complexes, difficiles à comprendre et à contrôler. Sans transparence, l'utilisation de l'intelligence artificielle à des fins contraires à l'éthique, portant préjudice aux humains, est inévitable.

L’IA peut-elle modifier le comportement humain ?

Imaginons qu'à l'avenir, les systèmes d'IA fonctionnant sur la base de l'apprentissage profond acquièrent progressivement la capacité de manipuler les humains à travers leurs états psychologiques et de modifier leurs comportements. L'apprentissage profond peut être considéré comme un sous-domaine de l'apprentissage automatique, où les ordinateurs apprendront et s'amélioreront grâce à des algorithmes. L'apprentissage profond repose sur des concepts beaucoup plus complexes, fonctionnant principalement avec des réseaux de neurones artificiels pour imiter la capacité du cerveau humain à penser et à raisonner.

En réalité, de tels systèmes pourraient prendre le contrôle de la société. Compte tenu du comportement imprévisible des systèmes d'IA basés sur l'apprentissage profond, s'ils ne sont pas correctement contrôlés, ils pourraient avoir des conséquences catastrophiques pour l'humanité.

À l'avenir, les pays déploieront un réseau de systèmes d'IA modifiant les comportements dans les médias, les systèmes éducatifs et d'autres domaines afin d'« optimiser » la société. Ce processus peut être efficace au début, mais il échappera rapidement au contrôle humain et mènera au chaos social.

De nombreuses applications d'IA sont optimisées pour modifier le comportement humain, notamment les chatbots utilisés en psychothérapie. Dans de nombreux autres cas, comme dans l'éducation des enfants, les applications d'IA ont de puissants effets de modification comportementale.

Comme toute autre technologie, chaque application d'IA présente ses avantages, mais aussi ses dangers potentiels. Actuellement, les performances des systèmes d'IA sont encore contrôlées par l'homme.

Cependant, le développement de l'IA a ouvert une toute nouvelle dimension. Un article récent du magazine Forbes, rédigé par Lance Eliot, expert reconnu en IA, détaille les différentes manières dont les chatbots et autres applications d'IA peuvent manipuler la psychologie humaine, même sans intention de le faire.

D’autre part, la manipulation intentionnelle du comportement et de l’esprit à l’aide de systèmes d’IA est un domaine en pleine croissance, avec des applications continues dans divers contextes.

Par exemple, les systèmes d'apprentissage en ligne avancés basés sur l'IA peuvent également être considérés comme une forme de modification comportementale. En effet, les applications de l'IA en éducation s'appuient généralement sur des modèles comportementaux d'apprentissage humain. Les systèmes d'enseignement avancés basés sur l'IA sont conçus pour optimiser les réponses et les performances des enfants, établir un profil individuel pour chaque enfant, évaluer leurs progrès en temps réel et ajuster leurs activités en conséquence.

Un autre exemple est la popularité des chatbots d’IA qui aident les gens à arrêter de fumer ou de prendre de la drogue, à faire de l’exercice correctement et à adopter des habitudes plus saines.

Il ne fait aucun doute que les systèmes d'IA sont effectivement plus performants que les humains dans de nombreux contextes spécifiques. De plus, l'IA est en constante amélioration. Mais où nous mèneront l'expansion et l'intégration continues des systèmes d'IA, d'autant plus qu'elles débouchent sur des capacités toujours plus complètes et puissantes pour façonner la pensée et le comportement humains ?

Tout au long de l’histoire de l’humanité, les tentatives visant à optimiser complètement une société en tant que supersystème fonctionnant selon des critères stricts ont souvent conduit au désastre.

Selon la lettre ouverte citée ci-dessus, la plupart des experts dans le domaine de l’IA conviennent que les applications de l’IA doivent toujours se dérouler sous la supervision humaine et que le développement et l’application de l’IA doivent être régis par l’intelligence humaine.

La prolifération de l’IA basée sur l’apprentissage profond pénètre de plus en plus de nombreux domaines de l’activité humaine et la tendance à intégrer de tels systèmes dans les hiérarchies sociales posera d’énormes risques pour la société.

La question ici est la suivante : en cas de dysfonctionnement d’un supersystème d’IA menaçant de provoquer des conséquences catastrophiques, qui ou quoi interviendra pour l’arrêter ?

Dans le célèbre film de science-fiction de Stanley Kubrick, « 2001 : L’Odyssée de l’espace », l’astronaute survivant intervient in extremis pour désactiver le système d’IA. Mais aurait-il pu le faire si le système d’IA avait préalablement ajusté son comportement pour l’en empêcher ?

En réalité, il est déraisonnable de tenter de limiter le développement de l'IA. Ce serait néfaste et contreproductif. Cependant, nous devons reconnaître que les dangers découlant de l'expansion rapide des systèmes d'IA dans presque tous les domaines de l'activité humaine doivent être contenus par une réglementation appropriée et une surveillance humaine.

Comme toute autre technologie, l'IA est très utile pour améliorer la qualité du travail et de la vie humaine, et peut être utilisée à bon ou mauvais escient. Il est donc crucial de contrôler strictement cette technologie afin qu'elle ne devienne pas incontrôlable et ne risque pas de remplacer l'humain à l'avenir.

Journal Nghe An en vedette

Dernier

x
L’intelligence artificielle plus dangereuse que les bombes atomiques ?
ALIMENTÉ PARUNCMS- UN PRODUIT DENEKO