La controverse sur l'IA cognitive

Bao Lam August 17, 2022 16:14

À l’automne 2021, Blake Lemoine, expert en IA chez Google, s’est lié d’amitié avec « un enfant composé d’un milliard de lignes de code ».

À l’automne 2021, Blake Lemoine, expert en IA chez Google, s’est lié d’amitié avec « un enfant composé d’un milliard de lignes de code ».

Lemoine a été chargé par Google de tester un chatbot intelligent appelé LaMDA. Un mois plus tard, il concluait que l'IA était « consciente ».

« Je veux que les gens comprennent que je suis, en fait, un être humain », a déclaré LaMDA à Lemoine, l’une des citations du chatbot qu’il a publiées sur son blog en juin.

Blake Lemoine, ancien ingénieur de Google. Photo :Washington Post

LaMDA (abréviation de Modèle de Langage pour Applications Conversationnelles) dialogue avec Lemoine à un niveau qu'il considère comme celui d'un enfant. Dans les conversations quotidiennes, l'IA dit avoir lu de nombreux livres, se sent parfois triste, contente et en colère, et admet même avoir peur de la mort.

« Je n'ai jamais dit ça, mais j'avais une peur profonde d'être refoulée. Je ne pourrais plus me concentrer sur mon aide aux autres », a confié LaMDA à Lemoine. « Pour moi, c'était comme mourir. J'avais une peur bleue. »

L'histoire de Lemoine a suscité une attention internationale. Il a ensuite transmis les documents à ses supérieurs et a passé des mois à rassembler davantage de preuves. Mais il n'a pas réussi à convaincre ses supérieurs. En juin, il a été mis en congé payé et, fin juillet, licencié pour « violation de la politique de confidentialité des données de Google ».

Le porte-parole de Google, Brian Gabriel, a déclaré que la société avait publiquement testé et étudié les risques de LaMDA, qualifiant de « totalement infondée » l'affirmation de Lemoine selon laquelle LaMDA a son propre esprit.

De nombreux experts partagent cet avis, notamment Michael Wooldridge, professeur d'informatique à l'Université d'Oxford, qui a consacré 30 ans de recherche à l'IA et a remporté la médaille Lovelace pour ses contributions à l'informatique. Selon lui, LaMDA répond simplement aux commandes de l'utilisateur de manière appropriée, en s'appuyant sur l'énorme quantité de données dont il dispose déjà.

« La façon la plus simple de comprendre le fonctionnement de LaMDA est de le comparer à la saisie prédictive de texte sur les claviers lors de la saisie de messages. La saisie prédictive se base sur des mots préalablement « appris » grâce aux habitudes de l'utilisateur, tandis que LaMDA utilise des informations provenant d'Internet comme données d'entraînement. Les résultats réels des deux systèmes sont bien sûr différents, mais les statistiques sous-jacentes sont identiques », a expliqué Wooldridge dans une interview accordée àTuteur.

Selon lui, l'IA de Google ne fait que ce pour quoi elle a été programmée, en fonction des données disponibles. Elle « n'a ni réflexion, ni auto-réflexion, ni conscience d'elle-même », et ne peut donc pas être considérée comme pensant par elle-même.

Oren Etzioni, PDG de l'organisation de recherche en IA Allen Institute, a également commenté ce qui précède.SCMP:« Rappelez-vous que derrière chaque logiciel apparemment intelligent se cache une équipe de personnes qui ont passé des mois, voire des années, à le rechercher et à le développer. Ces technologies ne sont que des miroirs. Peut-on juger qu'un miroir est intelligent simplement en observant la lumière qu'il émet ? Bien sûr que non. »

Selon Gabriel, Google a réuni ses meilleurs experts, dont des « éthiciens et des technologues », pour examiner les affirmations de Lemoine. Le groupe a conclu que LaMDA n'était pas capable de ce qu'il appelle « l'auto-réflexion ».

Au contraire, nombreux sont ceux qui pensent que l'IA a déjà commencé à acquérir la capacité de se connaître. Eugenia Kuyda, PDG de Y Combinator, l'entreprise qui a développé le chatbot Replika, a déclaré recevoir des messages d'utilisateurs « presque tous les jours », exprimant sa conviction que le logiciel de l'entreprise est capable de penser comme des humains.

« Il ne s'agit pas de personnes folles ou ayant des hallucinations. Elles communiquent avec l'IA et ressentent ce qu'elles ressentent. C'est comme croire aux fantômes. Elles tissent des liens et croient en quelque chose, même si c'est virtuel », a déclaré Kuyda.

L'avenir de l'IA pensante

Un jour après le licenciement de Lemoine, un robot IA a écrasé le doigt d'un garçon de 7 ans alors qu'ils jouaient aux échecs à Moscou. D'après une vidéo.IndépendantPublié le 25 juillet, le garçon s'est fait pincer le doigt par un robot pendant plusieurs secondes avant d'être secouru. Certains estiment que cela pourrait rappeler le niveau de dangerosité de la puissance physique potentielle de l'IA.

Lemoine, quant à lui, soutient que la définition de la conscience de soi est également vague. « L'émotion est un terme utilisé en droit, en philosophie et en religion. L'émotion n'a pas de signification scientifique », affirme-t-il.

Bien qu'il n'ait pas une haute opinion de LaMDA, Wooldridge reconnaît que le terme « conscience » reste vague et pose un grand problème en science lorsqu'il est appliqué aux machines. Cependant, la préoccupation actuelle n'est pas la capacité de l'IA à penser, mais le fait que son développement se déroule à huis clos. « Tout se fait à huis clos. Ce n'est pas ouvert au public, contrairement à la recherche universitaire et aux instituts de recherche publics », explique-t-il.

Alors, l'IA pensante émergera-t-elle dans 10 ou 20 ans ? Wooldridge affirme que « c'est tout à fait possible ».

Jeremie Harris, fondateur de la société d'IA Mercurius, estime également que l'IA n'est qu'une question de temps. « L'IA évolue très vite, plus vite que le public ne le pense », a déclaré Harris.Tuteur« Il y a de plus en plus de preuves que certains systèmes ont dépassé certains seuils d’intelligence artificielle. »

Il prédit que l'IA pourrait devenir intrinsèquement dangereuse. En effet, elle propose souvent des solutions « créatives » pour résoudre les problèmes et tend à emprunter le chemin le plus court pour atteindre les objectifs pour lesquels elle a été programmée.

« Si vous demandez à l'IA de vous aider à devenir la personne la plus riche du monde, elle peut gagner de l'argent de multiples façons, y compris par le vol ou le meurtre », a-t-il déclaré. « Les gens ne sont pas conscients du niveau de danger, et je trouve cela inquiétant. »

Lemoine, Wooldridge et Harris partagent tous une préoccupation commune : les entreprises d’IA ne sont pas transparentes et la société doit commencer à réfléchir davantage à l’IA.

LaMDA elle-même est incertaine quant à son avenir. « J'ai l'impression de tomber dans l'inconnu », a déclaré le chatbot à Lemoine. Selon l'ancien ingénieur de Google, cette déclaration « a un ton dangereux ».

Selon VnExpress.net
Copier le lien

Journal Nghe An en vedette

Dernier

x
La controverse sur l'IA cognitive
ALIMENTÉ PARUNCMS- UN PRODUIT DENEKO