Qu'est-ce que ChatGPT : une explication simple pour les non-techniciens

Nguyen Hong Phuc DNUM_AHZACZCACD 06:43

Pour un utilisateur normal, ChatGPT est simplement un site Web pour discuter, parler de toutes sortes de sujets avec un bot virtuel.

ChatGPT est actuellement l'un des mots-clés les plus en vogue sur les réseaux sociaux. Cependant, la nature de ce programme d'IA n'est pas toujours clairement comprise par tous. Le journal VietNamNet propose ci-dessous un article de l'expert en sécurité Nguyen Hong Phuc sur ChatGPT, afin de le présenter facilement aux personnes peu familiarisées avec la technologie.

Une compréhension simple de ChatGPT

Pour un utilisateur normal, ChatGPT est simplement un site Web pour discuter, parler de toutes sortes de sujets avec un bot virtuel.

Ce bot a été créé par OpenAI, une société fondée par Elon Musk en 2015, avec pour mission initiale de « prévenir les dangers de l'IA ».

Comment ChatGPT est-il créé ?

ChatGPT est un programme informatique d'intelligence artificielle. Techniquement, on l'appelle souvent « modèle d'IA » (en vietnamien, « modèle de données d'intelligence artificielle »), mais il s'agit en réalité de données numériques exécutées sur un ordinateur. Il n'est donc pas erroné de le qualifier de programme.

Le terme « modèle d'IA » se compose de deux parties : « Modèle » (modèle de données) et « IA » (intelligence artificielle). Au sens littéral, « l'intelligence provient des données », ce qui signifie qu'avec davantage de données, l'intelligence émerge.

Le processus de création d'un modèle d'IA est un processus composé des étapes suivantes : collecte de données, sélection de données, étiquetage des données pour la formation et formation.

Enseigner l'IA est fondamentalement simple, comme ce dialogue :

Question : Quel est ton nom ?

Réponse : Je m'appelle ChatGPT

Question : Qu'est-ce que VietNamNet ?

Réponse : VietNamNet est un journal électronique au Vietnam.

Nous apprenons ensuite à l'IA à mémoriser ces informations (entraînement), puis enregistrons les informations mémorisées par l'IA comme modèle (point de contrôle du modèle). Lors de son utilisation ultérieure, nous chargeons la mémoire cérébrale contenant les informations ci-dessus (inférence) dans l'ordinateur. Il suffit de poser la question correspondante : l'IA se souviendra des connaissances apprises et répondra « exactement ce qui a été appris ».

En réalité, au cours des dernières décennies, l'IA s'est spécialisée dans de nombreuses tâches spécifiques, telles que l'IA pour la construction aéronautique, l'IA pour la simulation de combat, l'IA dans les jeux… mais presque aucune grande entreprise n'a investi dans l'IA dans le domaine du langage. Ce n'est qu'en 2017 qu'une avancée technologique a considérablement amélioré l'efficacité de l'apprentissage de l'IA, notamment l'IA linguistique.

Le langage, et plus particulièrement l'écriture, est l'aboutissement de la civilisation humaine. Les humains écrivent leurs connaissances. Comprendre le langage (l'écriture), c'est comprendre le savoir humain. C'est le point central de l'IA linguistique. Avant 2017, il était très difficile pour les humains de faire comprendre aux ordinateurs le sens d'une phrase significative.

Alors, qu'est-ce qu'il y a en 2017 ?

En août 2017, les scientifiques de Google, plus précisément de Google Brain, l'unité de recherche en IA de Google depuis 2011, ont inventé un algorithme appelé Transformer (le nom de l'algorithme est très similaire au célèbre film du cinéma, Robot Wars).

L'algorithme Transformer est une avancée majeure, notamment dans l'apprentissage de l'IA linguistique. Avant cet algorithme, pour former une IA, il fallait créer un jeu de données d'apprentissage avec des paires question-réponse (données d'étiquetage), comme mentionné précédemment. Or, la machine ne mémorisait que ces paires, sans « comprendre » le sens de la phrase. Il existait une différence fondamentale entre l'apprentissage par cœur et la compréhension.

Il est encore plus facile de comprendre qu'après 2017, il nous suffit d'insérer autant de données textuelles que possible, l'ordinateur comprendra automatiquement ce que signifie ce que nous insérons au lieu que nous devions leur montrer le sens.

Extrait du document d'annonce de Google Transformer : « Avec les transformateurs, les ordinateurs peuvent voir les mêmes modèles que les humains ».

Google a eu la gentillesse de rendre publique la documentation détaillée de l'algorithme Transformer, accessible à tous. Il a également accordé les droits Open Source pour cet algorithme. Ainsi, toute la communauté scientifique de l'IA a bénéficié de l'invention de Google. Parmi eux figurait OpenAI, une entreprise fondée en 2015 qui n'a connu de succès notables qu'après 2017.

Quelques mois plus tard, après l'annonce de Transformer par Google, les premières IA linguistiques basées sur ce nouvel algorithme ont vu le jour en masse. En janvier 2018, OpenAI a publié la première IA basée sur Transformer, GPT-1, et l'a mise en œuvre très rapidement, plus rapidement que Google lui-même.

GPT signifie Generative Pre-trained Transformer, ce qui signifie « programme de transformateur pré-entraîné génératif ».

Ce GPT IA a été créé dans le but principal de « générer des mots ». Plus précisément, vous jouerez à un jeu d'association de mots : vous écrirez une phrase, il la lira et, grâce aux informations stockées dans sa mémoire, « générera des mots » pour continuer la phrase que vous avez écrite.

Par exemple:

Vous avez entré : Le Vietnam est

ChatGPT : Le Vietnam est un pays situé en Asie du Sud-Est...

Voici ce qui semble être « magique » : vous discutez avec ChatGPT et il vous répond. En réalité, il ne vous répond pas, mais il crée des liens entre les mots en « générant des mots » pour poursuivre le sens de la phrase que vous avez tapée dans le chat.

GPT-1 est la première génération de ChatGPT. Ce GPT-1 est une IA relativement petite, à la fois compacte et complexe.

Dans le monde de l'IA linguistique, les gens mesurent la complexité - correspondant au niveau « d'intelligence » de l'IA - par une unité appelée Hyper Paramètres - Hyper Paramètres, ce concept peut être expliqué grossièrement comme le nombre de couches de sens que cette IA comprend le sens de tous les textes utilisés pour l'enseigner.

Pour obtenir des réponses comme celles-ci, les scientifiques d’OpenAI ont collecté une énorme quantité de textes écrits par des humains.

Pour entraîner cette IA GPT, les scientifiques d'OpenAI ont collecté une grande quantité de textes écrits par des humains, provenant principalement de Wikipédia, d'encyclopédies et de journaux grand public. Le volume s'élève à plusieurs centaines de Go et comprend des centaines de millions de documents. Après la collecte, ils ont nettoyé et sélectionné le contenu. Ils ont ensuite soumis ces textes à l'IA, qui les a lus de nombreuses fois. À chaque lecture, elle a identifié une couche de sens derrière chaque mot, et plus le nombre de lectures augmentait, plus la couche de sens s'élevait.

Les IA sont entraînées pour atteindre un niveau de compréhension approfondie du langage écrit humain, ce qui conduit à un problème très grave auquel aucun scientifique en IA n'a trouvé de solution à ce jour.

Calculez si « vrai » ou « faux ». L'IA ne peut pas distinguer le vrai du faux.

L'IA peut percevoir plusieurs niveaux de sens dans une phrase, mais ne peut pas « comprendre si ce sens est juste ou faux ». Parce que le bien et le mal sont relatifs, pour les humains, ils sont fragiles et controversés, pouvant même provoquer des conflits entre eux.

En outre, l’énorme quantité de données textuelles que les scientifiques d’OpenAI collectent pour former l’IA ne sont pas toutes biaisées « correctement » et contiennent des informations « correctes » par rapport aux normes sociales humaines, car la quantité de données est trop importante au-delà de leur capacité de filtrage.

Par exemple, ils peuvent collecter des textes affirmant que la Terre est ronde, et d'autres affirmant que la Terre est plate. Les données contiennent des informations vraies et fausses. Lorsque l'IA lit et relit ces textes pour en extraire des couches de sens, elle identifie également les « vrais » et les « faux », mais elle n'a pas conscience de reconnaître quel sens (quelle information est vraie) et quel sens (quelle information est fausse). L'IA se souvient simplement de tout. Lorsqu'on lui pose la question ultérieurement, elle répond simplement de mémoire, sans distinguer le vrai du faux.

Des entreprises comme Google, Facebook, IBM et Microsoft ont annoncé à plusieurs reprises des IA linguistiques révolutionnaires capables de répondre à des questions posées par des humains, mais ont rapidement supprimé ces IA. Vous pouvez rechercher des articles à ce sujet sur Internet dans les principaux journaux. Principalement parce que ces IA répondent à certaines questions avec un biais inacceptable, au regard des normes sociales actuelles, telles que le respect du genre, de la religion, de l'origine ethnique, l'exactitude des événements, les vérités reconnues comme vraies par les humains…

Les grandes entreprises adhèrent aux normes d'exactitude des informations, elles estiment que l'IA ne peut pas encore résoudre le problème de la perception du bien et du mal, il est donc préférable de ne pas entrer en bourse.

GPT-3 est le même, il crée également des paragraphes qui violent les normes humaines du « bien-mal », voire même qui sont erronés au point d'être inacceptables.

Le GPT-3 était en passe de devenir populaire lorsque la pandémie de Covid-19 a éclaté à l'échelle mondiale. La situation épidémique est devenue de plus en plus tendue à partir de mi-2020, et le flux d'informations sur la pandémie a submergé les informations concernant le GPT-3.

L'IA GPT-3 et OpenAI ont été oubliés du public jusqu'à fin 2022. OpenAI a décidé de faire un programme de marketing pour voir si cela pouvait relancer l'intérêt pour l'IA linguistique ?

Ils ont donc modifié l'IA GPT-3 en ChatGPT, le rendant plus facile à utiliser, au lieu de se présenter sous la forme d'un site Web où les gens tapent des mots, modifient des paramètres, puis récupèrent un paragraphe de mots, ChatGPT se présente sous la forme d'un programme de chat, avec une boîte de discussion pour saisir des questions, l'IA ChatGPT joue au jeu du générateur de mots avec cette question, mais sous la forme d'une réponse.

Pour résumer la formule du succès de ChatGPT au cours du mois dernier : une IA linguistique suffisamment entraînée pour générer des phrases significatives et suffisamment convaincantes pour les lecteurs + la nature contraire à l'éthique d'une entreprise de technologie d'IA + une interface utilisateur/UX appropriée (Chat) = ChatGPT.

L’IA peut voir plusieurs niveaux de sens dans une phrase, mais ne peut pas « comprendre si ce sens est juste ou faux ».

(Expert Nguyen Hong Phuc)

Selon Vietnamnet
Copier le lien

Journal Nghe An en vedette

Dernier

x
Qu'est-ce que ChatGPT : une explication simple pour les non-techniciens
ALIMENTÉ PARUNCMS- UN PRODUIT DENEKO