Qu'est-ce que ChatGPT : une explication simple pour les non-techniciens
Pour un utilisateur normal, ChatGPT est simplement un site Web pour discuter, parler de toutes sortes de sujets avec un bot virtuel.
ChatGPT est actuellement l'un des mots-clés les plus en vogue sur les réseaux sociaux. Cependant, la nature de ce programme d'IA n'est pas toujours clairement comprise par tous. Le journal VietNamNet propose ci-dessous un article de l'expert en sécurité Nguyen Hong Phuc sur ChatGPT, afin de le présenter facilement à ceux qui ne connaissent pas la technologie.
Une compréhension simple de ChatGPT
Pour un utilisateur normal, ChatGPT est simplement un site Web pour discuter, parler de toutes sortes de sujets avec un bot virtuel.
Ce bot a été créé par OpenAI, une société fondée par Elon Musk en 2015, avec pour mission initiale de « prévenir les dangers de l'IA ».
Comment ChatGPT est-il créé ?
ChatGPT est un programme informatique d'intelligence artificielle. Techniquement, on l'appelle souvent « modèle d'IA » (en vietnamien, « modèle de données d'intelligence artificielle »), mais il s'agit en réalité de données numériques exécutées sur un ordinateur. Le qualifier de programme n'est donc pas incorrect.
Le terme « modèle d'IA » se compose de deux parties : « Modèle » (modèle de données) et « IA » (intelligence artificielle). Au sens littéral, « l'intelligence provient des données », ce qui signifie qu'avec davantage de données, l'intelligence émerge.
Le processus de création d'un modèle d'IA est un processus composé des étapes suivantes : collecte de données, sélection de données, étiquetage des données pour la formation et formation.
Enseigner l'IA est fondamentalement simple, comme ce dialogue :
Question : Quel est ton nom ?
Réponse : Je m'appelle ChatGPT
Question : Qu'est-ce que VietNamNet ?
Réponse : VietNamNet est un journal électronique au Vietnam.
Nous apprenons ensuite à l'IA à mémoriser ces informations (entraînement), puis enregistrons les informations mémorisées par l'IA comme modèle (point de contrôle du modèle). Plus tard, lors de son utilisation, nous chargeons la mémoire cérébrale contenant les informations susmentionnées dans l'ordinateur (inférence). Il suffit de poser la question correspondante : l'IA mémorisera alors les connaissances apprises et répondra « exactement ce qui lui a été enseigné ».
En réalité, au cours des dernières décennies, l'IA s'est spécialisée dans de nombreux domaines spécifiques, tels que l'IA pour la construction aéronautique, l'IA pour la simulation de combat, l'IA dans les jeux… mais quasiment aucune grande entreprise n'a investi dans l'IA dans le secteur linguistique. Ce n'est qu'en 2017 qu'une avancée technologique a considérablement amélioré l'efficacité de l'apprentissage par l'IA, notamment en matière d'IA linguistique.
Le langage, et plus particulièrement l'écriture, est l'aboutissement de la civilisation humaine. Les humains écrivent leur savoir. Comprendre le langage (l'écriture), c'est comprendre le savoir humain. C'est le point central de l'IA linguistique. Avant 2017, il était très difficile pour les humains de faire comprendre aux ordinateurs le sens d'une phrase significative.
Alors, qu'est-ce qu'il y a en 2017 ?
En août 2017, les scientifiques de Google, plus précisément de l'unité Google Brain, l'unité de recherche en IA de Google depuis 2011, ont inventé un algorithme appelé Transformer (le nom de l'algorithme est très similaire au célèbre film du cinéma, Robot Wars).
L'algorithme Transformer est une avancée majeure, notamment dans l'apprentissage de l'IA langagière. Avant cet algorithme, pour former une IA, il fallait créer un jeu de données d'apprentissage avec des paires question-réponse (données d'étiquetage), comme mentionné précédemment. Or, les machines ne mémorisaient que ces paires, sans « comprendre » le sens de la phrase. Il existait une différence fondamentale entre l'apprentissage par cœur et la compréhension.
Il est encore plus facile de comprendre qu'après 2017, il nous suffit de verser autant de données textuelles que possible, l'ordinateur déterminera automatiquement ce que signifie ce que nous versons au lieu que nous devions lui en dire le sens.
Extrait du document d'annonce de Google Transformer : « Avec les transformateurs, les ordinateurs peuvent voir les mêmes modèles que les humains. »
Google a eu la gentillesse de rendre publique la documentation détaillée de l'algorithme Transformer, accessible à tous. Il a également accordé les droits Open Source pour cet algorithme. Ainsi, toute la communauté scientifique de l'IA a bénéficié de l'invention de Google. Parmi eux figurait OpenAI, une entreprise fondée en 2015 qui n'a connu de succès notables qu'après 2017.
Quelques mois plus tard, après l'annonce de Transformer par Google, les premières IA linguistiques basées sur ce nouvel algorithme ont vu le jour en masse. En janvier 2018, OpenAI a publié la première IA basée sur Transformer, GPT-1, et l'a mise en œuvre très rapidement, plus rapidement que Google lui-même.
GPT signifie Generative Pre-trained Transformer, ce qui signifie « programme de transformateur pré-entraîné génératif ».
Ce GPT IA a été créé dans le but principal de générer des mots. Plus précisément, vous jouerez à un jeu d'association de mots : vous écrirez une phrase, elle la lira et, grâce aux informations stockées dans sa mémoire, générera des mots pour la poursuivre.
Par exemple:
Vous avez entré : Le Vietnam est
ChatGPT : Le Vietnam est un pays situé en Asie du Sud-Est...
Voici ce qui semble être « magique » : vous discutez avec ChatGPT et il vous répond. En réalité, il ne vous répond pas, mais il crée des liens entre les mots en « générant des mots » pour poursuivre le sens de la phrase que vous avez tapée dans le chat.
![]() |
GPT-1 est la première génération de ChatGPT. Ce GPT-1 est une IA relativement petite, aussi bien en taille qu'en complexité. |
Dans le monde de l'IA linguistique, la complexité – correspondant au niveau d'intelligence de l'IA – est mesurée par une unité appelée hyperparamètres. Ce concept peut être décrit comme le nombre de niveaux de signification que cette IA comprend dans tous les textes utilisés pour l'enseigner.
Pour obtenir des réponses comme celles-ci, les scientifiques d’OpenAI ont collecté une grande quantité de textes écrits par des humains.
Pour entraîner ce GPT d'IA, les scientifiques d'OpenAI ont collecté une grande quantité de textes écrits par des humains, provenant principalement de Wikipédia, d'encyclopédies et de journaux grand public. Le volume s'élève à plusieurs centaines de Go et comprend des centaines de millions de documents. Après la collecte, ils ont nettoyé et sélectionné le contenu. Ils ont ensuite soumis ces documents à l'IA pour qu'elle les lise de nombreuses fois. À chaque lecture, elle a décelé une couche de sens derrière chaque mot, et plus le nombre de lectures augmentait, plus la couche de sens s'élevait.
Les IA sont entraînées pour atteindre un niveau de compréhension approfondie du langage écrit humain, ce qui conduit à un problème très grave pour lequel, à ce jour, aucun scientifique spécialisé en IA n’a de solution.
Calculer le « vrai » ou le « faux ». L'IA ne peut pas distinguer le « vrai » du « faux ».
L'IA peut percevoir plusieurs niveaux de sens dans une phrase, mais ne peut pas « comprendre si le sens est juste ou faux ». Parce que le bien et le mal sont relatifs, pour les humains, ils sont fragiles et controversés, pouvant même provoquer des conflits entre eux.
De plus, l’énorme quantité de données textuelles que les scientifiques d’OpenAI collectent pour former l’IA ne sont pas toutes « correctes » et ne contiennent pas d’informations « correctes » selon les normes sociales humaines, car la quantité de données est trop importante au-delà de leur capacité de sélection.
Par exemple, ils peuvent collecter des textes affirmant que la Terre est ronde, et d'autres affirmant qu'elle est plate. Les données contiennent des informations vraies et fausses. Lorsque l'IA lit et relit ces textes pour en extraire des couches de sens, elle trouve également les « vrais » et les « faux », mais elle n'a pas la conscience nécessaire pour distinguer les informations vraies des fausses. L'IA mémorise tout. Lorsqu'on lui demande ultérieurement, elle répondra simplement de mémoire, sans distinguer le vrai du faux.
Des entreprises comme Google, Facebook, IBM et Microsoft ont annoncé à plusieurs reprises des IA linguistiques révolutionnaires capables de répondre à des questions posées par des humains, mais ont rapidement supprimé ces IA. Vous pouvez rechercher des articles à ce sujet sur Internet dans les principaux journaux. Principalement parce que ces IA répondent à certaines questions avec un biais inacceptable, au regard des normes sociales actuelles, telles que le respect du genre, de la religion, de l'origine ethnique, l'exactitude des événements, les vérités reconnues comme vraies par les humains…
Toutes les grandes entreprises adhèrent aux normes d'exactitude des informations, elles estiment que l'IA ne peut pas résoudre le problème de la reconnaissance du bien et du mal, il est donc préférable de ne pas entrer en bourse.
![]() |
GPT-3 est le même, il crée également des paragraphes qui violent les normes humaines du « bien-mal », voire même qui sont faux au point d'être inacceptables. |
Le GPT-3 était en passe de devenir populaire lorsque la pandémie de Covid-19 a éclaté à l'échelle mondiale. La situation épidémique est devenue de plus en plus tendue à partir de mi-2020, et les informations sur la pandémie ont complètement éclipsé celles concernant le GPT-3.
L'IA GPT-3 et OpenAI ont été oubliés du public jusqu'à fin 2022. OpenAI a décidé de faire un programme de marketing pour voir si cela pouvait relancer l'intérêt pour l'IA linguistique ?
Ils ont donc modifié l'IA GPT-3 en ChatGPT, le rendant plus facile à utiliser, au lieu de se présenter sous la forme d'un site Web où les gens tapent des mots, modifient des paramètres, puis récupèrent un paragraphe de mots connectés, ChatGPT se présente sous la forme d'un programme de chat, avec une boîte de discussion pour saisir des questions, l'IA ChatGPT joue au jeu de générer des mots en connectant des mots avec cette question, mais sous la forme d'une réponse.
Pour résumer la formule du succès de ChatGPT au cours du mois dernier : une IA linguistique suffisamment entraînée pour générer des phrases significatives et suffisamment convaincantes pour les lecteurs + la nature contraire à l'éthique d'une entreprise de technologie d'IA + une interface utilisateur/UX appropriée (Chat) = ChatGPT.
L’IA peut voir plusieurs niveaux de sens dans une phrase, mais ne peut pas « comprendre si ce sens est juste ou faux ».
(L'expert Nguyen Hong Phuc)