ChatGPT 是什么:面向非技术人员的简单解释
对于普通用户来说,ChatGPT 只是一个聊天网站,可以与虚拟机器人讨论各种话题。
ChatGPT 目前是社交网络上最热门的关键词之一。然而,并非所有人都能清晰地理解这款人工智能程序的本质。以下,越南网报将向读者推荐一篇由安全专家阮红福撰写的关于 ChatGPT 的文章,旨在帮助那些不了解技术的人轻松理解。
ChatGPT简单理解
对于普通用户来说,ChatGPT 只是一个聊天网站,可以与虚拟机器人讨论各种话题。
这款机器人是由埃隆·马斯克于2015年创立的OpenAI公司打造的,其最初的使命是“防止人工智能的危险”。
ChatGPT 是如何创建的?
ChatGPT 是一款人工智能计算机程序。技术上,人们通常称之为 Model AI,越南语中是“人工智能数据模型”,但实际上它仍然是在计算机上运行的数字数据,所以称其为程序也并无不妥。
模型AI这个词由两部分组成:模型(数据模型)和AI(人工智能)。字面意思是智能源于数据,也就是说数据越多,智能就越多。
创建AI模型的过程是由以下步骤组成的过程:数据收集,数据选择,用于训练的数据标记和训练。
教人工智能基本上很容易,就像这样的对话:
问题:你叫什么名字?
回答:我的名字是 ChatGPT
问:什么是 VietnamNet?
答:VietNamNet是越南的一份电子报纸。
然后我们教会AI记住这些信息(训练),并将AI记忆的大脑保存为AI模型(模型检查点)。之后使用时,将包含上述信息的记忆大脑加载到计算机中(推理),只需要问相应的问题,AI就会记住已经教过的知识,并“一模一样”地回答。
事实上,过去几十年,AI 已经专注于许多特定任务,例如:支持飞机建造的 AI、模拟战斗的 AI、游戏中的 AI……但几乎没有大公司在语言领域投资 AI。直到 2017 年,才出现了一项技术突破,使得 AI 训练,尤其是语言 AI 的效率显著提升。
语言,特别是文字,是创造人类文明的成果。人类的知识蕴藏在文字之中。理解语言(文字)就是理解人类的知识。这是语言人工智能诞生的核心。在2017年之前,人类很难让计算机理解一个有意义的句子的含义。
那么 2017 年会发生什么?
2017年8月,谷歌的科学家,特别是自2011年以来一直隶属于谷歌的人工智能研究部门谷歌大脑,发明了一种名为Transformer的算法(该算法的名称与电影界著名的电影《机器人大战》非常相似)。
Transformer 算法是一项突破,具体来说,是语言 AI 训练领域的一项突破。在此算法出现之前,人类如果想教 AI,就必须像上文提到的那样,创建一个包含问答对(标签数据)的训练数据集。而机器实际上只记住了问答对,却无法“理解”句子的含义,这在死记硬背和理解之间有着巨大的差异。
更容易理解的是,2017年之后,我们只需要输入尽可能多的文本数据,计算机会自动理解我们输入的内容是什么意思,而不需要我们去向它展示含义。
摘自谷歌 Transformer 公告文件:“借助 Transformer,计算机可以看到人类看到的相同模式”。
谷歌慷慨地公开了Transformer算法的详细文档,供所有人访问。同时,它还提供了该算法的开源权利。因此,整个人工智能科学界都受益于谷歌的这项发明。其中包括OpenAI,这家成立于2015年的公司,直到2017年之后才取得了显著的成就。
谷歌宣布Transformer之后,几个月后,基于这一新算法的首批语言AI便纷纷诞生。2018年1月,OpenAI发布了第一个基于Transformer的AI——GPT-1,并且很快投入应用,比谷歌自己还快。
GPT 是 Generative Pre-trained Transformer 的缩写,意思是“生成式预训练 Transformer 程序”。
这个人工智能 GPT 的主要目的是“生成单词”。具体来说,你可以和它玩一个单词联想游戏,你写一个句子,它会读出这个句子,然后根据它存储在记忆中的知识,“生成单词”来延续你写的句子。
例如:
您输入的是:越南是
ChatGPT:越南是一个位于东南亚的国家……
这就是看似“神奇”的事情:你和 ChatGPT 聊一句话,它就会回复你一句话。其实它不是在回答你,而是在通过“生成单词”进行单词连接,从而延续你在聊天中输入的句子的含义。
![]() |
GPT-1 是 ChatGPT 的第一代。这个 GPT-1 是一个相当小的 AI,无论是规模还是复杂度都比较小。 |
在语言AI的世界里,人们用一个叫超参数(HyperParameters)的单位来衡量复杂性——对应着AI的“智能”程度,这个概念可以粗略地解释为这个AI能够理解用来教它的所有文本的含义的多少层。
为了得到这样的答案,OpenAI 的科学家收集了大量人类书面文本。
为了训练这个通用人工智能(GPT),OpenAI 的科学家收集了大量人类书写的文本,主要来自维基百科、百科全书以及主流和公共报纸,文本量大约有数百 GB,文档数量达数亿。收集完成后,他们清理并筛选内容。然后,他们将这些文本交给人工智能阅读,让它反复阅读,每次阅读时,它都能理解这些词语背后的含义,阅读次数越多,含义的层次就越多。
人工智能经过训练可以达到对人类书面语言的深度理解水平,这导致了一个非常严重的问题,迄今为止还没有人工智能科学家找到解决方案。
计算“真”或“假”。AI无法理解什么是“真”或“假”。
人工智能能够理解一句话的多层含义,但却无法“理解这种含义是对是错”。正因为对错是相对的,对人类而言,它脆弱且充满争议,甚至会引发人类之间的争斗。
此外,OpenAI 的科学家为训练 AI 而收集的大量文本数据并非全部带有“正确”的偏见,也并非包含符合人类社会规范“正确”的信息,因为数据量太大,超出了他们的筛选能力。
例如,他们可能收集声称地球是圆的文本,也可能收集声称地球是平的文本。数据包含真实和虚假的信息。当人工智能反复阅读这些文本以寻找层层含义时,它也会找到“真”和“假”的含义,但人工智能没有意识去识别哪些含义——哪些信息是真的,哪些信息是假的。人工智能只是记住了一切。当之后被问到时,它只是根据记忆回答这些信息,不区分对错。
谷歌、Facebook、IBM、微软等公司曾多次宣布其语言人工智能在回答人类输入问题方面取得突破,但很快又删除了这些人工智能。你可以在互联网上搜索各大报纸的相关文章。主要是因为这些人工智能在回答某些问题时,会带有不可接受的“错误”含义,这些含义与当前的人类社会标准相悖,例如对性别的尊重、对宗教的尊重、对种族的尊重、对已发生事件的准确性、对人类公认的真理的尊重等等。
大公司坚持信息准确性的标准,他们评估人工智能还不能解决正确与错误认知的问题,所以最好不要上市。
![]() |
GPT-3也是一样,它也会创造出违反人类“对错”标准的段落,甚至错到让人无法接受的地步。 |
正当 GPT-3 走向普及之际,新冠疫情在全球爆发。从 2020 年中期开始,疫情形势愈发紧张,疫情信息流淹没了 GPT-3 的信息。
AI GPT-3 和 OpenAI 直到 2022 年底才被公众遗忘。OpenAI 决定做一个营销计划,看看能否重新激起人们对语言 AI 的兴趣?
于是他们把AI GPT-3改造成了ChatGPT,让它更容易使用,ChatGPT不再是一个网站的形式,人们输入单词,编辑参数,然后返回一段文字,而是以聊天程序的形式出现,有一个聊天框可以输入问题,AI ChatGPT用这个问题玩Word Generator游戏,但是是以答案的形式。
总结一下ChatGPT在过去一个月的成功公式:一个经过足够深度训练,能够生成有意义、让读者有足够说服力的句子的语言AI+一家AI科技公司的不道德本质+合适的UI/UX(聊天)=ChatGPT。
人工智能可以看到一句话的多层含义,但无法“理解这个含义是对是错”。
(专家阮红福)