第一位网友的回答:
不给你扯长篇大论,不扯专业术语。做个一分钟小实验,让你get到GPT的核心原理。我现在给你出个找规律的题:已知1.WSHR2、2.WSHR3、3.WSHRM、4.HRSYHBD。提问:现在有一段话只有开头WS,那后面可能是什么?按照你观察到的规律,你可能会回答:我吧,我看WS后面都是接的HR,而且一、三出现了两次呢。你还有可能回答WSHR和WSHRM也有可能吧,毕竟都挨着WS。低概率你也可能会回答WS YHBD,没准跟W没关系,是跟S有关系呢。你看四里面S后面接的是TB,说不定它是对的呢。但无论如何,你几乎不会回答WSBH、WSMR等等这种毫不沾边的结果。
到现在你可能还都是云里雾里,那么我揭晓谜底:字母实际上是下面这段话内容的拼音缩写。已知一:我是好人,二:我是坏人,三:我是好人吗,四:好人是有好报的。提问:现在只有“我是”两个字,那么后面可能是什么?那么我们再来看回答:实际上是回答一:我是好人,因为已知里面“我是”后面接“好人”的次数多;回答二:我是坏人,我也是好人吗,也有可能,因为跟“我是”挨着;回答三:我是有好报的,说不定也是对的呢,没准跟“我”没关系,主要看“是”后面是啥呢。你几乎不会回答我是报好、我是骂人等等这种语句不通的结果。
虽然你完全不懂这个题目在说什么,但是通过观察意志内容,总结规律,还是能够回答出语句通顺且相对靠谱的答案。那么你这里大概率已经懂了“已知”的内容,实际上就是AI训练时要喂给它的语料;你观察到的规律,实际上就是训练后的模型。AI实际上也是完全不理解你在说什么,你给它看的东西对它来说毫无意义。但这样,当人们提出某些问题时,它就可以根据以前观察到的规律回复出大概率是正确的回答。这也就是现在生成式AI的神奇之处。
第二位网友的回答:
Chat GPT的通俗解释:Chat GPT其实在原理上不难理解,大体上它就是一个超级抠图王、超级电话接线员、超级审核的组合。超级抠图王,平时你抠图会抠一个人或者一个东西下来,对不对?在计算机看来,你就相当于画了一条封闭的曲线,然后把这条曲线里面的所有点都重命名为人或者一个东西了。而Chat GPT具有一个可以把每个像素都重命名为某种东西的功能。它会从粗到细,逐渐把画面分割成为不同的块,然后动用它搜索引擎里预存的已经被人为分好了的那些小块,搜到一个最可能的命名方案,直到这个过程进展到几个像素为止。这个图也就被它扣好了。这一步也叫做模式识别,在工程上来说是相对容易实现的。
不论是语音转写也好,摄像头自动拍人也好,都是这样的一个原理。但是如果我们把这个过程反过来,尝试用抠图的结果反过来求抠图之前的那张图长啥样呢?那就困难很多。比如说我用语音来生成文字稿,现在许多软件能做的相当准确,但是如果你反过来让电脑读文字稿的话,显然有很多当时的细节都无法准确还原了。又比如说,我抠完一张图,将图片的细节完全删掉,只留下这个像素曾经代表啥的信息,比如“车车车车车人车车车车车”这样的。既然你连当时这有什么人,又有什么车都不能确定,你又该怎么把画面细节重新补回去呢?而这就是Chat GPT它非常擅长的内容了。
超级电话接线员 Chat GPT 的科学家意识到一个问题:之所以这个还原很难做,比如说用几个字画张图吧,其实是因为我们没找着那个曾经成功将某张图拆成过你刚才输入那几个字的老师傅。一旦我们把这位老师傅找到了,他回家把当时拆过的那张图给你一找,那很有可能那张图就是你想要的了。
如果有一天你发现无论你说一串什么字,给一张什么图,他总是世界上某几个老师傅当年得出过的结论呢,那是不是只要那群老师傅在他们的结论后都附上他们的电话号码,我们只要给他们打一个电话,就能把图给找出来了呢?原理上还真就是这样的。只不过,在 Chat GPT 里这通电话你可能要联系成千上万个接线员才能接通,但无论如何还是能接通的。
于是将模式识别的逆运算尽可能闭合起来的方法,也就找到了,那就是疯狂做模式识别,然后把模式识别得到的经验存起来,变成找到原图像的电话号码。而这套给经验指派电话号码的方法,也就是大家所熟悉的神经网络了。它本质上就是一个由千万个电话接线员共同去记忆这个世界上的人们是如何打电话的结构,于是每个接线员就可以记忆相当少的内容,不需要特别博学强记,只需要能判断下一个接线员是谁就行了。
如此一来,无论当时的分析过程何等复杂,他的电话号码多么复杂难记,只要我安排足够多的接线员,总有一个相当大的概率能够最终将这通电话给接通。就是这个方法,令 Chat GPT 能够用维度非常小的信息生成出维度非常高的产物,用几个字就可以为你生成一个很复杂的图像——超级审核。
当然在这个过程当中,Chat GPT 还需要在联系到诸多老师傅的同时,将一些比较明显不符合人类需求的结论给剔除掉。显然,你给的信息越少,能联系到的老师傅也就越多,对吧?于是不符合你需求的信息也就越容易将你想要的那个给淹没掉,对吧?这个时候 Chat GPT 就需要人工客服的介入了。
实际上在你使用它之前,人工客服会被模型剔除掉好多好多不符合要求的结果。当然这个过程本身也是可被机器举一反三的,于是在相对而言不那么充裕的人工服务之下,Chat GPT 也可以剔除掉到天文数字一般的错误结论了。固然在这个过程当中错杀肯定不少,但是比起 Chat GPT 庞大的生成能力来说,这点不算什么。
于是在三者的共同努力之下,你就得到了一个能够回答你任何问题,但是偶尔会给你一个非常离谱答案的超级大模型了。实际上它并不是非常难以理解的东西,而且它和人类以及动物真正的智慧发生模式,还是有着相当大的区别的。然而这些和本题关系不是很大,就另作论述吧。
第三位网友的回答:
Chat GPT的基本原理:
1. Transformer架构:
这是一种深度学习模型架构,专门用于处理序列数据,如文本。它引入了注意力机制,允许模型在不同位置关注输入序列的不同部分,从而更好地捕捉长距离依赖关系。就像学生系统的专心的学习一本课程,以更好的理解教材中的内容,形成知识结构。
2. 预训练:
在上个阶段基础上,用大量的文本数据通过处理上下文信息生成自然语言响应。它能够理解先前的对话历史,并根据上下文生成连贯的回答。Chat GPT使用一种称为Being Search的技术,以选择最可能的序列,确保生成的响应既合理又连贯。就像学生通过大量的阅读和听力练习来提高语言能力,从中学习语言的结构和用法。
3. 无监督学习模型:
通过无监督学习从文本中学到的知识可以用于各种自然语言处理任务,包括对话大声称。就像小孩子通过尝试和错误的方式学习表达自己的想法。
4. 微调:
在预训练后,模型通常会在特定任务上进行微调,以适应更具体的应用场景。微调可以使用有标签的数据,以便模型更好地适应特定的任务要求。就像学生考试,老师根据答题质量来帮助学生提高成绩。
总结:
通过这三位网友的回答,我们可以对Chat GPT的原理有一个全面的了解。第一位网友通过一个简单的实验,让我们直观地理解了GPT如何通过观察数据中的规律来生成回答。第二位网友将Chat GPT比喻为超级抠图王、超级电话接线员和超级审核的组合,形象地解释了其工作原理。第三位网友则从技术角度详细介绍了Transformer架构、预训练、无监督学习和微调这四个关键步骤。这些解释共同为我们描绘了一个关于Chat GPT如何运作的全面图景。