改变AI历史的Transformer是如何帮助LLM大模型工作的?看图解密Transformer原理,看不懂算我输!

图片

在过去的几年里,大型语言模型(LLM)的出现,为长达数十年的智能机器构建的探索中带来了巨大的飞跃。

这项基于试图模拟人类大脑的研究技术,也在近几年催生了一个新领域——Generative AI 生成式人工智能,简单理解就是可以

通过模仿人类能力和水平,生成合理且复杂的文本、好看图像甚至是计算机的代码。

2017年12月,Vaswani和研究团队用一篇“Attention is all you need”的论文彻底开启了AI的新纪元,论文提出了一种新的利用自注意力概念来处理顺序输入数据的变换器架构-Transformer,这使得对长距离依赖关系的更有效的处理成为可能。这个问题在之前一直是传统RNN架构难以克服的一个挑战。而这个Transformer就是大型语言模型(LLM)的基础,也是我们今天所见证的生成式人工智能强大能力的基础。

LLM一直为业内所公认的发力点,是通过撰写和分析文本提高生产力,而这个能力也恰恰是它对人类构成威胁的原因。高盛认为,这可能使大型经济体中相当于3亿全职工作者面临自动化的风险,导致大规模失业。

随着LLM以及所引领的生成式AI能力渐渐出现在我们生活的各个领域,了解LLM如何生成文本对我们来说意义重大,因为了解了它背后的原理,可以帮助我们理解这些模型是如何成就了各种多才多艺产品,同时也可以帮我们发现生成式AI还能在什么方面帮助到我们,与其担心被替代,不如主动出击,成为AI能力的驾驭者!

接下来我们用通俗易懂的语言,一步步看看LLM是怎么发挥威力的。

【理解阶段】把文字翻译成LLM看得懂的的语言

图片

首先,一段文字被分解成一个个的标记(tokens),这里用到的Embedding技术小纸条在之前的文章中为大家讲过,向量可以理解为就是大模型理解世界的语法。这些标记(tokens)是能够被编码的基本单元。在图中的例子中,我们将每个完整的单词视为一个独立的标记。

要弄清楚一个词的意思,比如例子中的“work”,大型语言模型(LLMs)会用大量的学习资料来研究它,同时关注它旁边的词。这些学习资料来源于网上的文本,量级非常的大,最新的GPT-4O甚至用到了1.8万亿。

最后,我们收集了一大堆词,其中一些在学习材料中是和“work”一起出现的(图中黄色的单词),还有一些词是没和“work”挨着的(图中灰色的单词)。

图片

模型在处理这些词的时候,会创建一个数值列表,我们称之为向量。它会根据每个词和“work”在训练材料里的距离来调整这个列表。这个列表就是词嵌入work embedding,它帮助模型捕捉到词的含义。

图片

一个词嵌入可以包含数百个值,每个值代表单词意义的不同方面,就像是给单词拍一张多角度的照片。每个值都像是从不同角度捕捉到的特点,比如单词的用法、它通常出现的语言环境等,咱么国家这种用法就非常多,“我去方便一下”和“行个方便”。再举个例子,比如我们要描述一个房子,我们会提到它有多少卧室、浴室、它的位置和类型,词嵌入通过数值来描述单词的这些语言属性。

图片

生成这些特征的方法让我们无法精确知道每个数值具体指代的内容,但那些我们认为在用法上相似的单词,它们的嵌入向量看起来会差不多。这就像是相似的单词在数学上也能找到它们的相似性。比如下面这张图,用颜色来直观的标记数据在词嵌入过程中的不同维度的数值,可以看出来意思相近的词,比如“sea”和“ocean”,呈现的大体色块更为相近。

图片

如果我们把一个词嵌入里的成百上千个数值减少到只有两个,就像把复杂的地图简化成只有两个点,这样我们就能更容易地看出不同单词在意义上的距离。

图片

通过这种方法,我们可以识别出代词或交通方式等意思相近词的群体,这种量化文本的能力就是模型开始撰写文本的首要步骤啦

图片

小纸条在之前的文章中为大家详细讲过上述向量Embedding有关的知识,这是大模型理解世界的语法。但是仅仅靠向量化还不足以使LLM的能力像如今这般强大,这背后很重要的加持,就来自我们今天要讨论的Transformer,它的重要程度甚至可以被看作AI大模型的心脏。

【学习阶段】Transformer训练

Transformer变换器不是只看一个词,而是一次性看一整句话、一段文字,甚至是整篇文章,这样它就能更好地理解意思。让计算机在翻译或者写东西的时候更准确,让大型语言模型更有效率。

Transformer变换器架构的一个关键概念是自注意力(self-attention)。正是这种机制让大型语言模型(LLMs)能够理解单词之间的关系。它会观察文本中的每个标记(token),它仔细查看一段话里的每一个单词,然后找出哪些词对理解这个词最有帮助,这样它就能更好地理解整个句子的意思。

在变换器出现之前,最先进的人工智能翻译方法是循环神经网络(RNNs),它们会逐个扫描句子中的每个单词并顺序处理。

图片

使用自注意力机制,变换器能够同时计算句子中的所有单词,模型能够一下子理解整个句子里的所有单词,而不是一个接一个地看。捕捉到这种上下文信息来全面理解句子的方式,让大型语言模型在分析语言的时候更加得心应手。

图片

Transformer 由两个基本组件组成:编码器和解码器。编码器负责对输入数据进行编码,例如,可以是一个单词序列。然后它获取输入序列,再应用多层自注意力和前馈神经网络来,捕获句子中的关系和特征并学习有意义的表示。

编码器做的事就是理解,解码器就是生成。

【学习阶段】不同词语在不同语境下的不同用法

在上面这个例子中,一次性评估整个句子意味着,Transformer变换器模型一下子看了整个句子,它就能明白“interest”这个词在这里是作为一个名词,用来表达一个人的观点或兴趣。

图片

如果我们调整句子中的一些内容,模型也会知道这回“interest”不再代表兴趣,而是金融领域的收益的意思

图片

如果我们把几个句子放在一起,模型还是能根据每个词周围的上下文来理解它们的意思。比如“interest”这个词第一次出现的时候,模型会特别注意它旁边的“no”和“in”,这样就能正确理解它的意思。

图片

对于第二个“interest”,模型特别关注了“rate”和“bank”这两个词。

图片

这个特性对于生成好的文章就非常关键。如果没有它,那些在不同情境下意思不同的词就可能被用错和理解错啦。

图片

自注意力机制同时是有效的,这就意味着,当你在写有关“interest”对应是利率的意思时,就不会使用到“enthusiasm”(热情)这个词。

图片

【学习阶段】“她”“他”“你”等代称如何被模型学习

无论是哪种语言体系,代词都是贯穿上下文的关键内容。比如在下面这个句子里,模型通过自注意力机制就能分析出来,这里的“it”最可能提到的是一只狗(颜色越深代表关联或者说相似度越大)。

图片

如果我们原本的句子中的“hungry”(饥饿的)换成“delicious”(美味的),模型就会重新分析一下,然后它就会知道这回的“it”最可能在说骨头。

图片

总结一下,自注意力在语言处理方面的好处随着规模的扩大而增加。它允许大型语言模型(LLMs)从超出句子边界的上下文中获取信息,给予模型对单词使用方式和时机更深入的理解,让大型语言模型能够不仅局限于一句话,而是能从更广阔的context上下文中学习,这样模型就能更懂一个词在什么时候、怎么用最合适。

图片

【生成阶段】Transformer如何帮助模型生成内容

以上理解环节讲差不多了,我们开始看看生成环节。上面我们也提到了编码器和解码器是组成Transformer的两个部分,理解学习还得靠编码器,这生成环节,就是解码器的主战场了。

解码器从编码器获取编码表示并产生输出序列。在机器翻译或文本生成等任务中,解码器根据从编码器接收到的输入,再生成翻译后的序列,再后面的生成环节会展开说说解码器是怎么工作的。简单来说与编码器类似,也由多层自注意力和前馈神经网络组成,只是额外包含一个注意力机制,使其能够专注于编码器的输出。然后,这允许解码器在生成输出时考虑来自输入序列的相关信息。

我们结合图来看,Transformer帮助大模型把一段文字分解成一个个小块,转换成机器能理解的代码后,我们就得到了一个数据块。这个数据块不仅包含了单词的意思,还有单词在句子中的位置,以及它们之间是如何相互联系的。

图片

简单来说,模型的基本任务就是去预测序列中的下一个词,并且反复这样做,直到生成的输出完整为止。

在这个过程中呢,模型会计算每个单词(token)成为下一个词的机会有多大,给每个单词一个概率分,这个分数就代表着这个单词接下来出现的可能性有多高,模型会不断来做这个计算,直到它对于自己生成的文本非常的满意。

图片

但这种单独预测下一个词的方法——被称为“贪婪搜索”——可能会引入问题。有时候,尽管每个单独的标记可能是最合适的下一个选择,但整个短语组合起来可能就不够相关。

并不是说这种方法总是错的,但有时它可能不会给出你期望的结果。

改写成易懂的语言:这种一次只猜一个词的方法,就像是在“贪心”地选词,被称为“贪婪搜索”。这种方式有时候可能会出问题。因为就算每个词单独看都是最合适的,但连在一起可能就不太对劲了。这并不是说它总是错的,只是有的时候会不太符合预期。

为了提高输出的质量,Transformer变换器采用很多聪明的方法来解决这个问题,其中一个就叫做**“束搜索”**。这种方法不会只关注序列中的下一个词,而是会看一组词整体出现的可能性有多大。

图片

这样做能产生更好的结果,让模型写出更连贯、更像人类写出的文本了!

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/36712.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

llama-3 本地化部署实验

国产大模型的API 有限,编写langchain 应用问题很多。使用openai 总是遇到网络问题,尝试使用ollama在本地运行llama-3。结果异常简单。效果不错。llama-3 的推理能力感觉比openai 的GPT-3.5 好。 Ollama 下载 官网:https://ollama.com/downl…

武汉凯迪正大—漆包圆线软化击穿试验仪 漆包线检测仪器

产品功能 武汉凯迪正大电气有限公司生产KDZD-JC软化击穿试验仪用于检测3.00mm及以下漆包线在热状态下漆膜软化后的绝缘性能,根据设定的预热温度、试验时间、仪器自动完成对试样的预加热、加负荷、加试验电压,达到试验时间或试样被击穿时即卸负荷&#x…

基于ARM的通用的Qt移植思路

文章目录 实验环境介绍一、确认Qt版本二、确认交叉编译工具链三、配置Qt3.1、修改qmake.conf3.2、创建autoConfig.sh配置文件 四、编译安装Qt五、移植Qt安装目录六、配置Qt creator6.1、配置qmake6.2、配置GCC编译器6.3、配置G编译器6.4、配置编译器套件6.5、创建应用 七、总结…

【Linux杂货铺】Linux学习之路:期末总结篇1

第一章 什么是Linux? Linux 是 UNIX 操作系统的一个克隆;它由林纳斯 本纳第克特 托瓦兹从零开始编写,并在网络上众多松散的黑客团队的帮助下得以发展和完善;它遵从可移植操作系统接口(POSIX)标准和单一 UNIX 规范…

PLC数据采集案例

--------天津三石峰科技案例分享 项目介绍 项目背景 本项目为天津某钢铁集团下数字化改造项目,主要解决天津大型钢厂加氢站数字化改造过程中遇到的数据采集需求。项目难点PLC已经在运行了,需要采集里面数据,不修改程序,不影响P…

智能农业技术:物联网、无人机与机器人引领的绿色革命

在这个信息化与智能化并行的时代,农业——这个最古老的人类产业,正经历一场前所未有的科技变革。物联网(IoT)、无人机(UAV)和机器人技术的深度融合,正逐步构建起一个高效、精准、可持续的现代农…

博物馆环境监测系统:实际操作中的文物守护者

在博物馆的静谧空间中,每一件文物都承载着历史的重量和文化的精髓。为了确保文物的安全与完整,博物馆环境监测系统应运而生,它如同一位细心的守护者,时刻关注着文物的“健康”状况。本文将从实际操作的角度出发,探讨如…

百度ueditor如何修改图片的保存位置

背景 编辑器的保存图片是设置有默认规则的,但是服务器上一般会把图片路径设置为软连接,所以我就需要更改编辑器保存图片的路径,要不然,每次有新的部署,上一次上传的图片就会失效。先来看看编辑器默认的保存路径吧&…

MoneyPrinterPlus:AI自动短视频生成工具-微软云配置详解

MoneyPrinterPlus可以使用大模型自动生成短视频,我们可以借助Azure提供的语音服务来实现语音合成和语音识别的功能。 Azure的语音服务应该是我用过的效果最好的服务了,微软还得是微软。 很多小伙伴可能不知道应该如何配置,这里给大家提供一…

基于盲信号处理的声音分离——最小化增益的ICA算法

基于最小化增益的ICA算法的算法是依据混合信号经过盲信号分离会产生一定的噪声,为了使得分离后的信号与原信号的比值最小时,叫做增益最小。当增益越小时,分离后噪声越小,分离信号越接近原信号,分离算法的效果越好。这是…

激励视频广告的eCPM更高,每天的展示频次有限制吗?

在APP发展初期,由于DUA量级有限,所需的广告资源比较少,往往接入1-2家广告平台就能满足APP用户每日需要的广告展示量。而随着APP用户规模的扩大、广告场景的不断丰富,开发者要提升APP整体广告变现收益,一是可以尽可能多…

uView 2.0:uni-app生态的利剑出鞘,引领UI框架新纪元

引言 随着移动互联网的快速发展,跨平台应用开发成为了开发者们关注的焦点。uni-app,一个基于Vue.js的跨平台应用开发框架,因其高效、易用的特性而广受欢迎。在uni-app的生态系统中,UI框架的选择对于开发者而言至关重要。今天&…

云安全是全球组织最优先考虑的问题

关注公众号网络研究观,阅读内容全文。 随着越来越多的数据泄露和应用程序蔓延使防御变得更加复杂,云安全已成为全球组织关注的重点。 这是泰雷兹对全球 3,000 名 IT 安全专业人士进行的一项调查的结果,调查发现三分之一的受访者将云安全列为…

【YOLOv5/v7改进系列】引入RT-DETR的RepC3

一、导言 RT-DETR(Real-Time Detection Transformer)是一种针对实时目标检测任务的创新方法,它旨在克服YOLO系列和其他基于Transformer的检测器存在的局限性。RT-DETR的主要优点包括: 无NMS(非极大值抑制)…

擎耀解码汽车大灯照明系统电动调节步进电机位置反馈的解决方案

在现代汽车设计中,智能照明系统扮演着至关重要的角色。其中,汽车大灯的电动调节功能不仅提高了夜间行车的安全性,还增强了车辆的科技感和便利性。然而,要实现精准的大灯角度调节,步进电机的位置反馈机制尤为关键。擎耀…

第24篇 滑动开关控制LED<二>

Q&#xff1a;如何使用Intel FPGA Monitor Program创建滑动开关控制LED工程并运行呢&#xff1f; A&#xff1a;创建工程的基本过程与前面的Intel FPGA Monitor Program的使用<三>一样&#xff0c;不同的地方是&#xff0c;本实验工程用到了开发板的外设硬件LED和SW&…

Android 13 为应用创建快捷方式

参考 developer.android.google.cn 创建快捷方式 来自官网的说明&#xff1a; 静态快捷方式 &#xff1a;最适合在用户与应用互动的整个生命周期内使用一致结构链接到内容的应用。由于大多数启动器一次仅显示四个快捷方式&#xff0c;因此静态快捷方式有助于以一致的方式执行…

【b站-湖科大教书匠】1 计算机网络概述-计算机网络微课堂

课程地址&#xff1a;【计算机网络微课堂&#xff08;有字幕无背景音乐版&#xff09;】 https://www.bilibili.com/video/BV1c4411d7jb/?share_sourcecopy_web&vd_sourceb1cb921b73fe3808550eaf2224d1c155 目录 1 概述 1.1 计算机网络在信息时代的作用 1.2 因特网概述…

技术突破:llamafile一键部署大模型,释放AI潜力

目录 一、引言二、什么是llamafile&#xff1f;1、设计目标2、技术构成3、与传统部署方式的对比4、一键部署的优势 三、核心特性1、一键部署的便捷性2、跨平台支持3、独立可执行文件4、简化的分发流程5、技术细节6、用户体验7、安全性和隐私 四、部署流程详解1、下载模型2、操作…