Transformer详解【学习笔记】

文章目录

      • 1、Transformer绪论
      • 2、Encoders和Decoder
        • 2.1 Encoders
          • 2.1.1 输入部分
          • 2.1.2 多头注意力机制
          • 2.1.3 残差
          • 2.1.4 LayNorm(Layer Normalization)
          • 2.1.5 前馈神经网路
        • 2.2 Decoder
          • 2.2.1 多头注意力机制
          • 2.2.2 交互层

1、Transformer绪论

Transformer在做一个什么事情?Transformer可以用在机器翻译中,先不要管TRM(Transformer的缩写)具体做什么,输入是【我爱你】,输出是【I Love You】,

在这里插入图片描述

然后再细化TRM,我们把TRM分成2个部分,一个是Encoders(编码),Decoders(解码),

在这里插入图片描述

然后再对Encoders(编码),Decoders(解码)进行细化,如下图,需要注意Encoders之间的结构是相同的,Decoders之间的结构也是相同的,虽然Encoders和Decoders之间各自的结构是相同的,但是是单独训练的,Encoders和Decoders的数量是超参数,可以自己定义,

在这里插入图片描述

Transformer在原论文中的图示如下,左边是Encoders,右边是Decoders,N是相同结构的堆叠次数,

在这里插入图片描述

2、Encoders和Decoder

2.1 Encoders

把单个Encoders分成3个部分,分别是1、输入部分,2、注意力机制,3、前馈神经网络,

在这里插入图片描述

2.1.1 输入部分

输入部分分为Embedding和位置嵌入,什么是Embedding呢?

Embedding:

比如输入的词是【我爱你。。。】等12个字,分别将每个字输出为512维度的vector,vector可以使用word2vector,或者随机初始化,

在这里插入图片描述

位置编码:

为什么需要位置编码?如下图是RNN的结构图,RNN共享一套参数,如下图中的 U , W , V U,W,V U,W,V,依次对输入的【我爱你。。。】等字进行处理。transformer中的multi-head attention是同时对这些字进行处理,好处是加快了速度,缺点是忽略了字与字之间的联系,为了弥补这个缺点,就引入了位置编码,
面试题:RNN的梯度消失有什么不同? RNN的梯度是整个梯度之和,它的梯度消失不是变为0,而是总梯度被近距离梯度主导,远距离可忽略不计,

在这里插入图片描述

位置编码的公式:
pos是位置, 2 i 2i 2i是偶数位置, 2 i + 1 2i+1 2i+1是奇数位置,

在这里插入图片描述

比如对于【爱】而言,它是1号位,所以应该用cos,

在这里插入图片描述

对于【爱】这个词,将字向量的512个维度和位置编码的512个维度相加组成transformer的输入,

在这里插入图片描述

引申一下,为什么位置编码会有用?

由公式(2)得到公式(3),比如对于 P E ( p o s + k , 2 i ) PE(pos+k,2i) PE(pos+k,2i),pos这个位置表示【我】,k这个位置表示【爱】,pos+k表示【你】,从这个公式可以看出,【你】可以由pos【我】和k【爱】的线性组合,意味着绝对位置向量中蕴含着相对位置信息,但是这种相对位置信息会在注意力机制那里消失

在这里插入图片描述

2.1.2 多头注意力机制

注意力机制
看下图婴儿在干嘛?我们可能会关注婴儿的脸,以及文字标题信息,颜色越深,关注度就越高,

在这里插入图片描述

transformer论文注意力机制公式:
Q , K , V Q,K,V Q,K,V是向量,分别代表Query,Key,Value,

在这里插入图片描述

  • 下面来解释这个公式,还是拿上面婴儿的图片举例,首先Query代表的婴儿分别与Key1,Key2,Key3,Key4做点乘,点乘是一个向量在另一个向量投影的长度,它是一个标量,可以反映2个向量之间的相似度,相似度越高,则点乘结果越大,
  • Query代表的婴儿分别与左上,左下,右上,右下做点乘,得到Value1,Value2,Value3,Value4,哪个Value最大说明Query和哪个区域相似度最高,距离最近,也就是越关注哪个区域,
  • 回到上面的公式,假如 Q Q Q K T K^T KT的相乘的结果分别为0.7,0.1,0.1,0.1,做softmax之后,再分别乘以0.7,0.1,0.1,0.1,再相加得到Attention Value,

在这里插入图片描述

下面再举一个NLP的例子,Query代表【爱】,分别与Key1,Key2,Key3,Key4代表的【我】,【不】,【爱】,【你】做点乘,具体步骤如下2图,

在这里插入图片描述


在这里插入图片描述

想要得到Attention,需要知道 Q , K , V Q,K,V Q,K,V这3个向量,我们怎么获取这3个向量呢?

在这里插入图片描述

在只有单词向量的情况下,如何获取 Q K V QKV QKV,如下图输入【Thinking】,【Machines】,把输入Embedding为4维向量,然后分别与 W Q W^Q WQ W K W^K WK W V W^V WV相乘,就得到相应的 Q K V QKV QKV

在这里插入图片描述

如何计算Attention的值呢?由公式可知, q q q k k k相乘,然后再除以 d k \sqrt{d_k} dk ,载经过softmax计算,再乘以 v v v即可得到最终结果 z z z

在这里插入图片描述

实际代码使用矩阵,方便并行,

在这里插入图片描述

  • 多头注意力机制,上图是乘以一套参数,下图是乘以多套参数。
  • 作者通过做实验,发现多头比单头的效果要好,因为可以把输入映射到不同的空间,使transformer捕捉到不同空间的子信息,

在这里插入图片描述

输入信息通过不同的头输出不同的 z z z,如下图,把8个不同的 z z z合在一起输出,

在这里插入图片描述

2.1.3 残差

如下图,将【Thinking】和【Machine】分别转为词向量 X 1 X_1 X1 X 2 X_2 X2,然后分别与各自的位置编码对位相加,得到新的 X 1 X_1 X1 X 2 X_2 X2,然后经过自注意机制得到 Z 1 Z_1 Z1 Z 2 Z_2 Z2 Z 1 Z_1 Z1 Z 2 Z_2 Z2变成一个矩阵 Z Z Z,新的 X 1 X_1 X1 X 2 X_2 X2变成一个矩阵 X X X X X X Z Z Z对位相加,

在这里插入图片描述

残差结构:

如下图是常见的残差结构,

在这里插入图片描述

这里是另一个残差结构,结构和上图类似,A相当于上图中的 X X X,B和C相当于上图中的2个weight layer,D相当于上图中的 F ( X ) + X F(X)+X F(X)+X

在这里插入图片描述

为什么残差结构有用呢?如下公式推导,使用残差结构可以避免梯度消失,因为一般情况下连乘可以使梯度消失,所以NLP模型可以做的更深,

在这里插入图片描述

2.1.4 LayNorm(Layer Normalization)
  • 为什么BN的效果不如LayNorm?
  • 答:BN的效果差,所以不用,
  • 什么是BN,以及使用场景,BN是针对整个batch样本在同一维度特征中做处理,
  • 什么是Feature Scaling?消除量纲的影响,使模型收敛的更快,

在这里插入图片描述

每一个列是一个样本,每一行是同一个特征,

在这里插入图片描述

BN的优点:

  • 第一个就是可以解决内部协变量偏移,
  • 第二个优点就是缓解了梯度饱和问题 (如果使用sigmoid激活函数的话),加快收敛。

BN的缺点:

  • 第一个,batch_size较小的时候,效果差,因为BN的假设是使用一个batch的均值和方差模拟整个全部数据的均值和方差,
  • 第二个缺点就是 BN在RNN中效果比较差。这一点和第一点原因很类似,还有一点解释请看下一点,
  • 如下图,batchsize为10,9个样本单词数为5,1个样本单词数为20,前5个单词的均值和方差可以用batchsize算出来,而第6-20个单词的均值和方差只能用第10个样本的均值和方差表示,所以BN在RNN的效果不好,

在这里插入图片描述

为什么使用LayNorm?

  • 理解:为什么LayerNorm单独对一个样本的所有单词做缩放可以起到效果?
  • 如下图,LN是对第10个样本的20个单词做均值和方差,而BN是对每一个样本的同一位次的单词做均值和方差,

在这里插入图片描述

  • 把BN引申到RNN,BN是对【我】和【今】做均值和方差,【爱】和【天】做均值和方差,但是各个位次的单词没有相似的语义信息,所以在不能把BN引申到RNN,
  • 而LN是对每一个样本的所有单词做均值和方差,每一个样本之间有相同的语义信息,

在这里插入图片描述

2.1.5 前馈神经网路

Z 1 Z_1 Z1 Z 2 Z_2 Z2经过Feed Forward之后,经过残差和Normalize就是前馈神经网络,

在这里插入图片描述

2.2 Decoder

Decoder结构图如下:

在这里插入图片描述

2.2.1 多头注意力机制

需要对当前单词和之后的单词做mask。

在这里插入图片描述

  • 为什么需要做mask?
  • S代表输入的开始,start,如果Decoder没有mask,则会出现如下图的情形,即【you】的输出是由全部的单词决定,这样训练出来的模型在预测的时候就会出现问题,因为【you】的预测也由you和now决定,所以需要把you和now mask掉,

在这里插入图片描述


在这里插入图片描述

预测【you】的时候需要把you和now mask掉,

在这里插入图片描述

2.2.2 交互层

如下图红框处即为交互层,也是一个多头注意力机制,

在这里插入图片描述

ENCODER的所有输出和所有的DECODER做交互,

在这里插入图片描述

具体的交互过程如下,ENCODER生成K,V矩阵,DECODER生成Q矩阵,交互的时候是由Q,K,V矩阵完成的,

在这里插入图片描述

下图由ENCODER发出的虚线代表K,V矩阵的输出,然后K,V矩阵与DECODER生成的Q做交互,也能看到ENCODER的所有输出和所有的DECODER做交互,

在这里插入图片描述

参考:
1、哔站视频

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/616403.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

为什么企业容易陷入“自嗨式营销”,媒介盒子分析

互联网时代,各类信息都传播的非常快,同时信息技术的成熟也让许多企业可以监测广告效果,比如曝光、互动、转化等都可以通过数据体现,然而很多企业在营销过程中却发现,大部分的钱、精力、人力等都被浪费了。出现这种情况…

Git的简单使用说明

Git入门教程 git的最主要的作用:版本控制,协助开发 一.版本控制分类 ​​ 1.本地版本控制 ​​ 2.集中版本控制 ​​ 所有的版本数据都存在服务器上,用户的本地只有自己以前所同步的版本,如果不连网的话,用户就看不…

制作 Kali 可启动 USB 驱动器

Kali USB驱动器,轻松安全,获取最新镜像,开始强大的安全测试! Kali 可启动 USB 驱动器的优点: 不会更改主机系统的硬盘驱动器或已安装的操作系统,并且要返回正常操作,您只需删除“Kali Live”U…

小手也能用的高性能鼠标,自定义空间还挺高,雷柏VT9Pro mini上手

今年搭载PAW3395传感器的电竞鼠标很受欢迎,雷柏就出了不少型号,满足各种喜好的玩家选择,像是近期新出的搭载3395高定版的VT9Pro和VT9Pro mini,就在轻量化的基础上,满足了各种手型的玩家的使用需要,而且价格…

Whale 帷幄创始人叶生晅:AIGC 时代,营销的范式变了丨未来 AI 谈

「未来 AI 谈」是「Marteker 营销技术官」联合「Digital Frontier 首席数字官」共同发起的一档对话栏目,旨在探讨生成式 AI 的崛起对泛营销技术和营销自动化带来的影响,以期帮助全行业探索 AIGC 时代的新营销之路。 本期嘉宾:「Whale 帷幄」创…

Linux中DNS域名解析服务及实验

一、DNS介绍 1、DNS 是域名系统,应用层协议,是互联网的一项服务,是将域名转换成网络可以识别的IP地址,再通过IP地址访问主机。这种由文字组成的名称更容易记忆。 DNS是“域名系统"的英文缩写。它作为将域名和IP地址相互映…

如何提高匹配的精确度(多次学习)

我们工业自动化中,视觉软件匹配,都是学习一次,比如找到轮廓,旋转360度,也就是有360个轮廓,然后到图像中去找任意角度的目标。 这样的学习并不能一而概括全。 所以,我借鉴ai的方法,…

C#超市管理系统源码

C#超市管理系统源码 功能齐全的超市管理系统,专门美化过UI 请先附加数据库,否则无法进入系统 默认拥有最高权限账户为经理,密码为admin 压缩包内有使用说明

Cdd诊断数据控中的zz rc yy

如上图所示的Cdd Candela Diagnostic Descriptions 诊断数据库会话定义中有许多的标识符缩写,如zz rc LL xx 等 其实这些字母没有意义,它们只是唯一地标识对话框中的组合组件。

snmp协议配置

引言 SNMP(Simple Network Management Protocol)是一种网络管理协议,用于管理和监控网络设备、操作系统和应用程序。它提供了一组用于检索和修改网络设备配置、监视设备状态和性能的标准化方法。 SNMP 是一个客户端-服务器协议,…

C++ 学习笔记之运算符重载+案例

目录 一、C 运算符重载 二、定义一个成员函数或全局函数 三、计算时间 1.计算时间差 2.时间加减 四、一个运算符重载实例 一、C 运算符重载 是一种特性,它允许程序员重新定义已有的运算符的行为,以适应自定义类型的操作。通过运算符重载&#xff0…

电商新趋势:解析养号的必要性及海外云手机运用攻略

在电商领域,什么最为关键?答案无疑是流量!然而,如何以较低成本获取大量流量成为了许多电商从业者头疼的问题。虽然直接投放广告是一种方式,但在内卷的情况下效果越来越难以令人满意,高昂的广告费用也原来越…

Python如何对csv文件进行操作

csv是Comma-Separated Values的缩写,是用文本文件形式储存的表格数据,比如如下的表格: 就可以存储为csv文件,文件内容是: No.,Name,Age,Score1,mayi,18,99 2,jack,21,89 3,tom,25,95 4,rain,19,80 假设上述csv文件保存…

10 款最适合阅读和注释 PDF 文件的工具

简介 PDF 或便携式文档格式是 Adob​​e 在 20 世纪 90 年代创建的一种文件类型,作为轻松创建和分发文档的解决方案。如今,PDF 在世界各地的教育、企业、政府甚至互联网等行业中得到广泛应用。PDF 具有广泛的功能,包括多页文档、注释、超链接…

文件管理小技巧:如何高效整理多种格式的图片,图片分类的方法

随着数字时代的到来,每天都会处理到大量的图片,从个人照片到工作相关的图像资料。如何高效地整理多种格式的图片,常常让人感到困扰。下面看下云炫文件管理器如何对图片分类的方法。 jpg图片、png图片、tiff图片未归类前的缩略图。 jpg图片、…

【已解决】RAR压缩文件可以转换为ZIP格式吗?

想把RAR压缩文件转换成ZIP格式文件,除了可以把RAR压缩包解压后,再重新压缩成ZIP格式,还可以利用WinRAR解压缩软件的“格式转换功能”来实现。不清楚的小伙伴,一起来看看如何操作吧。 首先,通过WinRAR解压缩软件打开RA…

【每日小bug】——mybatis-plus拼接sql空格报错,根据时间聚合查询

mybatis-plus拼接sql报错 复制报错sql语句到navicat,字段之间缺少空格,补上就可以了 聚合sql 根据时间 json接收JsonFormat(timezone "GMT8", pattern "yyyy-MM-dd")DateTimeFormat(pattern "yyyy-MM-dd")private Date startTim…

【前后端的那些事】前后端环境搭建+树形结构表格实现

文章目录 1. 前后端项目环境搭建2. table-tree2.1 后端准备2.2 前端准备 前言:最近写项目,发现了一些很有意思的功能,想写文章,录视频把这些内容记录下。但这些功能太零碎,如果为每个功能都单独搭建一个项目&#xff0…

(ros2)gazebo颜色设置

在gazebo当中不用再设置颜色了&#xff0c;因为完全可以使用urdf的设置 <robot name"base" xmlns:xacro"http://wiki.ros.org/wiki/xacro"><xacro:property name"PI" value"3.1415926"/><!--定义一个变量PI&#xff0…

vue前端开发自学,组件的生命周期函数介绍001

vue前端开发自学,组件的生命周期函数介绍001&#xff01;今天介绍一下&#xff0c;组件自身的生命周期函数。又叫做&#xff0c;钩子函数。可以借助于这些钩子函数&#xff0c;实现很多我们预想的效果。比如&#xff0c;在组件渲染 之前&#xff0c;就做一些特殊的操作等等。 …