LLM;超越记忆《第 2 部分 》

一、说明

        在这篇博客中,我深入研究了将大型语言模型(LLM)提升到基本记忆之上的数学框架。我们探索了动态上下文学习、连续空间插值及其生成能力,揭示了 LLM 如何理解、适应和创新超越传统机器学习模型。

        LLM代表了人工智能的重大飞跃,超越了单纯的记忆模型的概念。在第 1 部分中,我介绍了 LLM 如何通过具有语言多样性的更大语料库进行泛化的复杂性。

        要详细了解 LLM 的工作原理,您可以在此处找到全面的博客: GPT 背后的巫术

二、动态情境学习与静态映射

2.1 记忆模型:高级有限状态自动机:

        数学描述:记忆模型可以使用高级形式的有限状态自动机 (FSA) 表示,该模型可以使用复杂的转移矩阵进行数学建模:

        在这个公式中,Aijx) 是状态转移矩阵的元素,捕获转移概率或规则,而 Sj 是表示自动机中不同状态的状态向量。

        固定关系:张量乘积⊗表示状态和输入之间固定的、预先确定的关系。这种刚性与LLM的适应性形成鲜明对比。在语言特征的上下文中,这意味着自动机只能识别和响应它已被明确编程为处理的输入模式。

        适应性的局限性:与LLM不同,这些记忆模型缺乏超越其编程状态转换的泛化能力,这使得它们不太擅长处理新颖或看不见的输入模式。

2.2 具有注意力机制的序列到序列建模:

        数学基础:LLM,尤其是那些建立在 Transformer 架构上的 LLM,利用了由注意力机制增强的序列到序列模型。这种注意力机制的数学表示如下:

        此处,QK 和 V 表示从输入数据派生的查询、键和值矩阵。softmax 函数应用于查询和键的缩放点积,确定输出中每个值的权重。

        上下文适应:比例因子 dk 对点积进行归一化,以避免由于高维数而导致的超大值。这种归一化在稳定跨层梯度流动方面起着至关重要的作用。

        层深度:Transformer 架构中的每一层都应用这种注意力机制,使模型能够对输入序列形成复杂的分层理解。这种多层方法使 LLM 能够捕获数据中细微的关系和依赖关系。

2.3 对比分析:

  • 复杂性和灵活性:LLM 具有多层、注意力驱动的架构,与记忆模型中高级 FSA 的静态、基于规则的性质相比,表现出更大程度的复杂性和灵活性。
  • 上下文理解:Transformer 的注意力机制允许 LLM 动态权衡和解释输入的不同部分,从而对语言模式有更丰富、更上下文感知的理解。
  • 泛化能力:这种动态的情境学习使LLM能够有效地从他们的训练数据中泛化,适应新的场景并产生新的反应,这种能力在记忆模型中受到严重限制。

三、连续空间插值

3.1 记忆模型:具有代数结构的离散映射:

代数表示:在记忆模型中,可以使用代数结构来表述离散映射:

这里,⋁ 表示逻辑 OR 运算,∧ 表示逻辑 AND 运算。每个 yi 都是模型旨在识别的特定模式或状态。

这种表示反映了二进制和确定性映射,其中输出严格由某些输入模式的存在与否来定义。

代数公式的局限性:此类模型受到限制,因为它们无法在显式定义的映射之外进行插值或泛化。该结构是刚性的,这意味着它缺乏灵活性,无法适应与预定义模式不完全匹配的输入。

3.2 LLM:嵌入空间插值:

高维向量空间:基于神经网络的LLM在连续的高维向量空间中运行:

在此公式中,hi 表示上下文中单词或标记的嵌入表示形式。α_ij是注意力权重,W是权重矩阵,E_xj表示第j个标记的嵌入,b是偏置项。

ReLU(整流线性单元)函数引入了非线性,使模型能够捕获数据中的复杂模式。

注意力机制和情境理解:

  • 注意力权重 αij 允许模型动态关注输入序列的不同部分。这种机制是理解上下文和单词之间关系的关键。
  • 与记忆模型中的离散映射不同,LLM 中基于注意力的插值允许对语言进行细致入微的理解,使模型能够有效地处理歧义、同义词和不同的句子结构。

3.3 比较分析及启示:

  • 灵活性和泛化:与记忆模型相比,LLM 表现出显着的灵活性和泛化能力。LLM操作的连续空间允许在含义和上下文中产生细微的变化和渐变,这在记忆模型的离散框架中是不可能的。
  • 处理新输入:LLM 擅长处理新输入,根据学习模式进行推理,而不是依赖精确匹配。这与僵化的、基于规则的记忆模型方法形成鲜明对比。
  • 复杂模式识别:LLM 中使用的高维向量空间和非线性函数使它们能够捕获和生成复杂的语言模式,由于其二进制和固定性质,这一特征在记忆模型中受到限制。

四、适应性和泛化

4.1 记忆模型:固定概率空间中的随机过程:

随机过程公式:机器学习中的记忆模型可以使用随机过程进行数学表示。一种常见的表示是通过马尔可夫模型,其特征是固定的转移概率:

这里,st 表示时间 t 的状态,pij 是从状态 i 过渡到状态 j 的概率。这些概率保持不变,反映了模型的静态特性。

固定概率的含义:pij 的恒定性意味着模型的行为是预先确定的,不会根据新的数据或经验而演变。这限制了模型适应新模式或泛化到初始编程之外的能力。

4.2 LLM:梯度下降优化:

梯度下降机制:LLM 采用梯度下降优化,这是现代机器学习的基石。梯度下降更新的基本方程为:

在这个方程中,θt 表示迭代 t 处的模型参数,η 表示学习率,∇θLθt;x,y) 是损失函数 L 相对于参数 θ 的梯度。

持续学习和适应:

  • 梯度下降的迭代性质允许 LLM 根据从训练数据计算的梯度不断调整和改进其参数。这个过程使模型能够学习复杂的模式,并从其训练数据泛化到新的、看不见的示例。
  • 通过ReLU等激活函数引入的非线性进一步增强了LLM的适应性,使它们能够对数据中复杂的非线性关系进行建模。

4.3 对比分析:

静态学习与动态学习:

  • 记忆模型具有固定的概率框架,缺乏LLM的动态学习能力。它们受限于初始设置期间定义的模式和关系。
  • LLM 通过梯度下降,不断更新和完善它们对数据的理解,从而实现更强大的泛化能力。

模式识别的复杂性:

  • 记忆模型的静态特性限制了它们识别和适应复杂模式的能力。它们最适合于具有明确定义且不变规则的问题。
  • 相比之下,LLM 可以捕获和生成复杂且不断发展的模式,使其适用于需要深入理解和创造性解决问题的任务。

五、复杂模式学习

        记忆模型:基于集合理论的局限性:

        集合理论表示:机器学习中的记忆模型可以使用集合论进行概念化。模型的知识表示为一组输入-输出对:

        集合 K 中的每个元素都是一对 (xi,yi),其中 xi 是输入,yi 是相应的输出。这个集合是有限和静态的,意味着从输入到输出的固定映射。

        静态知识集的含义:

  • 知识集的静态性质意味着模型无法适应或学习明确定义的输入输出对之外。它缺乏对新的、看不见的数据进行插值或泛化的能力。
  • 这种表示类似于查找表,其中对给定输入的响应是预先确定且不可更改的。

5.1 LLM:使用神经网络层的深度学习:

神经网络层动力学:LLM 使用深度神经网络来捕获复杂的模式。深度神经网络中层的基本方程为:

这里,h_l+1 是层 l+1 的输出,σ 是非线性激活函数(如 ReLU、sigmoid 或 tanh),Wl 是权重矩阵,bl 是偏置向量,hl 是前一层 l 的输出。

非线性和模式识别:

  • 非线性激活函数σ将非线性引入网络,使其能够学习和建模数据中复杂的非线性关系。
  • 此功能允许 LLM 捕获线性模型或简单记忆无法实现的复杂模式和依赖关系。

分层学习和泛化:

  • 网络的深度(层数)和连接的复杂性(由 Wl 和 bl 定义)允许学习分层特征,从简单到越来越抽象的表示。
  • 这种分层学习对于处理自然语言的复杂性至关重要,使 LLM 能够理解和生成细微且上下文丰富的语言。

5.2 对比分析:

  • 静态与动态知识表示:记忆模型仅限于静态的、预定义的知识集,而 LLM 通过复杂的神经网络结构动态生成知识。
  • 泛化能力:记忆模型中的静态知识表示限制了它们的泛化能力,而 LLM 通过深度学习,擅长从训练数据泛化到新的、看不见的场景。
  • 模式的复杂性:LLM 中神经网络的深度和非线性使它们能够捕获比简单的、基于规则的记忆模型方法更复杂的模式。

六、新颖的输出生成:概率建模

        作为最后一部分,LLM 使用概率语言模型来生成新颖的输出。核心数学公式以应用于最终隐藏状态的线性变换的 softmax 函数为中心:

哪里

  • P(word∣c) 表示给定上下文 c 的下一个单词在词汇表上的概率分布。
  • W_final 和 b_final 分别是最终输出层的权重矩阵和偏置向量。h_final 是神经网络的最后一个隐藏状态,封装了模型处理的上下文信息。

        LLMs复杂而先进的数学结构,从动态注意力机制和连续空间运算到梯度下降优化和深度神经网络结构,凸显了其相对于传统记忆模型的优越性。

        这些错综复杂的数学框架使 LLM 能够动态学习、适应、插值和生成新的输出,反映出它们在推进人工智能方面的关键作用。

        通过这种综合分析,LLM被证明代表了机器学习的范式转变,能够进行复杂的数据处理和复杂的语言理解,远远超出基于记忆的方法的能力。

七、LLM系列:

  • 第 1 部分 — LLM 只是一种记忆技巧吗?
  • 第 2 部分 — LLM;超越记忆
  • 第 3 部分 — 从数学上评估封闭式 LLM 的泛化
  • 第 4 部分 — 提高 LLM 的安全性:对越狱的严格数学检查
  • 第 5 部分 — LLM 中红队的深入分析:数学和实证方法

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/192259.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

基于相关性的四种机器学习聚类方法

在这篇文章中,基于20家公司的股票价格时间序列数据。根据股票价格之间的相关性,看一下对这些公司进行分类的四种不同方式。 苹果(AAPL),亚马逊(AMZN),Facebook(META&…

TCP简介及特性

1. TCP协议简介 TCP是Transmission Control Protocol的简称,中文名是传输控制协议。它是一种面向连接的、可靠的、基于IP的传输层协议。两个TCP应用之间在传输数据的之前必须建立一个TCP连接,TCP采用数据流的形式在网络中传输数据。TCP为了保证报文传输的…

idea汉化

所有的jetbrains 汉化包下载地址, 包括leda ,pycharm /,datagrip 等软件,,所有方法都一样:搜索对应的版本需要的包 下载后,在idea的插件中选择从磁盘加载,然后重启 ,即可…

循环队列的结构设计和基本操作的实现(初始化,入队,出队,判空,获取长度,清空,销毁)

目录 1.队列的定义 2.循环队列的设计图示 3.循环队列的结构设计 4.循环队列的实现 5.循环队列的总结 1.队列的定义 和栈相反,队列(queue)是一种先进先出(first in first out,缩写为FIFO)的线性表.它只允许在表的一端进行插入,而在另一端删除元素. 在队列中,允许插入的一…

根文件系统构建-busybox中文支持

一. 简介 根文件系统里面就是一堆的可执行文件和其他文件组成的?难道我们得一个一个的从网上去下载这些文件?显然这是不现实的!那么有没有人或者组织专门干这个事呢? 他们负责“收集”这些文件,然后将其打包&#xf…

阿里云域名解析到非默认端口处理方式

1.需配置两条解析记录,如下图 2.第一条配置A记录,ip指向部署服务器 3.第二条配置隐形记录,指向第一条的网址,并附带端口号,最终访问第二条的网址就不用带非默认端口号了。 4.最终浏览器访问

[FC][常见Mapper IRQ研究]

本次IRQ研究了如下表所示Mapper的IRQ操作: 卡带名Mapper号VRC373VRC421,23,25VRC624 & 26VRC785MMC34MMC410MMC55Sunsoft FME-769Namco16319Jaleco SS 8800618RAMBO-164 共计11种Mapper的IRQ操作使用例子 代码内有详细注释, 希望能帮助到感兴趣的人. Mapper控制代码(MMC3…

matplotlib学习

显示两个figure 坐标上刻度修改 plt.xlim() 下标范围 plt.xticks() 替换新的下标 图例显示 散点图 subplot多合一显示

docker部署frp穿透内网

文章目录 (1)部署frps服务器(2)部署frpc客户端(3)重启与访问frp(4)配置nginx反向代理 (1)部署frps服务器 docker安装参考文档:docker基本知识 1…

Tmux奇技淫巧

Tmux奇技淫巧 在日常的开发工作中,终端是我们最常用的工具之一。在终端中我们可以调用各种解释器,来执行命令,完成我们的工作。然而,对于只使用终端的默认功能的开发者来说,他们可能会错过一些强大的工具和技巧&#…

【SLAM十四讲-9.3 实践Ceres BA-BAL数据集problem-16-22106-pre.txt分析】

数据集Dubrovnik Dataset 杜布罗夫尼克数据集的链接:Bundle Adjustment in the Large https://grail.cs.washington.edu/projects/bal/ problem-16-22106-pre.txt.bz216 22106 83718(这里是第1行) 0 0 -3.859900e02 3.871200e02&#x…

Gson的用法详解

一、简介 Gson(又称Google Gson)是Google公司发布的一个开放源代码的Java库,主要用途为序列化Java对象为JSON字符串,或反序列化JSON字符串成Java对象。 Gson官网:gson Gson源码地址:google/gson 二、依赖…

STM32F407-14.3.8-01强制输出模式

强制输出模式 在输出模式(TIMx_CCMRx 寄存器中的 CCxS② 位 00)下,可直接由软件将每个输出比较信号(OCxREF④ 和 OCx⑥/OCxN⑦)强制设置为有效电平或无效电平,而无需考虑输出比较寄存器和计数器之间的任何…

CMake构建工具

文章目录 CMake构建工具1.概念2.mk文件3.CmakeList4.预编译 CMake构建工具 1.概念 Android构建原始库的工具,对mk构建工具封装,还是makefile。 加载lib库 2.mk文件 //call调用test-dir这个方法,返回mk文件的路径,LOCAL_PATH这…

一文搞懂设计模式之责任链模式

大家好,我是晴天。我们又见面了,本周我们继续学习设计模式,本周将同大家一起学习责任链模式。 场景引入 我们回想一下自己曾经经历过的考学场景,我们是如何一步一步考上大学的(为了简化过程只提取核心环节&#xff09…

如何使用vue组件

目录 1:组件之间的父子关系 2:使用组件的三个步骤 3:components组件的是私有子组件 4:在main.js文件中使用Vue.component全局注册组件 1:组件之间的父子关系 一:首先封装好的组件是不存在任何的关系的…

强化学习简明教程

到目前为止,我们主要关注监督学习问题(主要是分类)。 在监督学习中,我们得到某种由输入/输出对组成的训练数据,目标是能够在学习模型后根据一些新输入来预测输出。 例如,我们之前研究过 MNIST 的卷积神经网…

阅读笔记|A Survey of Large Language Models

阅读笔记 模型选择:是否一定要选择参数量巨大的模型?如果需要更好的泛化能力,用于处理非单一的任务,例如对话,则可用选更大的模型;而对于单一明确的任务,则不一定越大越好,参数小一…

BearPi Std 板从入门到放弃 - 1 引气入体篇

安装相关开发工具 Keil MDK 工具下载 略, 自行体会 Keil 芯片支持包下载 Keil 包 网址 https://www.keil.com/pack 此处下载的是STM32L4xx的支持包 https://www.keil.com/pack/Keil.STM32L4xx_DFP.2.6.2.pack STM32CubeMX 下载与包下载 i. 下载(需要使用用户&…

DouyinAPI接口系列丨Douyin商品详情数据接口丨Douyin视频详情数据接口

抖音商品详情API是抖音开放平台提供的一套API接口,用于获取商品详情信息。通过该API,开发者可以获取到商品的详细信息,包括商品ID、名称、描述、价格、销量、评价等信息。 在使用抖音商品详情API之前,需要先注册并登录抖音开放平…