大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为CSDN博客专家、人工智能领域优质创作者。喜欢通过博客创作的方式对所学的知识进行总结与归纳,不仅形成深入且独到的理解,而且能够帮助新手快速入门。
本文主要介绍了人工智能大模型应用指南,从入门到精通的AI实践教程,希望能对学习大模型的同学们有所帮助。
文章目录
- 1. 前言
- 2. 书籍推荐
- 2.1 本书特色
- 2.2 内容简介
- 2.3 本书作者
- 2.4 本书目录
- 2.5 适合读者
1. 前言
在20世纪末和21世纪初,人类经历了两次信息革命的浪潮。
-
第一次是互联网时代的兴起,将世界各地连接在一起,改变了人们获取信息和交流的方式。
-
第二次则是移动互联网时代的到来,智能手机和移动应用程序的普及使人们可以随时随地与他人交流、获取信息和进行商务活动。
然而,随着技术的不断演进和人类社会的不断发展,我们正站在另一个信息时代的门槛上。这是一个更加智能化、更加联系紧密的时代,它将重新定义我们与世界互动的方式,塑造我们的生活、工作和社会关系。
2022年11月30日,OpenAI发布了ChatGPT:一个基于生成式预训练Transformer (Generative Pre-trained Transformer,GPT)技术的语言模型。
一经发布,ChatGPT 就在市场上引起了强烈反响,月活跃用户数在接下来的两个月迅速突破一亿,打破了互联网行业的用户增长纪录,成为史上增长最快的消费者应用。
然而,ChatGPT的出现只是一个开端。
随后,GPT-4、Alpaca、Bard、 ChatGLM、LLaMA、 Claude、Gemini等大语言模型相继问世,呈现出百花齐放的局面。
这一趋势预示着未来将会有更多的大语言模型涌现,为消费者提供更丰富的体验,进而改变我们与科技互动的方式。
这一变革的兴奋之处在于,我们或许正处在人类历史上的第四次工业革命的起始阶段。
这一次,不再是机械化、电气化带来的变革,而是智能化、自动化的革命,将重塑人类社会的方方面面。
然而,这种变革也带来了焦虑。
大语言模型的广泛应用将极大地改变各行各业,特别是泛内容产业的规则、生态和格局。
泛内容产业是一个多元化的领域,包括但不限于编程与软件开发、自媒体与内容创作、娱乐内容制作和传播、游戏开发和运营以及教育内容制作和传播等。
这些领域将面临前所未有的挑战和机遇,需要不断调整和创新,以适应智能时代的到来。
2023年11月,OpenAI的创始成员Andrej Karpathy提出了一个引人入胜的观点:未来,大语言模型极有可能发展到与当前计算机操作系统的地位相当。
他形象地比喻说,我们可以将大语言模型及其周边生态系统看作一种崭新的操作系统。
大语言模型就像计算机中的中央处理器,它的批处理大小相当于CPU的核心数,而每秒处理的 token数量则相当于CPU的主频,以Hz为单位。这些参数决定了模型的计算能力和处理速度。而语言模型的上下文窗口大小则相当于计算机的内存大小,它决定了模型能够同时考虑的信息量和短期记忆的大小。
外部数据在语言模型中扮演着长期记忆的角色,类似于计算机的磁盘。这些外部数据的组织方式就像计算机磁盘中的文件系统一样,它们存储和管理着模型需要的信息,供其随时调取。此外,语言模型接收和输出的文本、音频、视频相当于计算机的输入输出设备,它们是模型与外界交互的媒介。
最后,大语言模型不仅可以与其他模型进行网络通信,还能够通过浏览器访问互联网上的信息,以及利用外部工具执行传统的计算机操作。这种广泛的联接和应用使得语言模型在信息处理和应用方面具有了前所未有的能力和灵活性。
LLM as OS, Agents as Apps: Envisioning AIOS, Agents and the AIOS-Agent Ecosystem_论文的作者也持有与Andrej Karpathy 相似的观点。
在这篇论文中,作者提出了 AIOS-Agent 生态系统的概念,并将其与现今的操作系统(OS) -应用程序(App)生态系统进行了比较。下面展示了它们之间的类比关系。
未来,大语言模型很有可能以这种全新形态融入人类的日常生活和工作中。人类将从移动互联网时代迈入智能时代,应用的载体也将由应用程序逐渐转变为基于大语言模型的智能体。
2. 书籍推荐
未来,大语言模型极有可能发展到与当前计算机操作系统的地位相当,因此,应用大语言模型可以说是每个人不可或缺的技能。
《大语言模型应用指南:以ChatGPT为起点,从入门到精通的AI实践教程(全彩)》 一书将帮助大家更好地理解和使用大语言模型,即使你对人工智能技术或编程技术一窍不通,也不用担心。本书将用通俗易懂的语言和例子,讲述大语言模型的基本原理、基础使用方法和进阶开发技巧。
2.1 本书特色
本书是一本对人工智能小白读者非常友好的大语言模型应用指南,有两大特点:
-
一是以通俗易懂的方式解释复杂概念,通过实例和案例讲解大语言模型的工作原理和工作流程、基本使用方法,包括大语言模型常用的三种交互格式、提示工程、工作记忆与长短期记忆,以及外部工具等,使读者能够全面了解和掌握这一先进技术的应用和二次开发;
-
二是紧跟当前大语言模型技术的更新动态,介绍GPTs的创建,以GPT-4V和Gemini为例讲述多模态模型的应用,还包括无梯度优化、自主Agent系统、大语言模型微调、RAG框架微调、大语言模型安全技术等。
2.2 内容简介
本书的读者对象是大语言模型的使用者和应用开发者,全书共分为4篇。
-
第1篇讲述机器学习、神经网络的基本概念,自然语言处理的发展历程,以及大语言模型的基本原理。鉴于本书的重点在于大语言模型的应用和二次开发,因此本书将不涉及大语言模型的训练细节。然而,我们仍强烈建议读者熟悉每个关键术语的含义,并了解大语言模型的工作流程,以更好地理解后面的内容。
-
第2篇讲述大语言模型的基础应用技巧。首先,介绍大语言模型常用的3种交互格式。随后,深入讲解提示工程、工作记忆与长短期记忆,以及外部工具等与大语言模型使用相关的概念。最后,对大语言模型生态系统中的关键参与者——ChatGPT的接口与扩展功能进行详解。
-
第3篇讲述大语言模型的进阶应用技巧。首先,介绍如何将大语言模型应用于无梯度优化,从而拓宽大语言模型的应用领域。随后,详细讨论各类基于大语言模型的自主Agent系统,以及微调的基本原理。最后,介绍与大语言模型相关的安全技术。
-
第4篇讲述大语言模型的未来。一方面,探讨大语言模型的生态系统和前景,简要介绍多模态大语言模型和相关的提示工程。另一方面,深入解析大语言模型的尺度定律,并尝试从无损压缩的角度来解析大语言模型具备智能的原因,最后以图灵机与大语言模型的联系作为全书的结尾。
2.3 本书作者
万俊,南京大学计算数学专业本硕;现任中国香港瑞银软件工程师;OPPO前高级数据挖掘工程师 ;蚂蚁集团前高级机器学习、数据工程师 ;Udacity前机器学习和深度学习资深讲师;曾多次在各类数据竞赛中获奖(Kaggle Kesci Data Castle);已发表CCF A类论文一篇,EI论文一篇,神经网络测试专利一个 ;LeetCode专栏作家,著有“Enlighten AI”专栏。
2.4 本书目录
第1篇 基础
第1章 从人工智能的起源到大语言模型 2
1.1 人工智能的起源 2
1.1.1 机器能思考吗 2
1.1.2 达特茅斯会议 3
1.2 什么是机器学习 4
1.2.1 演绎推理与归纳推理 4
1.2.2 人工编程与自动编程 5
1.2.3 机器学习的过程 5
1.2.4 机器学习的分类 8
1.3 什么是神经网络 9
1.3.1 还原论与涌现性 9
1.3.2 神经网络的发展历史 10
1.3.3 神经网络基础 11
1.3.4 神经网络的三要素 13
1.4 自然语言处理的发展历程 17
1.4.1 什么是自然语言处理 17
1.4.2 文本的向量化 18
1.4.3 神经网络中的自监督学习 21
1.5 大语言模型 24
1.5.1 什么是大语言模型 24
1.5.2 语言模型中的token 25
1.5.3 自回归模型与文本生成 33
1.5.4 统一自然语言任务 41
1.5.5 大语言模型的训练过程 44
1.5.6 大语言模型的局限性 46
第2篇 入门
第2章 交互格式 50
2.1 Completion交互格式 50
2.2 ChatML交互格式 52
2.3 Chat Completion交互格式 54
第3章 提示工程 57
3.1 什么是提示工程 57
3.2 提示的构成 58
3.3 提示的基础技巧 62
3.3.1 在提示的末尾重复关键指令 63
3.3.2 使用更清晰的语法 63
3.3.3 尽量使用示例 65
3.3.4 明确要求大语言模型回复高质量的响应 65
3.4 Chat Completion交互格式中的提示 65
3.5 提示模板与多轮对话 69
第4章 工作记忆与长短期记忆 72
4.1 什么是工作记忆 72
4.2 减轻工作记忆的负担 74
4.2.1 Chain-of-Thought 74
4.2.2 Self-Consistency 76
4.2.3 Least-to-Most 76
4.2.4 Tree-of-Tought和Graph -of-Tought 79
4.2.5 Algorithm-of-Tought 85
4.2.6 Chain-of-Density 88
4.3 关于大语言模型的思考能力 90
4.4 长短期记忆 91
4.4.1 什么是记忆 91
4.4.2 短期记忆 92
4.4.3 长期记忆 105
第5章 外部工具 122
5.1 为什么需要外部工具 122
5.2 什么是外部工具 122
5.3 使用外部工具的基本原理 124
5.4 基于提示的工具 126
5.4.1 Self-ask 框架 126
5.4.2 ReAct 框架 128
5.4.3 改进ReAct框架 134
5.5 基于微调的工具 137
5.5.1 Toolformer 137
5.5.2 Gorilla 140
5.5.3 function calling 141
第6章 ChatGPT接口与扩展功能详解 149
6.1 OpenAI大语言模型简介 149
6.2 ChatGPT扩展功能原理 151
6.2.1 网页实时浏览 152
6.2.2 执行Python代码 153
6.2.3 图像生成 154
6.2.4 本地文件浏览 157
6.3 Chat Completion接口参数详解 158
6.3.1 模型响应返回的参数 158
6.3.2 向模型发起请求的参数 159
6.4 Assistants API 162
6.4.1 工具 162
6.4.2 线程 163
6.4.3 运行 163
6.4.4 Assistants API整体执行过程 164
6.5 GPTs与GPT商店 164
6.5.1 GPTs功能详解 165
6.5.2 GPT商店介绍 172
6.5.3 案例:私人邮件助手 174
第3篇 进阶
第7章 无梯度优化 184
7.1 单步优化 184
7.2 强化学习入门 188
7.3 多步优化中的预测 191
7.4 多步优化中的训练 194
7.5 多步优化中的训练和预测 201
第8章 自主Agent系统 210
8.1 自主Agent系统简介 210
8.2 自主Agent系统的基本组成 211
8.3 自主Agent系统案例分析(一) 213
8.3.1 BabyAGI 213
8.3.2 AutoGPT 216
8.3.3 BeeBot 221
8.3.4 Open Interpreter 228
8.3.5 MemGPT 232
8.4 自主Agent系统案例分析(二) 243
8.4.1 CAMEL 243
8.4.2 ChatEval 246
8.4.3 Generative Agents 250
第9章 微调 262
9.1 三类微调方法 262
9.2 Transformer解码器详解 264
9.2.1 Transformer的原始输入 264
9.2.2 静态编码和位置编码 264
9.2.3 Transformer层 265
9.3 高效参数微调 268
9.3.1 Adapter高效微调 268
9.3.2 Prompt高效微调 269
9.3.3 LoRA高效微调 272
9.3.4 高效微调总结 274
9.4 微调RAG框架 275
9.4.1 RAG框架微调概述 275
9.4.2 数据准备和参数微调 276
9.4.3 效果评估 276
第10章 大语言模型的安全技术 280
10.1 提示注入攻击 280
10.1.1 攻击策略 281
10.1.2 防御策略 284
10.2 越狱攻击与数据投毒 285
10.2.1 冲突的目标与不匹配的泛化 285
10.2.2 对抗样本 286
10.2.3 数据投毒 289
10.3 幻觉和偏见问题 292
10.4 为大语言模型添加水印 294
第4篇 展望
第11章 大语言模型的生态与未来 298
11.1 多模态大语言模型 298
11.1.1 什么是多模态 298
11.1.2 GPT-4V简介 300
11.1.3 Gemini简介 303
11.2 大语言模型的生态系统 308
11.3 大语言模型的第一性原理:尺度定律 311
11.3.1 什么是尺度定律 312
11.3.2 尺度定律的性质 313
11.3.3 尺度定律的未来 320
11.4 通向通用人工智能:压缩即智能 321
11.4.1 编码与无损压缩 322
11.4.2 自回归与无损压缩 331
11.4.3 无损压缩的极限 336
11.5 图灵机与大语言模型:可计算性与时间复杂度 342
11.5.1 图灵机与神经网络 342
11.5.2 智能的可计算性 346
11.5.3 逻辑推理的时间复杂度 349
参考文献 352
2.5 适合读者
无论是学术研究者、工程师,还是对大语言模型感兴趣的普通读者,都可以通过本书获得大语言模型的前沿研究成果、技术进展和应用案例,从而更好地应用大语言模型解决实际问题。