前言
ChatGPT和OpenAI开发的GPT模型不仅改变了我们的写作和研究方式,还改变了我们处理信息的方式。《LangChain大模型应用开发》讨论了聊天模式下的LLM的运作、能力和局限性,包括ChatGPT和Gemini。书中通过一系列实际例子演示了如何使用LangChain框架构建可随时投入生产、响应迅速的LLM应用程序,用于客户支持、软件开发辅助和数据分析等任务,这说明了LLM在实际应用中的广泛用途。
京东链接:https://item.jd.com/14895126.html
内容简介
《LangChain大模型应用开发》帮助读者在项目中探索微调、提示工程以及部署和监控的实践时,解锁LLM的全部潜力。无论你是构建创意写作工具、开发复杂的聊天机器人,还是制作尖端的软件开发辅助工具,《LangChain大模型应用开发》都将是你的路线图,帮助你自信且创造性地掌握生成式人工智能的变革力量。
主要内容
●使用LangChain创建LLM应用,如问答系统和聊天机器人
●理解变换模型和注意力机制
●使用pandas和Python自动进行数据分析和可视化
●掌握提示工程以提高LLM性能
●微调LLM并了解释放其力量的工具
●将LLM作为服务部署,并应用评估策略
●使用开源LLM与文档本地互动,以防止数据泄露
文章目录
第1章 什么是生成式人工智能 1
1.1 生成式人工智能简介 1
1.1.1 什么是生成式模型 4
1.1.2 为什么是现在 5
1.2 了解大规模语言模型 6
1.2.1 GPT模型是如何工作的 7
1.2.2 GPT模型是如何发展的 12
1.2.3 如何使用大规模语言模型 17
1.3 什么是文本到图像模型 18
1.4 人工智能在其他领域的作用 22
1.5 小结 23
1.6 问题 23
第2章 面向大规模语言模型应用程序:LangChain 25
2.1 超越随机鹦鹉 25
2.1.1 大规模语言模型的局限性 27
2.1.2 如何减少大规模语言模型的局限性 27
2.1.3 什么是大规模语言模型应用程序 28
2.2 LangChain简介 30
2.3 探索LangChain的关键组件 33
2.3.1 链 33
2.3.2 智能体 34
2.3.3 记忆 35
2.3.4 工具 36
2.4 LangChain如何工作 38
2.5 LangChain软件包结构 40
2.6 LangChain与其他框架的比较 41
2.7 小结 43
2.8 问题 44
第3章 LangChain入门 45
3.1 如何为本书设置依赖 46
3.2 探索API模型集成 49
3.2.1 环境设置和API密钥 50
3.2.2 OpenAI 51
3.2.3 Hugging Face 52
3.2.4 谷歌云平台 53
3.3 大规模语言模型交互基石 54
3.3.1 大规模语言模型 54
3.3.2 模拟大规模语言模型 55
3.3.3 聊天模型 56
3.3.4 提示 57
3.3.5 链 59
3.3.6 LangChain表达式语言 60
3.3.7 文本到图像 61
3.3.8 Dall-E 61
3.3.9 Replicate 63
3.3.10 图像理解 64
3.4 运行本地模型 65
3.4.1 Hugging Face transformers 66
3.4.2 llama.cpp 68
3.4.3 GPT4All 69
3.5 构建客户服务应用程序 70
3.5.1 情感分析 70
3.5.2 文本分类 71
3.5.3 生成摘要 72
3.5.4 应用map-reduce 73
3.5.5 监控词元使用情况 76
3.6 小结 77
3.7 问题 77
第4章 构建得力助手 79
4.1 使用工具回答问题 80
4.1.1 工具使用 80
4.1.2 定义自定义工具 81
4.1.3 工具装饰器 82
4.1.4 子类化BaseTool 82
4.1.5 StructuredTool数据类 83
4.1.6 错误处理 84
4.2 使用工具实现研究助手 85
4.3 探索推理策略 89
4.4 从文件中提取结构化信息 95
4.5 通过事实核查减少幻觉 100
4.6 小结 102
4.7 问题 102
第5章 构建类似ChatGPT的聊天机器人 103
5.1 什么是聊天机器人 104
5.2 从向量到RAG 105
5.2.1 向量嵌入 106
5.2.2 在LangChain中的嵌入 107
5.2.3 向量存储 109
5.2.4 向量索引 110
5.2.5 向量库 111
5.2.6 向量数据库 112
5.2.7 文档加载器 117
5.2.8 LangChain中的检索器 118
5.3 使用检索器实现聊天机器人 120
5.3.1 文档加载器 121
5.3.2 向量存储 122
5.3.3 对话记忆:保留上下文 125
5.4 调节响应 130
5.5 防护 131
5.6 小结 132
5.7 问题 132
第6章 利用生成式人工智能开发软件 133
6.1 软件开发与人工智能 134
6.2 使用大规模语言模型编写代码 138
6.2.1 Vertex AI 138
6.2.2 StarCoder 139
6.2.3 StarChat 143
6.2.4 Llama 2 144
6.2.5 小型本地模型 145
6.3 自动化软件开发 147
6.3.1 实现反馈回路 149
6.3.2 使用工具 152
6.3.3 错误处理 154
6.3.4 为开发人员做最后的润色 155
6.4 小结 157
6.5 问题 157
第7章 用于数据科学的大规模语言模型 159
7.1 生成式模型对数据科学的影响 160
7.2 自动化数据科学 162
7.2.1 数据收集 163
7.2.2 可视化和EDA 164
7.2.3 预处理和特征提取 164
7.2.4 AutoML 164
7.3 使用智能体回答数据科学的问题 166
7.4 使用大规模语言模型进行数据探索 169
7.5 小结 173
7.6 问题 173
第8章 定制大规模语言模型及其输出 175
8.1 调节大规模语言模型 176
8.2 微调 180
8.2.1 微调设置 181
8.2.2 开源模型 184
8.2.3 商业模型 187
8.3 提示工程 188
8.3.1 提示技术 190
8.3.2 思维链提示 192
8.3.3 自一致性 193
8.3.4 思维树 195
8.4 小结 198
8.5 问题 198
第9章 生产中的生成式人工智能 199
9.1 如何让大规模语言模型应用程序做好生产准备 200
9.2 如何评估大规模语言模型应用程序 202
9.2.1 比较两个输出 204
9.2.2 根据标准进行比较 205
9.2.3 字符串和语义比较 206
9.2.4 根据数据集进行评估 207
9.3 如何部署大规模语言模型应用程序 211
9.3.1 FastAPI Web服务 213
9.3.2 Ray 216
9.4 如何观察大规模语言模型应用程序 219
9.4.1 跟踪响应 221
9.4.2 可观察性工具 223
9.4.3 LangSmith 224
9.4.4 PromptWatch 225
9.5 小结 227
9.6 问题 227
第10章 生成式模型的未来 229
10.1 生成式人工智能的现状 229
10.1.1 挑战 230
10.1.2 模型开发的趋势 231
10.1.3 大科技公司与小企业 234
10.1.4 通用人工智能 235
10.2 经济后果 236
10.2.1 创意产业 238
10.2.2 教育 239
10.2.3 法律 239
10.2.4 制造业 239
10.2.5 医学 240
10.2.6 军事 240
10.3 社会影响 240
10.3.1 虚假信息与网络安全 241
10.3.2 法规和实施挑战 241
10.4 未来之路 243