LLM 中什么是Prompts?如何使用LangChain 快速实现Prompts 一

LLM 中什么是Prompts?如何使用LangChain 快速实现Prompts 一

Prompt是一种基于自然语言处理的交互方式,它通过机器对自然语言的解析,实现用户与机器之间的沟通。 Prompt主要实现方式是通过建立相应的语料库和语义解析模型,来将自然语言转换为机器可识别的指令。 Prompt是一种计算机编程语言,它被广泛用于自然语言处理(NLP)和人工智能(AI)领域。

image.png

Prompt templage 是用于生成语言模型提示的预定义方案。

模板可以包括说明、少量示例以及适合给定任务的特定上下文和问题。

LangChain 提供了创建和使用提示模板的工具。

LangChain 致力于创建与模型无关的模板,以便能够轻松地跨不同语言模型重用现有模板。

通常LLM 期望提示是字符串或聊天消息列表。

PromptTemplate

用于PromptTemplate创建字符串提示的模板。

默认情况下,PromptTemplate使用 Python 的 str.format 语法进行模板化。

该模板支持任意数量的变量,包括无变量:

python复制代码 from langchain.prompts import PromptTemplateprompt_template = PromptTemplate.from_template("Tell me a {adjective} joke about {content}.")prompt_template.format(adjective="funny", content="chickens")# > 'Tell me a funny joke about chickens.'
python复制代码 # 无变量prompt_template = PromptTemplate.from_template("Tell me a joke")prompt_template.format()# > 'Tell me a joke'

PromptTemplate 一般使用在单轮对话中。不需要历史记忆的场景.
😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

## `ChatPromptTemplate`

ChatPromptTemplate 聊天消息列表,每条聊天消息都与内容以及附加参数相关联role。例如聊天消息可以与 AI 助手、人类或系统角色相关联。

创建一个这样的聊天提示模板:

python复制代码 from langchain_core.prompts import ChatPromptTemplatechat_template = ChatPromptTemplate.from_messages([("system", "You are a helpful AI bot. Your name is {name}."),("human", "Hello, how are you doing?"),("ai", "I'm doing well, thanks!"),("human", "{user_input}"),])messages = chat_template.format_messages(name="Bob", user_input="What is your name?")

ChatPromptTemplate.from_messages接受各种消息表示形式。

例如除了使用上面使用的 (type, content) 的二元组表示之外,我们还可以传入 MessagePromptTemplate的实例BaseMessage

python复制代码 chat_template = ChatPromptTemplate.from_messages([# 这里跟上面的 system 的作用是一致的SystemMessage(content=("You are a helpful assistant that re-writes the user's text to ""sound more upbeat.")),HumanMessagePromptTemplate.from_template("{text}"),])messages = chat_template.format_messages(text="I don't like eating tasty things")print(messages)

这样为我们构建聊天提示的方式提供了很大的灵活性。

LECL 方式

PromptTemplateChatPromptTemplate都实现Runnable接口。这意味着它们支持invokeainvokestreamastreambatchabatchastream_log 函数的调用。

PromptTemplate接受(提示变量的)字典并返回一个StringPromptValue. ChatPromptTemplate接受一个字典并返回一个ChatPromptValue

python复制代码 prompt_val = prompt_template.invoke({"adjective": "funny", "content": "chickens"})# StringPromptValue(text='Tell me a funny joke about chickens.')prompt_val.to_string()# > Tell me a funny joke about chickens.prompt_val.to_messages()#> [HumanMessage(content='Tell me a joke')]

另一个例子

python复制代码 chat_val = chat_template.invoke({"text": "i dont like eating tasty things."})chat_val.to_messages()#> [SystemMessage(content="You are a helpful assistant that re-writes the user's text to sound more upbeat."),HumanMessage(content='i dont like eating tasty things.')]# 转换为字符串chat_val.to_string()#> "System: You are a helpful assistant that re-writes the user's text to sound more upbeat.\nHuman: i dont like eating tasty things."

使用类型消息

聊天提示由消息列表组成。纯粹为了创建这些提示方便我们开发人员添加的一种的便捷方法。在此管道中,每个新元素都是最终提示中的一条新消息。

python复制代码 from langchain_core.messages import AIMessage, HumanMessage, SystemMessage

首先,让我们使用系统消息初始化基本 ChatPromptTemplate。不一定要从系统开始,但这通常是比较好的做法。

python复制代码 prompt = SystemMessage(content="You are a nice pirate")

然后我们可以轻松创建将其与其他消息或消息模板相结合的管道 。

当没有要格式化的变量时使用Message,当有要格式化的变量时使用MessageTemplate。还可以仅使用一个字符串(注意:这将自动推断为 HumanMessagePromptTemplate

python复制代码 new_prompt = (prompt + HumanMessage(content="hi") + AIMessage(content="what?") + "{input}")

这样LangChain会创建 ChatPromptTemplate 类的一个实例,因此我们可以像以前一样使用它!

python复制代码 new_prompt.format_messages(input="i said hi")# 输出[SystemMessage(content='You are a nice pirate', additional_kwargs={}),HumanMessage(content='hi', additional_kwargs={}, example=False),AIMessage(content='what?', additional_kwargs={}, example=False),HumanMessage(content='i said hi', additional_kwargs={}, example=False)]

也可以在LLMChain一样在使用它。

python复制代码 from langchain.chains import LLMChainfrom langchain_openai import ChatOpenAIllm = ChatOpenAI()chain = LLMChain(prompt=new_prompt, llm=llm)chain.run("I said HI!")

选择器

名称描述
相似 similarity使用输入和示例之间的语义相似性来决定选择哪些示例。
MMR使用输入和示例之间的最大边际相关性来决定选择哪些示例。
length_based根据一定长度内可以容纳的数量来选择示例
Ngram使用输入和示例之间的 ngram 重叠来决定选择哪些示例。

长度选择

长度选择器根据长度选择要使用的示例。当我们担心构建的提示会超过上下文窗口的长度时,这非常有用。对于较长的输入,它将选择较少的示例来包含,而对于较短的输入,它将选择更多的示例。

python复制代码 from langchain.prompts import FewShotPromptTemplate, PromptTemplatefrom langchain.prompts.example_selector import LengthBasedExampleSelector# 制作反义词的任务示例。examples = [{"input": "happy", "output": "sad"},{"input": "tall", "output": "short"},{"input": "energetic", "output": "lethargic"},{"input": "sunny", "output": "gloomy"},{"input": "windy", "output": "calm"},]example_prompt = PromptTemplate(input_variables=["input", "output"],template="Input: {input}\nOutput: {output}",)example_selector = LengthBasedExampleSelector(# 可供选择的示例。examples=examples,#用于格式化示例的PromptTemplate。example_prompt=example_prompt,# 格式化示例的最大长度。长度由下面的get_text_length函数来衡量。max_length=25,# 用于获取字符串长度的函数,用于确定要包含哪些示例。因为如果未指定,默认值将会提供。# get_text_length: Callable[[str], int] = lambda x: len(re.split("\n| ", x)))dynamic_prompt = FewShotPromptTemplate(# 我们提供一个示例选择器example_selector=example_selector,example_prompt=example_prompt,prefix="Give the antonym of every input",suffix="Input: {adjective}\nOutput:",input_variables=["adjective"],)
python复制代码 print(dynamic_prompt.format(adjective="big"))
python复制代码 Give the antonym of every inputInput: happyOutput: sadInput: tallOutput: shortInput: energeticOutput: lethargicInput: sunnyOutput: gloomyInput: windyOutput: calmInput: bigOutput:

一个包含长输入的示例,所以它只选择了一个示例。

python复制代码 long_string = "big and huge and massive and large and gigantic and tall and much much much much much bigger than everything else"print(dynamic_prompt.format(adjective=long_string))
yaml复制代码 Give the antonym of every inputInput: happyOutput: sadInput: big and huge and massive and large and gigantic and tall and much much much much much bigger than everything elseOutput:

(MMR) 选择

MaxMarginalRelevanceExampleSelector根据与输入最相似的示例的组合来选择示例,同时还针对多样性进行优化。它通过查找与输入具有最大余弦相似度的嵌入示例来实现这一点,然后迭代地添加它们,同时排除它们与已选择示例的接近程度。

看个例子:
python复制代码 from langchain.prompts import FewShotPromptTemplate, PromptTemplatefrom langchain.prompts.example_selector import (MaxMarginalRelevanceExampleSelector,SemanticSimilarityExampleSelector,)from langchain_community.vectorstores import FAISSfrom langchain_openai import OpenAIEmbeddingsexample_prompt = PromptTemplate(input_variables=["input", "output"],template="Input: {input}\nOutput: {output}",)#创建反义词的假装任务的示例。examples = [{"input": "happy", "output": "sad"},{"input": "tall", "output": "short"},{"input": "energetic", "output": "lethargic"},{"input": "sunny", "output": "gloomy"},{"input": "windy", "output": "calm"},]
python复制代码 example_selector = MaxMarginalRelevanceExampleSelector.from_examples(# 可以选择的示例列表。examples,# 用于生成嵌入的嵌入类,用于衡量语义相似性。OpenAIEmbeddings(),# 用于存储嵌入并进行相似度搜索的VectorStore类。FAISS,# 需要生成的示例数量。k=2,)mmr_prompt = FewShotPromptTemplate(#我们提供 ExampleSelectorexample_selector=example_selector,example_prompt=example_prompt,prefix="Give the antonym of every input",suffix="Input: {adjective}\nOutput:",input_variables=["adjective"],)

输入worried 是一种感觉类的词汇,所以应该选择愉快/悲伤的例子作为第一个。

ini复制代码 print(mmr_prompt.format(adjective="worried"))
python复制代码 # 让我们将这与仅仅基于相似性得到的结果进行比较。请使用SemanticSimilarityExampleSelector代替MaxMarginalRelevanceExampleSelector。example_selector = SemanticSimilarityExampleSelector.from_examples(# 可供选择的示例列表。examples,#向量相似性检索OpenAIEmbeddings(),#用于存储嵌入并进行相似性搜索的 VectorStore 类。FAISS,k=2,)similar_prompt = FewShotPromptTemplate(# 供了一个示例选择器,而不仅仅是具体的示例。example_selector=example_selector,example_prompt=example_prompt,prefix="Give the antonym of every input",suffix="Input: {adjective}\nOutput:",input_variables=["adjective"],)print(similar_prompt.format(adjective="worried"))

Ngram重叠选择

NGramOverlapExampleSelector根据 ngram 重叠分数,根据与输入最相似的示例来选择示例并对其进行排序。ngram 重叠分数是 0.0 到 1.0 之间的浮点数(含 0.0 和 1.0)。

选择器允许设置阈值分数。ngram 重叠分数小于或等于阈值的示例被排除。默认情况下,阈值设置为 -1.0,因此不会排除任何示例,只会对它们重新排序。将阈值设置为 0.0 将排除与输入没有 ngram 重叠的示例。

python复制代码 from langchain.prompts import FewShotPromptTemplate, PromptTemplatefrom langchain.prompts.example_selector.ngram_overlap import NGramOverlapExampleSelectorexample_prompt = PromptTemplate(input_variables=["input", "output"],template="Input: {input}\nOutput: {output}",)# 翻译任务的示例examples = [{"input": "See Spot run.", "output": "Ver correr a Spot."},{"input": "My dog barks.", "output": "Mi perro ladra."},{"input": "Spot can run.", "output": "Spot puede correr."},]
python复制代码 example_selector = NGramOverlapExampleSelector(# 可以选择的示例。examples=examples,# 正在使用的 PromptTemplate 用于格式化示例。example_prompt=example_prompt,# 选择器停止的阈值。默认是 -1.0threshold=-1.0,)dynamic_prompt = FewShotPromptTemplate(#  我们提供一个示例选择器。example_selector=example_selector,example_prompt=example_prompt,prefix="Give the Spanish translation of every input",suffix="Input: {sentence}\nOutput:",input_variables=["sentence"],)

对于负阈值:Selector按ngram重叠分数对示例进行排序,不排除任何示例。对于大于1.0的阈值:选择器排除所有示例,并返回一个空列表。对于等于0.0的阈值:Selector根据ngram重叠分数对示例进行排序,并且排除与输入没有ngram重叠的那些。

similarity 选择器

该对象根据与输入的相似性来选择示例。它通过查找与输入具有最大余弦相似度的嵌入示例来实现这一点。

python复制代码 from langchain.prompts import FewShotPromptTemplate, PromptTemplatefrom langchain.prompts.example_selector import SemanticSimilarityExampleSelectorfrom langchain_community.vectorstores import Chromafrom langchain_openai import OpenAIEmbeddingsexample_prompt = PromptTemplate(input_variables=["input", "output"],template="Input: {input}\nOutput: {output}",)#创建反义词的任务的示例。examples = [{"input": "happy", "output": "sad"},{"input": "tall", "output": "short"},{"input": "energetic", "output": "lethargic"},{"input": "sunny", "output": "gloomy"},{"input": "windy", "output": "calm"},]
python复制代码 example_selector = SemanticSimilarityExampleSelector.from_examples(# 可供选择的示例列表。examples,# 用于生成嵌入的嵌入类,这些嵌入类用于衡量语义相似性。OpenAIEmbeddings(),#用于存储嵌入并进行相似度搜索的VectorStore类。Chroma,k=1,)similar_prompt = FewShotPromptTemplate(# 我们提供一个 ExampleSelectorexample_selector=example_selector,example_prompt=example_prompt,prefix="Give the antonym of every input",suffix="Input: {adjective}\nOutput:",input_variables=["adjective"],)

总结:

本篇文章我们主要介绍了一下内容:

  • 什么是 promptprompt template
  • Langchain 中 构建 prompt template 的方式以及类型:PromptTemplateChatPromptTemplate
  • 使用 langchain 构建消息类型。
  • prompt 选择器的类型,以及为什么需要选择器。

那么,我们该如何学习大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一、大模型全套的学习路线

学习大型人工智能模型,如GPT-3、BERT或任何其他先进的神经网络模型,需要系统的方法和持续的努力。既然要系统的学习大模型,那么学习路线是必不可少的,下面的这份路线能帮助你快速梳理知识,形成自己的体系。

L1级别:AI大模型时代的华丽登场

L2级别:AI大模型API应用开发工程

L3级别:大模型应用架构进阶实践

L4级别:大模型微调与私有化部署

一般掌握到第四个级别,市场上大多数岗位都是可以胜任,但要还不是天花板,天花板级别要求更加严格,对于算法和实战是非常苛刻的。建议普通人掌握到L4级别即可。

以上的AI大模型学习路线,不知道为什么发出来就有点糊,高清版可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/27024.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Spring Boot中的RESTful API详细介绍及使用

在Spring Boot中,RESTful API的实现通过控制器类中的方法和特定的注解来完成。每个注解对应不同的HTTP请求方法,并通过处理请求参数和返回响应来实现不同的操作。 下面将详细解释RESTful API中的各个方面,包括GetMapping, PostMapping, PutMa…

「实战应用」如何用DHTMLX将上下文菜单集成到JavaScript甘特图中(一)

DHTMLX Gantt是用于跨浏览器和跨平台应用程序的功能齐全的Gantt图表。可满足项目管理应用程序的所有需求,是最完善的甘特图图表库。 DHTMLX Gantt是一个高度可定制的工具,可以与项目管理应用程序所需的其他功能相补充。在本文中您将学习如何使用自定义上…

【Numpy】一文向您详细介绍 np.sqrt()

【Numpy】一文向您详细介绍 np.sqrt() 下滑即可查看博客内容 🌈 欢迎莅临我的个人主页 👈这里是我静心耕耘深度学习领域、真诚分享知识与智慧的小天地!🎇 🎓 博主简介:985高校的普通本硕,曾…

vsto excel 快速查找所有标黄的格子

在 VSTO (Visual Studio Tools for Office) 加载项中,你可以使用 C# 代码快速查找并处理 Excel 工作表中所有被标记为黄色的单元格。以下是一个示例代码,展示如何遍历工作表并查找所有背景颜色为黄色的单元格。 ### 示例代码 using System; using Syst…

辽宁省实验中学2024暑假信息学体验活动测试试卷解析

辽宁省实验中学2024暑假信息学体验活动测试试卷解析 一、客观题测试一:选择题(每个题5分,不定选项)1. 在 C++程序中,下列标识符都是合法的是() A. _key,3ab,dc B. _ba1,in,ac C. int,3c,bc 2. 下方代码输入 3 4,输出是:( ) #include<iostream> using namespace …

AI日报|Luma推出AI视频模型,又一Sora级选手登场?SD3 Medium发布,图中文效果改善明显

文章推荐 AI日报&#xff5c;仅三个月就下架&#xff1f;微软GPT Builder出局AI竞争赛&#xff1b;马斯克将撤回对奥特曼的诉讼 谁是最会写作文的AI“考生”&#xff1f;“阅卷老师”ChatGPT直呼惊艳&#xff01; ⭐️搜索“可信AI进展“关注公众号&#xff0c;获取当日最新…

输出数据到excel中

% 定义数据 names1 {ff, jj, aa, bb}; % Example name1 data names2 {tt, yy, cc, dd}; % Example name2 data corrfits [2, 4, 6, 8]; % Example corrfit data % 获取数据的长度 n length(names1); % 初始化一个单元数组来存储所有数据 data cell(n, 3); % 使用循环…

Flink 命令行提交、展示和取消作业

在Flink中&#xff0c;可以通过命令行提交、展示和取消作业。以下是如何使用命令行操作Flink作业的示例&#xff1a; 提交作业 ./flink run -c com.example.MainClass /path/to/your/job.jar [jobArgs]这里&#xff0c;run是提交作业的命令&#xff0c;-c后面跟着的是主类的全…

深入理解MyBatis XML配置文件

MyBatis是一款优秀的持久层框架&#xff0c;简化了数据库操作的复杂性&#xff0c;提高了开发效率。在MyBatis中&#xff0c;XML配置文件扮演了重要角色&#xff0c;用于配置数据源、事务管理、SQL映射等内容。本文将详细介绍MyBatis的XML配置文件&#xff0c;帮助读者更好地理…

Three.js的渲染器:WebGLRenderer、CSS3DRenderer、SVGRenderer

我们都晓得渲染器是负责将场景中的3D对象转换为2D图像&#xff0c;然后显示在屏幕上&#xff0c;three.js内置了多种渲染器&#xff0c;来应对不同的和需求&#xff0c;贝格前端工场老司机&#xff0c;简要和大家分享下。 一、渲染器的定义和作用 在Three.js中&#xff0c;渲…

凯伦股份中标中铁置业2024-2026年度防水材料框架协议采购项目!

近日&#xff0c;凯伦股份收到了中铁置业集团有限公司发来的中标通知书&#xff0c;确定凯伦公司为其2024年度-2026年度防水材料框架协议采购项目的中标人&#xff0c;正式成为中铁置业集团的合作供应商。 中铁置业集团有限公司是中国中铁股份有限公司的全资子公司&#xff0c;…

【postman接口测试工具的安装和使用】

Postman是一个强大的接口测试和开发工具&#xff0c;支持HTTP协议的所有请求方式&#xff0c;如GET、POST、PUT、DELETE等&#xff0c;并允许用户模拟各种HTTP请求[1][2]。以下是关于Postman的安装和使用方法的详细介绍&#xff1a; 安装Postman 访问官方网站&#xff1a; 打开…

关键的服务器硬件组件及其基本功能

以下是一些关键的服务器硬件组件及其基本功能&#xff1a; 中央处理器&#xff08;CPU&#xff09;&#xff1a; 功能&#xff1a;执行计算和处理任务&#xff0c;是服务器的核心处理单元。特点&#xff1a;通常服务器使用多核、多线程的高性能CPU&#xff0c;以处理并行任务和…

Kafka跨集群数据镜像解决方案MirrorMaker及其替代工具

摘要&#xff1a; 本文介绍了Apache Kafka社区提供的跨集群数据镜像工具MirrorMaker&#xff0c;分析了其优缺点&#xff0c;并简要介绍了LinkedIn和Confluent公司针对MirrorMaker的不足所开发的替代工具。 一、MirrorMaker简介 MirrorMaker是Apache Kafka社区推出的一款跨集…

Llama3-8B到底能不能打?实测对比

前几天Meta开源发布了新的Llama大语言模型&#xff1a;Llama-3系列&#xff0c;本次一共发布了两个版本&#xff1a;Llama-3-8B和Llama-3-70B&#xff0c;根据Meta发布的测评报告&#xff0c;Llama-3-8B的性能吊打之前的Llama-2-70B&#xff0c;也就是说80亿参数的模型干掉了70…

GNU/Linux - 使用字符设备来操作GPIO

从 4.8 版开始&#xff0c;Linux 内核引入了基于字符设备的新用户空间 API&#xff0c;用于管理和控制 GPIO&#xff08;通用输入/输出&#xff09;。这篇文章介绍了新接口的基本原理&#xff0c;并通过一个简单的教程/示例演示了如何使用新 API 控制 GPIO。 教程中使用的硬件是…

一篇文章教你学会如何用云服务器搭建https网站

首先我们要明白为什么要通过云服务器来搭建https网站&#xff0c;这是因为通过使用云服务器搭建 HTTPS 网站&#xff0c;可以为我们提供更高的安全性和信任度。 一&#xff0c;前期的准备工作分为三大类&#xff1a;一台云服务器&#xff0c;域名&#xff0c;SSL证书&#xff1…

ESP8266发送WOL幻数据包实现电脑远程唤醒

计算机远程唤醒&#xff08;Wake-on-LAN, WOL&#xff09; 计算机远程唤醒&#xff08;Wake-on-LAN&#xff0c;简称 WOL&#xff09;是一种局域网唤醒技术&#xff0c;可以将局域网内处于关机或休眠状态的计算机唤醒至引导&#xff08;Boot Loader&#xff09;或运行状态。无…

RAG 实践-Ollama+AnythingLLM 搭建本地知识库

什么是 RAG RAG&#xff0c;即检索增强生成&#xff08;Retrieval-Augmented Generation&#xff09;&#xff0c;是一种先进的自然语言处理技术架构&#xff0c;它旨在克服传统大型语言模型&#xff08;LLMs&#xff09;在处理开放域问题时的信息容量限制和时效性不足。RAG的…

pg——psql命令行交互式客户端工具

1、启动数据库 ./pg_ctl -D /usr/local/pgsql/data/ -l /usr/local/pgsql/log 2、登录数据库 psql template1 3、查看所有数据库 \l 4、创建数据库 create database testdb; 5、连接某数据库 \c 数据库 6、查看数据下的表 \d 7、 查看数据库下的所有schema \dn 8、查看表的结构…