大模型提示词Prompt学习

引言

        关于chatGPT的Prompt Engineer,大家肯定耳朵都听起茧了。但是它的来由?,怎么能用好?很多人可能并不觉得并不是一个问题,或者说认定是一个很快会过时的概念。但其实也不能说得非常清楚(因为觉得没必要深究)。但我觉得,它毕竟存在过,火过,我们还是必须对它有更深入的理解,所以,我花时间认真了解了一下。

        对于提示词的理解,我也是经历过好几个阶段。

        最初,我第一次听说什么提示词工程,认为是chatGPT的缺陷所致,也就是GPT不够聪明,提示词是为了让我们迁就它,绕开它的一些不足。但仔细一看,发现不对,大多数提示词的技巧,实际上就是对人与人进行良好沟通的要求,并不过分,不能认为是GPT的缺陷。

        于是,我开始关注提示词的细节和原理,但始终是记不住,感觉无非就是要学会说人话,要和人好好沟通,要能理解你想问领域的基础知识,似乎并没啥可学的,也就没关注了。

        后来,Agent开始火热,开始了解Agent,才发现,原来提示词在这里有用,因为基于GPT编程,实际上很多时候是在使用提示词。那就不能象在chat里那么随意了,需要固化下来,抽象出模板,而且要关注这里提示词在不同版本的准确度。可以理解,提示词就是在编程序,只是在使用自然语言编程。

        讲到这里,容我打一下岔。我们一定要来说说人与计算机如何交互的问题:

        人与计算机交互的方式,也就是人给计算机派任务。经历了几个阶段,因为计算机本质是在处理0/1数据,处理计算任务。最早,我们可以认为计算机比较蠢,人自然就要多做一些事情,就像你的邻家小孩很笨沟通起来很困难,你就得牵就他。所以,人需要写晦涩的汇编指令(甚至用过打孔纸带),没办法,谁让它那么笨。但慢慢的,机器变得越来越聪明,人就开始使用C语言,C++语言,然后是 Java语言,到现在,最流行的Python,与计算机的交互变得越来越简单,我们可以理解为计算机变聪明了,对于人的要求,不断在后退,计算机理解能力提升,不断在前进。

        直到今天,GPT的出现,人可能再退一步,使用自然语言来和计算机交流。这可是人类倒退的一小步,计算机进步的一大步。我们在使用Prompt的时候,发现使用自然语言就可以让计算机完成任务。所以,你不得不重视提示词,它不仅仅是用来聊天的输入,是未来与AI交流的第一语言(当然,也可能会被工程化,变成GPT的内置功能,但至少目前没有)

        我不知道有没有引起大家的好奇。铺垫就说这么多了。

Prompt 的产生

        对于大模型的技术,有一种四阶的说法,提示词工程应该属于最上层的,应用层技术,面向的人群是所有终端用户,门槛最低,最易于上手。

        我们今天的重点是讲提示词工程,也就是Prompt。

  简单来说,Prompt就是我们与大模型之间的沟通话术。

        我们以前经常会接触一些职场沟通,销售话术,和大模型一起工作,就象人与人配合工作一样,需要有很好的沟通技巧。好了,言归正传,我们说说Prompt的来源。

        那Promtpt是如何产生的呢?我们必须从GPT的历史说起。

        我们来看看GPT的历史:

        1.0 时代:在Goolge发明Transformer之后,开始大力发展BERT,OpenAI 的同学觉得Transformer挺好的,把Transformer改了改,用了解码器的生成式架构,改成了可以纯并发的架构,并且采用无监督的方法(省了标注),使用了约50G数据(7000本书),通过预训练 + 专业数据fine-tune的方式,生成一个 1 亿参数的模型,效果还行,在特定的测试集上获得一定的结果。方法嘛 ,那是相当的简单粗暴。但产生一个重要理论范式:PreTrain + Fine-tune 的模式。这个时候,并没有什么人关注GPT。那时是BERT的天下。

        2.0 时代:继续扩大参数,扩到15亿(12倍相对于GPT-1),预训练使用了更多的数据。将Fine-tune的量减少,争取一次搞定预训练和微调,变成一个阶段。PreTrain做更多的事情。无监督学习,增加掩码语言模型(增强自监督)。这仍然是一个暴力美学,但效果确实得到很大增强,相应的范式发生变化,PreTrain做了更多的事情,基础模型的能力大大增强。

In-context learning的产生

        到了3.0:增加更多的数据(4100亿tokens),模型参数量更大(1700亿参数,相对于GPT-2大了100倍),这时就有问题了,如果要传统的fine-tune,成本会太高。因此,这时候出现了 In-Context learning ,让模型能够在上下文中学习,其实就是把问题前移,要求提问的人把问题问得更清楚,并且给出一些解答问题的示例 。这样,可以让大模型针对上下文进行推理,做到在不改变预训练模型的情况下,通过增强输入,达到最好的结果。

        这和提示词有啥关系?当然有关系,这实际上就是提示词一个原理,就是提示词的前身,这是一个很简单的道理,一点不深奥,仍然是敌退我进的方法,邻家傻儿子能力不强,咋办呢,我把问题讲清楚一点。它减少了对fine-tune的依赖,支持对上下文的推理,但要求对方把上下文给清楚,甚至给出示例 ,然后根据模型的常识能力,直接获得答案。对于in-context learning有三类:

        1:Zero shot  不给示例 ,给明确的指示

        2: One-shot  给一个示例 

        3: Few-shot 给小于10个以内的多个案例

        上图可以看出,参考示例越多,效果越好。模型越大,效果越好。

       再回顾一下,GPT的发展过程如下:

即然 In-Context learning的效果这么好,那我们提问者是不是可以更进一步呢?

Prompt 实际上是在In-context learning的基础上更进一步

 In-Context Learing:提供参考示例的学习方式。

 Prompt-Learning 是在 in-context learning的基础上更进一步,利用好上下文来影响模型的输出。

        两者的区别是:Prompt Learning 是设计好的提示来引导更好的输出。而 in-context learning则关注的是如何利用输入序列的上下文信息来影响模型输出。其实,我觉得大概都是一回事。

Prompt的理论

在学习如何写好提示词之前,我们先看看理论,虽然理论实际上我觉得有点扯。

其实就是三篇论文

1:Chain-of-Throught (思维链)

论文:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

原理:作为用户,把需求描述更清楚(更适合对方的理解),具体的方法如下

* 大问题分解成小问题。职场OKR的做法。逐步思考,按问题解决的步骤。让LLM多步骤思考。会消耗额外资源,但会多次思考。

* 多步骤输出如何解决。让LLM给出中间结果。就象高中生数学考试,不给过程,要扣分滴。这样更容易发现错误(可以从错误的步聚重新开始)

* 对于数学应用题,一定要用步骤,逐步解决问题

* 只能在大模型上,用少量样本包含思路。才有用。小模型没啥效果。原因是什么?越是复杂的问题,越有效。类似 Few-Shot 

举例 :

提问中给出推理过程,帮助大模型在上下文中学习知识。然后举一反三,答对问题:有点相当于老师把饭给你喂到嘴边,先告诉你大概的解题思路。

说实话,这个有点扯,一般我们并不会为了问第二个问题,去构造那么复杂的例子一。这实际上是有一定复杂度的。

我的理解就是为了让大模型具备某一些能力,可以找到解决该类问题的多步骤解决的方法。把它当成上下文给到模型,然后模型可以学会按上下文的解法,来分步骤解决新问题。

对于ChatGPT的高版本,可能已经内置了相应的提示词模板,会自动带上模板,提升准确率,当然,因为是分步骤执行,可能会导致消耗更多的算力。对于GPT API,你需要自行按CoT的思想去构造提示词。

除了添加按步骤示例的方法以外,还有一个小技巧:

在问题的后面追加说明:Think step-by-step  (请按步骤思考和回答这个问题)

在某些情况,会获得更好的答案。

2:  自洽性(多路径推理)

论文:self-consistency improve Chain of Throught Reasoning in Language Models

原理:多路径推理,如何提升思维链的能力。三个臭皮匠顶个诸葛亮,多回答几次,投票选择最优解。

初一看到这个,觉得挺好笑,为啥这也是重要的论文之一,这顶维期刊的论文,也太显而易见了吧?

如上图所示,可以根据多个路径形成多解,然后投票获取答案。

非常可惜的是,目前大模型在计算方面的能力不强,另外,对于人脑具德的有意识的行为,大模型基本上是做不到的。我们通过CoT 其实可以看出,大模型并没有带来意识,展开来看,它仍然是一种复读机式的鹦鹉学舌式的智能。

好消息是:通过规模提升,带来智能拥现。好像有智能了。坏肖息是,看起来还是鹦鹉学䇢,还是很弱智,并非产生了意识。对于意识:是脑科学范畴,人类自已也没有弄明白,人到底是怎么回事,人类的本质是复读机吗?

        今天看到腾讯小马哥提出:人工智能的技术必须是可知的,也就是可以掌握,可以解释的。其实有一定到底,否则到时可能控制不住,会出大问题。目前深度学习比较黑盒,不知是好事还是坏事。

3: 思维树(Tree of Throughts)

论文:Tree of thought:Deliberate Problem Solving with Large Language Models

原理:能不能打破从左到右的有局限性的问题解决顺序。类似BIRT的做法。

如下图,类似搜索算法,可以进行遍历解空间,找到全局最优解。

从理论上,可以看看ToT的思路,正如人是如何解决复杂问题的?

那就是不断发掘,如何做:

Step 1:利用CoT,把问按多步骤拆解,思维分解。

Step 2:思维生成器——给出K个侯选项,进行抽样,提供多样性。

Step 3:选择,进行价值评估。对每个状态进行独立评估。或者进行投票。

              或者让大语言模型自已来评估。

注意:在寻找答案时,需要搜索。可以使用广度或者深度。

说实话,并没有弄明白,我们如何使用ToT?至少感觉在ChatGPT中简单利用提示词很难,如果是编程,在做AutoGPT或者Agent时,好像可以按此思路来解决问题。但这和大模型本身的关系不大,确实又是一个工程方法。

提示词如何写?

        好了,我们终于写到重点了(以下都是网上截抄的,但我自已实验过)

原则,把大模型当成你的同事,一个小伙伴。

    这里提供的思路,并不是实际的例子,对于不同应用的例子,可以在网上搜索,或者选择提示词工具和插件。

角色设定:减少范围,有点相当于直接选了MoE

       下面的示例中,System就是系统级的设定,如果在ChatGPT中,可以先单独开一条消息,提前做一下说明,后续就不用再重复了。

指令注入:强调本次上下文一直要注意的信息

问题拆解:帮计算机拆解一下问题,不要太为难它

这个例子不太好,大概的意思就是把问题的步骤帮助做一下拆解。

分层设计:这个知道答案是分层的,那就按层来提问

编程思维:注意,大模型是可以支持自然语言编程的

问题实际上就是一段程序,可以有逻辑判断,可以有输出定义。

Few-Shot:给例子,给例子,给例子。

对于打样,给例子,上面已经给出例子。

另外,网上提供的一个比较好的例子:生成标注数据,挺好用。

这个例子也很有用,在分析BUG时可以参考。

提示词工程是啥?

        随着ChatGPT的工程能力越来越强,可能写好提示词的价值会越来越小。你可能在使用chatGPT过程中会发现,之前的一些提示词黑魔法,在高版ChatGPT会变得没必要了。因为相应的提示词会在ChatGPT中自动引用。但目前而言,GPT API是没有开放相应的能力的,还需要我们通过程序来进行封装。

        我们需要将手工变成自动,把手工的Prompt变成程序自动生成(实际上是抽象变量)。这样变成一个固定的做法。变成一个工程问题。可以通过抽象模板来完成。

        比如:我要将{文字}翻译成{中文}   这实际上就是一个翻译工具

        比如:我要创作一个{}的文案。

        定义模板,抽取参数,它就变成一个自动化的工具。

        将Prompt当作编程语言,把多个prompt串在一起,就可以完成复杂的任务。

        作为提示词工程师,会按照一定的规则去写提示词。

使用LangChane时,可以很好的使用Prompt,因为它有一个Promt Templates:

1:PromtTemplate.from_template(""),可以添加变量,使用时传入。输出格式也可以规范。

可以检查传参。无变量也是可以的。

2:使用构造函数生成PromptTemplate。和1没啥区别。只是更严格,确定参数

这个有点怪,但你可以认为实际上就是将自然语言封装了变量。

ChatPromptTemplate 与之类似。

可以在System中添加变量。要以在user_input中定义变量。

使用fromatf进行参数传入

FewShotPromptTemplate——给参考示例。

给示例集,解包,定义字典,模板还可以嵌套。

注意:SematicSimilarityExampleSelector 可以查找相近的语义词。这个很有用噢。

如下是一个简单的示例图,只要学过一点点编程,很容易理解这个。

对于复杂的情况,我们还可以生成思维链,完成复杂的流程,也就是类似上面讲到的ToT了。我觉得ToT的落地,就在这里了。

比如:我需要提供一个工具,有大模型来生成戏剧,另外,针对生成的戏剧在理解后进行评论,使用另一个大模型。对于此类的问题,就需要比较复杂的对待了。

(如下使用的框架是开源的LangChain框架)

好了,大概写这么多,提示词大家确实没必要太关注,我也觉得它是一个过渡的技术。

它的起因是为了给基础大模型减压(模型能力问题)
它的发展是因为低版本的ChatGPT的工程能力弱(没有对提示词封装),API没有提供相应的模板支持,但是,很可能后续很快会被补上。

当然,了解一下原理,并没有什么坏处。

但没有必要满世界去学习提示词模板,在需要的时候,去搜一下就好了。
但是要注意,提示词模板并不是通用的,要看具体的大模型和大模型的版本。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/15926.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Redis第18讲——Redis和Redission实现延迟消息

即使不是做电商业务的同学,也一定知道订单超时关闭这种业务场景,这个场景大致就是用户下单后,如果在一定时间内未支付(比如15分钟、半小时),那么系统就会把这笔订单给关闭掉。这个功能实现的方式有很多种&a…

unity开发Hololens 制作滑动框

一定要做到最后一步,才会有效果 1、创建空物体 ,并添加组件 创建空物体 命名ScrollingObjectCollection, 添加组件如下图 下面是各个组件展开的内容 2、在ScrollingObjectCollection 下面创建两个空物体,分别命名Container、Clipping…

运筹说 第115期 | 排队论经典例题讲解

通过前几期的学习,我们已经学会了排队论的基本概念、生灭过程和Poisson过程,等待制排队模型、混合制排队模型、其他排队模型以及排队系统优的定义与相关求解方法。在实际工作中,我们能发现排队论在经济管理中有着许多应用,本期小编…

大数据量上传FTP

背景 笔者有一个需求是把将近一亿条数据上传到FTP服务器中,这些数据目前是存储在mysql中,是通过关联几张表查询出来的,查询出来的数据结果集一共是6个字段。要求传输的时候拆分成一个个小文件,每个文件大小不能超过500M。我的测试…

FuTalk设计周刊-Vol.052

#AI漫谈 热点捕手 1.ChatGPT 大更新!GPT-4 开始又变聪明了 OpenAI 官方宣布,新版 GPT-4 Turbo 今天开始向所有付费 ChatGPT 用户开放。 链接https://www.pconline.com.cn/focus/1733/17330089.html 2.刷爆多模态任务榜单!贾佳亚团队Mini-G…

21.2zabbix低级自动发现-mysql多实例

配置mysql多实例 注释:自动发现:创建监控主机;低级自动发现:创建监控项 mysql单实例是直接yum安装,开启mysql多实例 准备配置文件 #mysql3307实例 cp /etc/my.cnf /etc/my3307.cnf vim /etc/my3307.cnf [mysqld] dat…

产品经理-流程图结构图(四)

1. 流程图 1.1 概念 为了达到特定的目标而进行的一系列有逻辑性的操作步骤,由两个及以上的步骤,完成一个完整的行为的过程,可称之为流程 1.2 产品经理为什么需要绘制流程图? 保证产品的使用逻辑合理顺畅向项目组其他成员清晰的…

代码随想录算法训练营Day4|24. 两两交换链表中的节点、19.删除链表的倒数第N个节点、 142.环形链表II、面试题 02.07. 链表相交

24. 两两交换链表中的节点 这道题的关键在于: 1、在置换两个节点的时候,当前节点需要在这俩节点之前一个节点。并且要提前保存cur.next以及cur.next.next。 2、每次置换完一组节点,cur cur.next.next 3、判断结束的标志:奇数个节点&#xf…

如何禁止U盘拷贝文件|禁止U盘使用的软件有哪些

禁止U盘拷贝文件的方法有很多,比如使用注册表、组策略编辑器等,但这些方法都适合个人,不适合企业,因为企业需要对下属多台电脑进行远程管控,需要方便、省时、省力的方法。目前来说,最好的方法就是使用第三方…

技术速递|无障碍应用程序之旅:键盘可访问性和 .NET MAUI

作者:Rachel Kang 排版:Alan Wang 首先让我们一起来看看您的应用程序是否支持键盘访问: 启动您的其中一个应用。如果您的设备尚未连接物理键盘,请连接物理键盘。像平常一样导航您的应用程序,并且仅使用键盘来执行此操…

如何使用Rust构建Python原生库?注意,不是动态链接库!!!

参考文档:https://github.com/PyO3/pyo3 创建python虚拟环境: conda create --name pyo3 python3.11.7激活虚拟环境: conda activate pyo3安装依赖: pip install maturin初始化项目: maturin init构建项目&#x…

小程序checkbox改成圆形与radio样式保持一致

修改前 修改后 html: <view class"agreement"><checkbox value"{{ isAgreed }}" bind:tap"toggleCheckbox" /><text>我同意室外智能健身房 <text class"link" bind:tap"showUserProtocol">用户协…

【JTS Topology Suite】Java对二维几何进行平移、缩放、旋转等坐标变换

JTS介绍 Github项目地址&#xff1a;https://github.com/locationtech/jts Maven库地址&#xff1a;https://mvnrepository.com/artifact/org.locationtech.jts JTS Topology Suite是一个用于创建和操作二维矢量几何的Java库。 JTS有对应的.NET版本NetTopologySuite库&…

2024目前网上最火短剧机器人做法,自动搜索发剧 自动更新资源 自动分享资源

目前整个项目圈子很多的短剧机器人&#xff0c;我写的&#xff0c;自动搜索发剧&#xff0c;自动更新资源&#xff0c;自动分享资源&#xff0c;前段时间大部分做短剧的都是做的短剧分成&#xff0c;我的一个学员做的30W播放量才200块收益&#xff0c;备受启发&#xff0c;我就…

springboot社区助老志愿服务系统-计算机毕业设计源码96682

摘要 大数据时代下&#xff0c;数据呈爆炸式地增长。为了迎合信息化时代的潮流和信息化安全的要求&#xff0c;利用互联网服务于其他行业&#xff0c;促进生产&#xff0c;已经是成为一种势不可挡的趋势。在图书馆管理的要求下&#xff0c;开发一款整体式结构的社区助老志愿服务…

社交媒体数据恢复:绿洲

本教程将向您展示如何在绿洲平台上备份和恢复数据&#xff0c;但不涉及推荐任何具体的数据恢复软件。 一、绿洲平台数据备份 为了确保数据的安全&#xff0c;在日常使用过程中&#xff0c;我们需要定期备份绿洲平台上的数据。以下是备份绿洲平台数据的步骤&#xff1a; 登录绿…

three.js能实现啥效果?看过来,这里都是它的菜(09)

Hi&#xff0c;这是第九期了&#xff0c;继续分享three.js在可视化大屏中的应用&#xff0c;本期分享位移动画的实现。 位移动画 Three.js位移动画是指在Three.js中实现物体位置的平移动画。通过改变物体的位置属性&#xff0c;可以实现物体沿着指定路径从一个位置移动到另一…

Java——图书管理系统万字详解(附代码)

框架搭建 book包 将书相关的放到book包中&#xff0c;创建一个Book类用来设置书的属性&#xff0c;包括书名、作者、价格、类型、是否被借出等。 以上属性均被private所修饰 利用编译器生成构造方法&#xff08;不需要构造isBorrowed&#xff0c;因为其初始值为false&#…

springboot结合baomidou dynamic-datasource组件实现多数据源

dynamic-datasource组件实现多数据源 一、背景介绍二、 思路方案三、过程四、总结五、升华 一、背景介绍 博主最近研发的项目中由于业务需要&#xff0c;在项目中使用到多个数据源。使用到了baomidou的dynamic-datasource组件来实现访问不同的数据源。觉得挺有意思的也是进行了…

海外链游地铁跑酷全自动搬砖挂机掘金变现项目,号称单窗口一天收益30+(教程+工具)

一、项目概述 地铁跑酷海外版国外版自动搬砖挂机掘金项目是一款结合了地铁跑酷元素的在线游戏&#xff0c;为玩家提供一个全新的游戏体验&#xff0c;使得玩家可以轻松地进行游戏&#xff0c;无需手动操作&#xff0c;节省时间和精力。 二、游戏特点 1. 自动化操作&#xff1…