第一条也是最重要的一条规则是
永远不要要求LLM提供你无法自己验证的信息,
或让它完成你无法验证其正确性的任务。
唯一例外的情况是那些无关紧要的任务, 例如,让大型语言模型提供公寓装修灵感之类的是可以的 。
首先请看两个范例
-
不佳示范:“使用文献综述最佳实践,总结过去十年乳腺癌的研究成果。”
(这是一个不够好的请求,因为我们无法直接检查它是否正确地总结了文献。)
-
较好的示范:“给我一份过去 10 年关于乳腺癌研究的顶级综述文章列表。”
(这个提问比较好,因为你可以验证这些文章来源是否存在,并自己核对它们,因为这些都是权威专家撰写的。)
👇下面讲讲写提示词的技巧:
让大型语言模型为您编写代码或查找相关信息非常简单,但回复的质量可能会有很大差异 ,我们可以从以下几方面来改善LLMs的输出质量。
设置上下文SET THE CONTEXT
- 明确告诉 LLM 它应该使用哪些信息
Tell the LLM explicitly what information it should be using
- 使用术语和符号 以引导LLM进入正确语境。
Use terminology and notation that biases the LLM towards the right context
如果你对如何处理某个请求有想法,告诉LLM采用该方法。
举个例子 “解这个不等式。”
"使用Cauchy-Schwarz定理求解这个不等式,然后应用完全平方法。"这些模型在语言方面比我们想象的更先进。哪怕极其模糊的指引有时也会有所帮助。
要具体 BE SPECIFIC
我们用的大语言模型不是谷歌搜索。你不必担心是否有网站讨论了你的确切问题。
再看个例子 “如何解涉及二次项的同时方程组?”
具体请求示范:“求解x=(1/2)(a+b)和y=(1/3)(a2+ab+b2)关于a和b的方程。”
还需要定义输出格式!DEFINE YOUR OUTPUT FORMAT
充分利用LLM的灵活性,以最适合你的方式格式化输出,例如: 代码 数学公式 论文体 教程 项目符号 你甚至可以要求它生成代码来生成: 表格 图形 图表等格式都可以。
注意⚠️ 大模型生成答案还那仅仅只是开始。那么我们就需要
- 二次验证回答 YOU NEED TO VALIDATE THE RESPONSE
你需要验证它的应答,包括: 寻找矛盾之处 谷歌搜索响应中的术语以获取支持性资料 有时候还需要自己生成代码来测试它提出的论点。
LLM常常会出现奇怪的错误,与它们表现出的专业水平不相符。例如,LLM可能会提及一个极其高级的数学概念,却在简单的代数运算上出错。这就是为什么你必须检查一切的原因。
利用错误产生反馈: 如果你在答案中发现错误或矛盾,要求LLM解释原因, 如果LLM生成有bug的代码,复制粘贴错误信息到LLM窗口并要求修复。
- *利用错误生成反馈* USE THE ERRORS TO GENERATE FEEDBACK
如果你在响应中发现错误或矛盾,要求LLM解释原因 如果LLM生成有bug的代码,复制粘贴错误信息到LLM窗口并要求修复。
- 还有一个超好用的方法就是——多问几次!
ASK MORE THAN ONCE
LLM是随机的。有时,简单地新开一个窗口并再次提问,可能会得到更好的答复。
- 还可以使用多个模型 USE MORE THAN ONE LLM
我目前使用Bing AI、GPT-4、GPT-3.5和Gemini AI,具体取决于我的需求。它们各有优缺点。根据我的经验,对于同一个数学问题向GPT-4和Gemini AI提问以获得不同视角是很好的做法。Bing AI擅长网络搜索。GPT-4比GPT-3.5智能得多(就像90分学生比10分学生一样),但目前获取更加困难.
关于参考资料 - 这是LLM特别薄弱的一个方面。有时LLM给出的参考资料确实存在,有时则并不存在。然而,这些虚假的参考资料并非完全无用。根据我的经验,虚假参考资料中的词语通常与该领域的真实术语和研究人员有关。因此,谷歌搜索这些术语通常可以让你更接近所需的信息。
保 持 适 度 期 望
虽然LLMs可以提高工作效率,但不应期望过高,特别是在需要精确验证的学术工作中。
有很多不现实的说法,LLM可以使我们的生产力提高10倍或100倍。根据我的经验,除非不需要双重检查任何工作,否则这种加速效果难以实现,而作为一名专业人士,不负责任地这样做是不可取的。
通过这些策略,我们可以更高效地将LLMs融入我们的工作流程中 最后祝大家拥有适合自己的AI小助手!
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。