01、国内的大模型超优秀
是不是听说ChatGPT的强大功能后,早就手痒了,可是受限于环境,在为无法使用而遗憾呢?
别急,我们国内的大模型也棒棒的,在中文领域已经超越了ChatGPT3.5,还是免费的,多香呀,来试试吧!
咱刚开始用,不贪多,我就介绍两个最优秀的通用大模型“选手”给你!
选手一:擅长长文,可以阅读文件和网址的,拥有最酷名字的——月之暗面KIMI!
https://kimi.moonshot.cn/(网页版)
另外,还有微信小程序版和手机APP版。
选手二:时常给我惊喜的、拥有丰富智能体的“智谱清言”选手!(“智能体”可以理解为被设定好角色的AI模型)
https://chatglm.cn/(网页版)
另外也有手机APP版。
现在,就动手试试与大模型对话吧!
问问它:“什么是大模型?”看看能得到什么回答吧!
哈哈,你得到了什么答案呢?跟我的一样吗?(不一样是很正常的!)
其实,“什么是大模型”这个问题,我们问的比较笼统,并没有明确地告诉大模型,我们想了解的是什么类型的大模型。
于是,智谱清言大胆预测我们问的就是“大语言模型”,于是给出了关于“大语言模型”的解释。
而kimi这把很严谨,它列举了常见的不同领域的模型,最后还询问了我们是否要问的人工智能领域的大模型。
可见这种笼统的问法是有风险的,可能会得到不确切的回答。
那么,我们该怎么问才能得到更好的回答呢?
接着往下看!
02、一生爱“接龙”的大模型
你在等待大模型生成答案的时候,有没有发现这样一种现象。
大模型并不是直接给出一个完整的句子和段落的,它是一个字一个字往外蹦的!区别只是蹦的速度的快慢。
最开始的时候,我在想,这大模型怎么这么慢,还要一个字一个字的往外吐,能不能干脆点,直接给我一段话!
后来我才发现,原来这是大模型工作方式呀!
我们可以简单的理解为,大模型在按照概率玩一种接龙游戏。
它首先从我们的提问中“抽取”关键词,然后给这些关键词“接话”,每次只接“一”个字。
我们的提问,和已经生成的所有的字,都是它生成下一个字的基础。
因此,大模型的回答必然是一个字一个字的蹦的!
当然,这是简易的理解,实际的原理远比这要复杂和细腻。但这种简化的描述,已经足够给我们很多启示,让我们更加理解该如何与大模型对话。
所以,我们可以得到以下结论:
- 大模型并不是理解了我们的问题后,从答案库里找到的答案。
- 大模型是抽取关键词后,以一种复杂的接龙游戏,得出的答案。
- “关键词”是按概率抽取的,接龙也是按概率抽取的,因此大模型对问题的“理解”和对答案的揭晓,均有随机性。
而通过以上的分析后,我们又可以得出以下推论:
- 在提问时,给出明确具体的关键词,非常重要。
- 大模型给出的答案是“抽盲盒”的结果。因此,对答案不满意的时候,不妨把同一个问题多问两次,看看结果有什么不同。
- 抽盲盒的准确性,很大程度上取决于大模型的训练。因此,选择一个合适的大模型非常重要。
因此,我们就知道该怎么做啦!
刚才的问题回答是不是不够满意,那么下面按照以下小窍门,再进行调整吧!
03、三个小窍门
窍门一 给大模型一个“身份”
通过上面的讨论,我们知道,给大模型一个身份,其实就是给了它一个非常贴切的关键词,让它找到合理答案的准确性大大提高。我们来试试给予大模型身份后,它的回答会有什么不同。
例如,让我们来问大模型“什么是复利效应”。
如果直接提问,它会给出一个很“学术”的很难懂的笼统回答。
但是,我如果给他一个身份,以****长期主义者*的身份来解释复利效应。他就会给出复利效应在学习等*其他领域*的意义,并且回答的更*生动易懂*,更有*交流感****啦!
告诉大模型“你是谁”,其实相当于告诉了大模型这个问题的背景,那么他也会给出更贴合你的身份需要的问答。
让我们回到“什么是大模型”这个问题,如果你告诉它“我是一个8岁的孩子”,它的回答又会有很大变化。
面对孩子,大模型也变得温柔了起来,语言也采用了孩子能够听懂的语言来回答,显得非常的友好。
窍门三:多抽几次盲盒
由于大模型生成的答案具有随机性,因此对回答不满意的时候,先不要着急,原话再问一遍就好。
比如,刚才KIMI的回答不是关于大语言模型的,我不太满意,我就点击“再试一次”。果然这一次,我就满意多了。
04、结语
以上就是,超简单,但是超好用的三个入门级小窍门啦!
简单到可以随学随用,赶紧用起来吧!
遇到什么小麻烦,不用急着找人,先来问问大模型吧!
不管是什么人,大模型都能扮演一把!
AI时代,我们不需要自己强大到去做一个大模型,我们只要会用大模型就好!
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。