本次主要分享DeepSeek从技术原理到使用技巧内容,这里展示一些基本内容,后面附上详细PDF下载链接。
DeepSeek基本介绍
DeepSeek公司和模型的基本简介,以及DeepSeek高性能低成本获得业界的高度认可的原因。
DeepSeek技术路线解析
-
DeepSeek V3和R1模型前馈神经网络均采用混合专家( MoE )架构。每个MoE层包含1个共享专家和256个路由专家组成,在运行时每个词元(token)只激活8个路由专家。
-
MLA 的核心是对注意力键和值进行低秩联合压缩,减少推理过程中的 a 键值缓存(KV cache),从而降低推理时的内存占用。
-
多词元预测训练(MTP)是指,在训练过程中,模型不仅预测下一个词元,同时预测多个未来的词元。这种方法通过在共享模型主干上增加多个
独立的输出头来实现,并且不增加训练时间和内存消耗。
-
FP8混合精度训练,DeepSeek采用了混合精度框架,使用细粒度量化策略、低精度优化器状态等方法以实现增强精度、低精度存储和通信,同时DeepSeek向硬件厂商也提出了硬件设计的相关建议。
-
DeepSeek提出组相对策略优化( GRPO ),对PPO改良,提高计算效率,降低内存占用。
DeepSeek的调用与部署
-
云端调用,介绍了各大平台,以及调用的成本。
-
目前本地部署的成本以及一些可提供部署DeepSeek一体机的厂家汇总。
如何使用DeepSeek
主要有两种使用范式:独立使用和工具组合使用
开源模型将推动 AI 应用生态的加速繁荣,大幅降低传统企业与创业者接入 AI 的成本与门槛。AI 技术深入演进,推理模型或将成为主流形态。
完整PDF获取方式:
DeepSeek完全实用手册V1.0 - 至顶AI实验室.pdf
链接: https://pan.baidu.com/s/1mDZrGPX88JjF9WsMAx0sjQ?pwd=aiai
提取码: aiai
本文转自码客人生:https://mp.weixin.qq.com/s/1TIkH-ssgtMTDgd-EHJ5bA