在当前高速发展的人工智能领域,如何高效的部署和优化 SLM (小型的大模型) 成为关键。随着微软 Phi-3 系列模型的发布,让 SLM 在 NVIDIA Jetson 边缘计算平台上的部署成为可能。同时 Phi-3 系列模型已在 NVIDIA NIM 平台提供加速的推理服务。
NVIDIA NIM 是一套用于部署 AI 模型的推理微服务,是一套易于使用的预构建容器工具。帮助企业客户加速在云、数据中心和工作站中部署生成式 AI 模型。让各类生成式 AI 模型的使用更为便捷和高效,为 AI 技术带来了新的突破和无限可能。
通过参加本次在线研讨会,您将了解到如何利用这些先进的模型和平台实现生成式 AI 的最佳实践,推动您的 AI 项目更上一层楼。
活动时间
2024 年 6 月 25 日(星期二)20:00 - 21:00
活动报名
扫描下方二维码报名本次在线研讨会
内容安排
主题一:Phi-3 SLM 在 Jetson 边缘计算设备上的部署
-
Phi-3 系列模型介绍
-
Phi-3 与 Ollma 的结合使用
-
Phi-3 模型在 Jetson 边缘计算设备上的部署实战
主题二:Phi-3 SLM + NIM 实现对话式 AI 场景中的应用
-
NVIDIA NIM 介绍
-
基于NIM 使用 Phi-3 对话模型的方法
-
代码实践:Langchain 结合 NIM 实现 Phi-3 对话模型的推理
主题三:Phi-3 - Vision 在 NIM 平台上实现多模态应用
-
Phi-3 - Vision 简介
-
Phi-3 - Vision 基于 NIM 的调用方式
-
代码实践:基于 NIM 接口实现 Phi-3 - Vision 的推理实战
演讲嘉宾
卢建晖(Kinfey Lo)
微软高级云技术布道师
专注在人工智能及大数据领域,具备 15 年以上的电信,教育,金融服务行业经验。是微软 Build / Ignite / Teched 大会讲师,GitHub Copilot Workshop 讲师,Qcon 讲师,现负责生成式人工智能应用架构及 Microsoft Phi-3 小模型在行业中的应用落地工作。
李奕澎
NVIDIA 企业开发者社区经理
拥有多年数据分析建模、人工智能自然语言处理开发经验。在自动语音识别、自然语言处理、语音合成等对话式 AI 技术领域有丰富的实战经验与见解。曾开发法律、金融、保险文档中基于实体抽取的智能问答系统,曾开发基于 NLP 知识抽取,KG 知识图谱的建立的科研文档智能检索系统。
何琨
NVIDIA 企业开发者社区高级经理
拥有多年的 GPU 和人工智能开发经验。自 2017 年加入 NVIDIA 开发者社区以来,完成过上百场培训,帮助上万个开发者了解人工智能和 GPU 编程开发。在计算机视觉,高性能计算领域完成过多个独立项目。并且,在机器人和无人机领域,有过丰富的研发经验。对于图像识别,目标的检测与跟踪完成过多种解决方案。