目录
探索
最小的AI模型
发现
其他轻量级模型
用 Ollama 轻松玩转本地大模型
本地大模型
Ollama
快速上手
安装
手动安装
下载ollama二进制文件
添加 Ollama 作为启动服务(推荐)
安装 CUDA 驱动程序(可选 - 适用于 Nvidia GPU)
安装 ROCm(可选 - 对于 Radeon GPU)
开始
下载模型
Web工具
推荐模型
图片支持
自定义系统提示词
更多选项
结语
探索
最小的AI模型
发现
其实最近受限于个人电脑配置和工作经历,对AI的探索几乎停滞了下来,直到今天无意中看到了这个
本来以为是个噱头,大家都知道模型越大,参数越多,性能就更好,同样的对硬件的要求就越高,只是看热闹似的搜索了下
Phi-3 Mini模型:这是一款专为手机和其他移动设备设计的轻量级语言模型。它能在手机上本地运行,提供高级语言处理功能,如个性化智能助理、实时语言翻译以及增强现实交互等
性能逼近GPT3.5ÿ