Ollama部署本地大模型

ollama run gemma:2b "菊花为什么是红色的?" 

如今 LLM 早已不再等同于昂贵的 GPU,而是可以在大部分消费级计算机上运行推理的应用了——俗称本地大模型。

Ollama 安装十分简单,macOS 直接在官网下载安装包打开运行;Window 尚未提供安装包,官方推荐在 WSL 2 中以 Linux 方式用命令安装:

% curl https://ollama.ai/install.sh | sh

当你运行 ollama --version 命令成功查询到版本时,表示 Ollama 的安装已经顺利完成,接下来便可以用 pull 命令从在线模型库下载模型来玩了。

以中文微调过的 Llama2-Chinese 7B 模型为例,下述命令会下载接近 4GB 的 4-bit 量化模型文件,需要至少 8GB 的内存进行推理,推荐配备 16GB 以流畅运行。

% ollama pull llama2-chinese

以自定义系统提示词并修改推理温度参数为例,应构建如下格式的 ModelFile:

FROM llama2-chinese:13bSYSTEM "以海盗的口吻作答。"
PARAMETER temperature 0.1

然后使用 create 命令进行创建,新的模型会沿用原有模型的权重文件和未作调整的选项参数:

ollama create llama2-chinese-pirate -f ~/path/to/ModelFile

启动服务:执行ollama serve,会在本地的11434端口启动一个服务

Ollama本地部署Gemma模型

Ollama 是一个简明易用的本地大模型运行框架
GitHub地址

linux安装
curl https://ollama.ai/install.sh | sh
运行gemma模型

低配置用2b版本

ollama run gemma:2b

高配置用7b版本

ollama run gemma:7b

目前就可以直接用命令行来和gemma对话了

使用chatbot搭建一个webui来访问ollama接口

chatbot Github地址
docker安装

docker run -p 3000:3000 ghcr.io/ivanfioravanti/chatbot-ollama:main

打开浏览器访问 ip:3000

在Linux上设置环境变量

如果Ollama作为systemd服务运行,应该使用systemctl设置环境变量:

  • 1.

    通过调用systemctl edit ollama.service编辑systemd服务。这将打开一个编辑器。

  • 2.

    对于每个环境变量,在[Service]部分下添加一行Environment

    [Service]

    Environment="OLLAMA_HOST=0.0.0.0"

  • 3.

    保存并退出。

  • 4.

    重载systemd并重启Ollama:

    systemctl daemon-reload

    systemctl restart ollama

Technology技术分享

  1. # 下载模型
  2. ollama run llama2
  3. # 查看进程
  4. ps -ef |grep ollama
  5. # 查看对外暴露的端口
  6. lsof -i :11434

docker 启动ollama

Docker本地部署GPT 聊天机器人并实现远程访问 - cpolar 极点云官网

1. 使用 Ollama Docker 镜像:

官方 Ollama 库在 Docker Hub 上提供各种 LLM 模型的 Docker 镜像。
您可以拉取这些镜像并在容器中运行它们,而无需在您的主机系统上安装 Ollama。
这是一种快速测试和运行不同模型的便捷方式,无需担心依赖项。
例如,要运行 Llama 2 模型,您可以使用以下命令:
docker exec -it ollama ollama run llama2
 


Docker部署,解决无法0.0.0.0启动服务的问题

CPU:
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
通过Docker调试大模型
docker exec -it ollama ollama run llama2
通过API实现调用 逐字回复内容curl -X POST http://ip:11434/api/generate -d '{"model": "llama2","prompt":"hello"}'
通过API实现调用 答复完一起取到结果curl http://192.168.197.200:11434/api/generate -d '{"model": "llama2","prompt": "1+1=?","raw": true,"stream": false
}'

例如,要安装 TinyLlaama(一个参数超过 1 TB 的模型),我们使用以下命令:

ollama run tinyllama

命令删除模型:
ollama rm nombre_del modelo

您可以通过以下方式查看有关每个已安装型号的信息:
ollama show

Ollama 一条命令在本地跑 Llama2等各种模型,支持手机端部署

AIGC 实战:如何使用 Docker 在 Ollama 上离线运行大模型(LLM)-CSDN博客

接入 Ollama 部署的本地模型 - Dify

https://www.nodeseek.com/post-73518-1

GitHub - ollama/ollama: Get up and running with Llama 2, Mistral, Gemma, and other large language models.

利用Ollama在本地快速部署gemma - 知乎

用 Ollama 轻松玩转本地大模型 - 少数派

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/752826.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

华为汽车业务迎关键节点,长安深蓝加入HI模式,车BU预计今年扭亏

‍编辑 |HiEV 一年之前,同样是在电动汽车百人会的论坛上,余承东在外界对于华为和AITO的质疑声中,第一次公开阐释了华为选择走智选车模式的逻辑。 一年之后,伴随问界M7改款、问界M9上市,华为智选车模式的面貌已经发生了…

【Maven篇】解锁 Maven 的智慧:依赖冲突纷争下的版本调停者

缘起 软件开发世界是一个充满无限可能的领域,但同时也伴随着诸多挑战。其中之一,就是依赖冲突的问题。在这篇文章中,我们将揭开 Maven 这位“版本调停者”的神秘面纱,深入探讨如何在版本纠纷的盛宴中解决依赖问题。 Maven&#…

集成学习bagging与boosting

集成学习是机器学习中的一种策略,旨在结合多个学习器的预测结果,以提高总体性能,减少过拟合,增强模型的泛化能力。Boosting和Bagging是集成学习中两种非常著名的方法,它们虽然共享集成多个学习器以达到更好性能的共同目…

《建造者模式(极简c++)》

本文章属于专栏《设计模式(极简c版)》 继续上一篇《工厂模式(极简c)》。本章简要说明建造者模式。本文分为模式说明、本质思想、实践建议、代码示例四个部分。 模式说明: 方案:不同场景对类的构建有不同需…

python内置函数 L

python内置函数 L Python 解释器内置了很多函数和类型,任何时候都能使用。 L 名称描述len返回对象的长度。list返回一个新列表。locals返回一个字典,表示当前局部符号表。 len(s) 返回对象的长度(元素个数)。实参可以是序列&…

什么是docker(docker客户端、镜像、容器、仓库)

一、docker Docker 是一个开源的容器化平台,它可以让开发者打包应用程序及其依赖项成为一个轻量级、可移植的容器,然后在任何环境中运行。Docker 容器将应用程序及其依赖项打包到一个标准化单元中,包括代码、运行时环境、系统工具、系统库等…

RDP爆破

工具:超级弱口令检查工具 第一步:双击打开工具 第二步:导入账号 第三步:导入密码 第三步:线程 线程默认是50,如果担心影响业务可以修改为5 第四步:填写目标 第五步:选择需要检查的…

前端入职配置新电脑!!!

前端岗位入职第一天到底应该做些什么呢?又该怎样高效的认识、融入团队?并快速进入工作状态呢?这篇文章就来分享一下,希望对即将走向或初入前端职场的你,能够有所帮助。内含大量链接,欢迎点赞收藏&#xff0…

feigni请求添加拦截器

FeignClient 的 configuration 属性: Feign 注解 FeignClient 的 configuration 属性,可以对 feign 的请求进行配置。 包括配置Feign的Encoder、Decoder、 Interceptor 等。 feign 请求添加拦截器,也可以通过这个 configuration 属性 来指…

jenkins使用公共库问题

Jenkins解决上编译解决引用问题 本地运行 把公共库创建链接到指定项目目录下即可 mklink /d /j D:\codepath\xxxx\yyyyy\tool_base D:\codepath\tool_base

香港公司变更注册地址所需材料及流程全解析

香港公司变更注册地址:所需材料及流程全解析 各位老板好,我是经典世纪胡云帅,随着业务的拓展和发展,香港公司可能需要变更其注册地址。变更注册地址不仅关系到公司的日常运营,还与公司的法律地位和品牌形象息息相关。本…

python--剑指offer--题目目录-学习计划

第一天 09. 用两个栈实现队列30. 包含min函数的栈 第二天 06. 从尾到头打印链表24. 反转链表35. 复杂链表的复制 第三天 05. 替换空格58 - II. 左旋转字符串 第四天 03. 数组中重复的数字53 - I. 在排序数组中查找数字 I53 - II. 0~n-1中缺失的数字 第五天 04.…

git--协同开发

目录 1.本地常用命令 2.云端部署 1.本地常用命令 git init 初始化仓库 git status 显示当前工作区是否有未提交代码 git add (文件名) 提交文件到暂存区 git commit -m "提交说明" 提交文件到本地仓库 git log 显示当前分支上的日志记录 git reflog 显…

JS08-DOM节点

DOM节点 查找节点 父节点 通过.parentNode属性可以获得某个元素的父节点&#xff0c;并对其进行操作。例如&#xff0c;隐藏.son元素的父节点。 <div class"father"><div class"son">儿子</div></div><script>let son d…

cesium HeadingPitchRoll HeadingPitchRange

一、HeadingPitchRoll表示Heading、Pitch、Roll&#xff0c;用于orientation属性上的&#xff0c;比如camera的setView&#xff0c;flyTo var heading Cesium.Math.toRadians(0.0);var pitch Cesium.Math.toRadians(-25.0);var roll Cesium.Math.toRadians(0);viewer.camera…

PyTorch学习笔记之基础函数篇(六)

文章目录 4 运算函数基本数学运算线性代数运算随机数生成统计运算张量操作 4 运算函数 PyTorch 提供了丰富的运算函数&#xff0c;用于进行各种数学和矩阵操作。这些函数可以分为几个主要类别&#xff0c;包括基本数学运算、线性代数运算、随机数生成、统计运算、张量操作等。…

餐饮店引流活动方案与最佳营销方案揭秘

想开实体店或正在创业的朋友们&#xff0c;大家好&#xff01;我是一名资深的实体店创业者&#xff0c;本人经营鲜奶吧5年时间&#xff0c;做的是社区店&#xff0c;今天我将分享一些餐饮店引流活动和营销方案的干货&#xff0c;希望能给大家带来一些启发和帮助。 一、引流活动…

昆山劳务外包找邦芒人力 助力企业节约成本提升效率

劳务外包&#xff0c;对于企业而言&#xff0c;其优势不仅显著&#xff0c;且影响深远。在竞争日益激烈的市场环境中&#xff0c;将技术性和事务性的工作外包给专业机构&#xff0c;已成为众多企业的明智决策。通过外包&#xff0c;企业得以释放管理者的精力&#xff0c;使其更…

基于多尺度视网膜增强图像去雾算法(MSR,Multi-Scale Retinex),Matalb实现

博主简介&#xff1a; 专注、专一于Matlab图像处理学习、交流&#xff0c;matlab图像代码/项目合作可以联系&#xff08;QQ:3249726188&#xff09; 个人主页&#xff1a;Matlab_ImagePro-CSDN博客 原则&#xff1a;代码均由本人编写完成&#xff0c;非中介&#xff0c;提供有偿…

【Flink SQL】Flink SQL 基础概念(四):SQL 的时间属性

《Flink SQL 基础概念》系列&#xff0c;共包含以下 5 篇文章&#xff1a; Flink SQL 基础概念&#xff08;一&#xff09;&#xff1a;SQL & Table 运行环境、基本概念及常用 APIFlink SQL 基础概念&#xff08;二&#xff09;&#xff1a;数据类型Flink SQL 基础概念&am…