windows部署ollama+maxkb+vscode插件continue打造本地AI

windows部署ollama+maxkb+vscode插件continue打造本地AI

  • 前言
    • 下载
        • ollama
        • docker desktop
        • vscode插件continue
    • 安装
      • 安装ollama
        • 设置环境变量
    • 安装docker desktop
      • 部署maxkb容器
    • 安装vscode插件
    • 模型搜索和推荐

前言

我采用docker运行maxkb,本地运行ollama形式。可能是windows N卡的驱动优化比较好,这样子使用好像更流畅。

我的机器是内存32G,显卡4060 8G,实测跑10G左右的模型可以流畅,16G的模型一分钟就蹦出几个字。

下载

ollama

Download Ollama on Windows

docker desktop

Install Docker Desktop on Windows | Docker Docs

vscode插件continue

Continue - Llama 3, GPT-4, and more - Visual Studio Marketplace

安装

安装ollama

正常安装就行

设置环境变量
OLLAMA_HOST         The host:port to bind to (default "127.0.0.1:11434")
OLLAMA_ORIGINS      A comma separated list of allowed origins
OLLAMA_MODELS       The path to the models directory (default "~/.ollama/models")
OLLAMA_KEEP_ALIVE   The duration that models stay loaded in memory (default "5m")
OLLAMA_DEBUG        Set to 1 to enable additional debug logging

模型一般比较大,所以我一般设置OLLAMA_MODELS变量为其他目录,这样就可以不保存到C盘。

默认ollama只监听本地,如果想让其他人也可以访问,设置环境变量OLLAMA_HOST 为0.0.0.0:11434即可。

注意,修改完变量后,需要重启ollama才会生效。

部署完成后浏览器输入,localhost:11434

应该会看到,“Ollama is running”字样。

安装docker desktop

正常安装即可

部署maxkb容器

打开CMD输入下面命令即可。

docker run -d --name=maxkb -p 80:8080 --add-host host.docker.internal:host-gateway  --restart=always -v D:\AI\maxkb:/var/lib/postgresql/data 1panel/maxkb# 用户名: admin
# 密码: MaxKB@123..

我把数据存储到D:\AI\maxkb目录中,容器通过host.docker.internal伪域名访问宿主机,host.docker.internal等价于宿主机的localhost。

输入http://localhost/即可进入maxkb站点。

模型设置注意事项,API 域名填写“http://host.docker.internal:11434”,APIkey随便写。

模型设置

安装vscode插件

正常安装continue插件即可,

安装之后配置如下。

{"models": [{"title": "Llama 3","provider": "ollama","model": "llama3","apiBase": "http://localhost:11434"},{"title": "codellama","provider": "ollama","model": "codellama:13b","apiBase": "http://localhost:11434"},{"title": "openchat","provider": "ollama","model": "openchat","apiBase": "http://localhost:11434"},{"title": "phi3","provider": "ollama","model": "phi3:14b","apiBase": "http://localhost:11434"},{"title": "gemma","provider": "ollama","model": "gemma:7b","apiBase": "http://localhost:11434"},{"title": "codeqwen","provider": "ollama","model": "codeqwen","apiBase": "http://localhost:11434"},{"title": "mistral","provider": "ollama","model": "mistral","apiBase": "http://localhost:11434"},{"title": "codegemma","provider": "ollama","model": "codegemma:7b","apiBase": "http://localhost:11434"},{"title": "qwen","provider": "ollama","model": "qwen:14b","apiBase": "http://localhost:11434"}],"customCommands": [{"name": "test","prompt": "{{{ input }}}\n\nWrite a comprehensive set of unit tests for the selected code. It should setup, run tests that check for correctness including important edge cases, and teardown. Ensure that the tests are complete and sophisticated. Give the tests just as chat output, don't edit any file.","description": "Write unit tests for highlighted code"}],"tabAutocompleteModel": {"title": "Starcoder 3b","provider": "ollama","model": "starcoder2:3b"},"allowAnonymousTelemetry": true,"embeddingsProvider": {"provider": "transformers.js"}
}

效果如下:
模型效果
continue插件的使用,参考下面教程。
https://docs.continue.dev/how-to-use-continue#easily-understand-code-sections

模型搜索和推荐

library (ollama.com)

在上面网址搜索模型然后在cmd执行ollama run xxx即可

注意,同一个模型有不同版本,注意选择。

推荐模型:

ollama list
NAME            ID              SIZE    MODIFIED
codellama:13b   9f438cb9cd58    7.4 GB  19 hours ago
openchat:latest 537a4e03b649    4.1 GB  19 hours ago
phi3:14b        1e67dff39209    7.9 GB  19 hours ago
gemma:7b        a72c7f4d0a15    5.0 GB  19 hours ago
codeqwen:latest a6f7662764bd    4.2 GB  19 hours ago
mistral:latest  2ae6f6dd7a3d    4.1 GB  19 hours ago
codegemma:7b    0c96700aaada    5.0 GB  19 hours ago
qwen:14b        80362ced6553    8.2 GB  19 hours ago
llama3:latest   365c0bd3c000    4.7 GB  22 hours ago

安装模型

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/17633.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

VPN的详细理解

VPN(Virtual Private Network,虚拟私人网络)是一种在公共网络上建立加密通道的技术,通过这种技术可以使远程用户访问公司内部网络资源时,实现安全的连接和数据传输。以下是对VPN的详细介绍: 选择代理浏览器…

如何防止锂电池反充

锂电池通常用于许多需要备用电源的设备应用中,例如实时时钟 (RTC) 和存储设备。当锂电池不是电路中的单一电源时,如果电池意外连接到可为电池充电的电源,则存在火灾或爆炸的风险。本应用笔记提供了在备用电源开关电路中连接锂电池所需的信息&…

LangChain打造一个AI客服

最近在学习LangChain,langchain的第一个入门应用就是和ChatGPT结合形成的一个AI客服,本期文章就带大家一起认识下 LangChain LangChain是现在用得最多的AI框架,langchain在帮助如基于文档数据的回答、聊天机器人和代理这类的应用程序 langch…

Vue基础(2)响应式基础

一. reactive() 在 Vue3 中&#xff0c;可以使用 reactive() 创建一个响应式对象或数组&#xff1a; <script setup> import { reactive } from vueconst state reactive({ count: 0 }) </script><template><button click"state.count">{…

npm包-fflate

fflate 是一个快速、轻量级且纯JavaScript实现的压缩库&#xff0c;用于处理gzip、zlib和Deflate格式的数据压缩与解压缩。它专注于提供高性能的压缩算法实现&#xff0c;特别适合于浏览器环境及Node.js环境中使用&#xff0c;且不依赖任何外部库。fflate的优势在于其极小的体积…

前端使用JavaScript实现一个LRU缓存

引言 LRU&#xff08;Least Recently Used&#xff09;算法是一种广泛应用于内存管理和缓存系统的策略&#xff0c;在微前端、状态管理以及性能优化等场景下&#xff0c;合理使用缓存机制能够有效提升应用性能。本文将介绍LRU算法的基本原理&#xff0c;并通过JavaScript实现案…

三、Ollama导入大模型(.Net8+SemanticKernel+Ollama)

Ollama导入大模型 一、导入Ollama大模型1、使用run命令2、使用Modelfile方式 二、导入自定义大模型&#xff08;Ollama官网以外的大模型&#xff09;三、使用OpenWebUI导入大模型 Ollama可以导入官方提供的大模型&#xff0c;也可以导入huggingface上的自定义大模型&#xff08…

详解布隆过滤器(含面试考点)

Bloom Filter 底层逻辑主要代码实现解析&#xff08;以C为例&#xff09;优缺点应用场景面试常问问题1&#xff1a;什么是布隆过滤器&#xff1f;问题2&#xff1a;布隆过滤器如何处理误报&#xff1f;问题3&#xff1a;如何设计布隆过滤器以最小化误报率&#xff1f;问题4&…

机器学习过拟合和欠拟合!看这一篇文章就够了 建议收藏!(上篇)

在机器学习中&#xff0c;有一项非常重要的概念&#xff0c;那就是&#xff1a;过拟合&#xff08;Overfitting&#xff09;和欠拟合&#xff08;Underfitting&#xff09;。 它们涉及到机器学习中常见的两种模型性能问题&#xff0c;分别表示模型在训练数据上表现得过于复杂或…

Jetpack架构组件_2. 数据绑定库

1.理论基础 数据绑定库是一个支持库&#xff0c;可让您使用声明性格式&#xff08;而不是以程序化方式&#xff09;将布局中的界面组件绑定到应用中的数据源。 布局通常使用调用界面框架方法的代码在 activity 中定义。例如&#xff0c;以下代码会调用 findViewById() 来查找 T…

zabbix自定义监控项

文章目录 1、配置conf文件(zabbix_agent2)linuxwindows 2、配置监控项3、配置触发器4、查看监控数据 示例自定义程序 hash_tool&#xff1a;输出指定目录的哈希值 调用指令&#xff1a; hash_tool --path [指定目录] 1、配置conf文件(zabbix_agent2) linux vim /etc/zabbix/z…

Mac vscode 常用相关快捷键

Command 点击 多光标插入 Shift 点击 复制选中的代码块 Command X 剪切&#xff08;未选中文本的情况下&#xff0c;剪切光标所在行&#xff09; Command C 复制&#xff08;未选中文本的情况下&#xff0c;复制光标所在行&#xff09; Command V 粘贴 Command L 选中当前…

【chisel】chisel中for (i <- 0 until N-2) {} 的用法,表示什么?

在 Chisel 中&#xff0c;for (i <- 0 until N-2) {} 是一个 for 循环的语法&#xff0c;它表示从 0 开始到 N-2 的整数&#xff08;不包括 N-2&#xff09;&#xff0c;并对每个整数 i 执行大括号 {} 内的代码块。 这里的 until 是 Scala 语言的一个关键字&#xff0c;用于…

安卓获取内部存储信息

目录 前言获取存储容量 前言 原生系统设置里的存储容量到底是怎么计算的&#xff0c;跟踪源码&#xff0c;涉及到VolumeInfo、StorageManagerVolumeProvider、PrivateStorageInfo、StorageStatsManager......等等&#xff0c;java上层没有办法使用简单的api获取到吗&#xff1f…

穿越无人机中涉及到的算法主要包括以下几种:

当涉及穿越无人机中的算法时&#xff0c;我们可以从以下几个方面进行详细分析&#xff0c;并尽量参考文章中的相关数字和信息&#xff1a; 1.捷联式惯性导航系统&#xff1a; 定义&#xff1a; 利用加速度计和陀螺仪等惯性元件&#xff0c;直接测量飞行器的角运动信息和线运动…

深入解析Python中的两种导入方法:from...import与import

新书上架~&#x1f447;全国包邮奥~ python实用小工具开发教程http://pythontoolsteach.com/3 欢迎关注我&#x1f446;&#xff0c;收藏下次不迷路┗|&#xff40;O′|┛ 嗷~~ 目录 一、引言 二、from...import与import的基本区别 1. 导入方式的不同 2. 命名空间的差异 三…

Linux基础知识点总结!超详细

Linux 的学习对于一个IT工程师的重要性是不言而喻的&#xff0c;学好它是工程师必备修养之一。 Linux 基础 操作系统 操作系统Operating System简称OS&#xff0c;是软件的一部分&#xff0c;它是硬件基础上的第一层软件&#xff0c;是硬件和其它软件沟通的桥梁。 操作系统…

软件项目管理 - 作业集合

软件项目管理 - 作业集合 作业一 1、项目与日常运作的主要区别有哪些&#xff1f; 项目&#xff1a;为提供一项独特产品、服务或成果所做的临时性努力 运作&#xff1a;连续不断周而复始的活动 项目是一次性的&#xff0c;日常运作是重复进行的&#xff1b; 项目是以目标为导…

CI/CD:持续集成/持续部署

1. 安装docker、docker-compose # 安装Docker yum install -y yum-utils device-mapper-persistent-data lvm2 yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo sed -i sdownload.docker.commirrors.aliyun.com/docker-ce /…

neo4j docker安装使用,py2neo python包使用

参考&#xff1a;https://neo4j.com/docs/operations-manual/current/docker/introduction/ 运行&#xff1a; docker run --publish7474:7474 --publish7687:7687 neo4j查看&#xff1a; http://192***ip:7474 username/password 都是 neo4j/neo4j 简单案例 创建例子&am…