网站建设后运维合同/常德seo公司

网站建设后运维合同,常德seo公司,用dw怎么做酷炫的网站,react做的网站有哪些回顾 书接上篇:各种方式搭建了本地知识库: AI入门:AI模型管家婆ollama的安装和使用-CSDN博客 AI入门2:本地AI部署,用ollama部署deepseek(私有化部署)-CSDN博客 AI入门3:给本地d…

回顾 

书接上篇:各种方式搭建了本地知识库:

AI入门:AI模型管家婆ollama的安装和使用-CSDN博客

AI入门2:本地AI部署,用ollama部署deepseek(私有化部署)-CSDN博客

AI入门3:给本地deepseek设置网页访问方式(UI插件Page Assist 安装)_deepseek本地部署网页访问-CSDN博客

  AI入门4:基于Ollama+DeepSeek,用Page Assist搭建本地知识库-CSDN博客 

AI入门5:基于Ollama+DeepSeek,用AnythingLLM搭建本地知识库-CSDN博客

AI入门6:基于Ollama+DeepSeek,用RAGFlow搭建本地知识库_ragflow ports not available-CSDN博客

本节目标

使用vsCode开发环境,用python来调用本地deepseek。是的,我们要进入程序控制大模型了,有点高级感了,娃哈哈~

准备工作

 必做:

1、本地ollama安装,及deepseek部署,参考前面文档:AI入门1、AI入门2

2、vscode环境,安装python,参考之前的文档

【菜鸟飞】用vsCode搭建python运行环境-CSDN博客

 选读文章:

【菜鸟飞】Conda安装部署与vscode的结合使用-CSDN博客

其他选读文档,通过python访问公网模型,就是通过注册tocken访问:

【菜鸟飞】通过vsCode用python访问deepseek-r1等模型-CSDN博客

 vs运行环境设置

1、确认ollama启动,及安装了deepseek等模型,通过浏览器访问ollama地址验证:http://localhost:11434/

2、打开vsCode,准备一个全新的环境,我用的是python3.12.9,具体运行环境设置方式,在上面的参考文档里有。

第一种访问方式:OpenAI

‌OpenAI API‌提供了一系列强大的工具和接口,适用于各种自然语言处理、代码生成和图像处理任务。 

用pip方式安装 OpenAI Python 库,命令为:

pip install --upgrade openai

 执行界面如下:

​​

 执行过程如果出错,参考之前文档中的错误处理方式:

 【菜鸟飞】通过vsCode用python访问deepseek-r1等模型-CSDN博客

创建程序文件,代码如下:

from openai import OpenAIclient = OpenAI(base_url="http://localhost:11434/v1",  # Ollama默认API地址api_key="test"  # 必填字段但会被忽略,随便填写即可
)response = client.chat.completions.create(model="deepseek-r1:1.5b",  # 替换为已下载的模型名称messages=[{"role": "system", "content": "你是一个有帮助的助手"},{"role": "user", "content": "用50字解释量子计算"}],temperature=0.7,max_tokens=1024
)print(response.choices[0].message.content)

其中,替换如下信息为你自己的:

base_url:换成你自己ollama的地址,地址后面的“/v1”不能去掉,这是ollama的API地址

model:你自己本地安装的模型,可以在终端通过命令“ollama list ”查看:

messages:是要提问的角色和内容

执行界面如下:

第二种方式:requests

requests 是 Python 中一个简单易用的 HTTP 请求库,用于向网络服务器或 API 发送 HTTP 请求(如 GET、POST、PUT、DELETE 等),并处理响应数据。它简化了与 Web 服务交互的流程,广泛应用于数据爬取、API 调用、自动化测试等场景。

 可见,其实就是用通用的网络访问方式,来访问ollama,返回响应信息,创建程序文件,代码如下:

import requests# Ollama 服务器的 URL
#url = "http://localhost:11434/v1/chat/completions"  #ok
url="http://localhost:11434/api/chat"       '''
直接访问API端点(1)模型列表:GET http://localhost:11434/api/tags(2)生成文本:POST http://localhost:11434/api/generate(3)对话交互:POST http://localhost:11434/api/chat(4)拉取模型:POST http://localhost:11434/api/pull''' 
# 设置你的请求头(通常需要设置 Content-Type)
headers = {"Content-Type": "application/json"
}# 构建请求体,例如,你想让模型生成一些文本
data = {"messages": [{'role': 'user', 'content': '你是谁?'}],"model": "deepseek-r1:1.5b",  # 你想要使用的模型,例如 Mistral-7B-Instruct-v0.1"stream": False,"temperature": 0.01,  # 控制随机性,可选参数"max_tokens": 256  # 生成的最大 token 数,可选参数
}# 发送 POST 请求
response = requests.post(url, json=data, headers=headers)# 检查响应状态码
if response.status_code == 200:# 解析响应内容result = response.json()#print(result)print("Generated Text:", result.get("message").get("content"))  # 打印生成的文本
else:print("Error:", response.status_code, response.text)

如果提示request找不到,则通过下面命令进行安装

pip install requests

 执行界面:

方式三:ollama API

Ollama 是一个本地化的机器学习框架,专注于模型加载、推理和生成任务。它提供了强大的 API 接口,允许开发者通过 HTTP 请求与模型进行交互,实现文本生成、对话管理等功能。

首先需要安装ollama包,执行下面命令:

pip install ollama

 如果这过程出错,请参考之前发布的文档:

【菜鸟飞】在vsCode中安装python的ollama包出错的问题-CSDN博客

安装好包,创建程序文件,我测试,有两种调用方式,/api/chat 和 /api/generate : 

  • /api/generate

用途: 这个端点主要用于生成单个文本片段。它接收输入并返回基于该输入的模型生成的文本,通常不考虑之前的消息历史或对话上下文。

功能: 它可以用于各种生成任务,如文章创作、代码生成、故事编写等,其中每次请求都是独立的,不依赖于前一次请求的结果。 

  • /api/chat

用途: 这个端点用于支持对话式的交互。它通常需要一个消息列表作为输入,以维护对话的历史和上下文,确保模型能够理解并响应连续的对话。

功能: 它适合于创建聊天机器人、问答系统或任何需要多轮对话的应用场景。通过跟踪对话历史,模型可以提供更加连贯和情境相关的响应。

 总结而言,/api/generate 更适合一次性生成任务,而 /api/chat 更适合需要持续对话和上下文记忆的任务。

generate方式: 

generate方式,代码如下:

import ollamaclient = ollama.Client(host='http://localhost:11434')
print('----------')
models = client.list()
print('Available models:', models)print('----------')
response = client.generate(
model="deepseek-r1:1.5b", # 指定模型名称
prompt='你是谁'
)
print(response['response'])

执行界面:

错误参考:

我通过网络学习,别人的代码是这样,不用指定ollama地址,用默认地址直接访问,但我执行总是报服务器找不到的错误:

    raise ConnectionError(CONNECTION_ERROR_MESSAGE) from None
ConnectionError: Failed to connect to Ollama. Please check that Ollama is downloaded, running and accessible. https://ollama.com/download

检查了ollama的访问环境变量,和防火墙,多没解决,下面界面供参考,大家可以自己试一下:

chat方式:

chat访问,代码如下:

from ollama import Clientclient = Client(host='http://localhost:11434',headers={'x-some-header': 'some-value'}
)stream = client.chat(model='deepseek-r1:1.5b',messages=[{'role': 'user', 'content': '你是谁?'}],#stream=False,stream=True,
)#print(stream)
'''
print('--------stream=False-----') 
print(stream['message']['content'])
print('-------stream=False------')
'''
print('-------stream=true------')
for chunk in stream:print(chunk['message']['content'], end='', flush=True)
print('-------stream=true------\n')

上面打印是,stream不同方式,对应的不同打印方式,执行界面参考:

错误参考

和上面类似,大家可以测试一下直接用chat取代,client.chat试一下。

其他:

【vs插件】vsCode环境下,调试ollama的工具allama_gui-CSDN博客

参考文档

  • OpenAI参考文档

介绍 | Open API中文文档

  • ollama的AIP参考文档

Ollama 简介 | 菜鸟教程

官方文档:ollama/docs/api.md at main · ollama/ollama · GitHub

国内镜像文档:ollama/docs/api.md at main · ollama/ollama · GitHub

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/72837.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

内网安全-横向移动Kerberos 攻击SPN 扫描WinRMWinRSRDP

1.WinRM&WinRS 条件: 双方开启winrm winrs服务 2008版本以上默认开启,win 7默认关闭 检测使用cs内置端口扫描5985开放情况 进行连接 winrs -r:http://192.168.93.30:5985 -u:administrator -p:Whoami2021 whoami 2.内网-spn shell setspn -T …

YZi Labs 谈对 Plume 的投资:利用区块链创造现实价值的典范项目

3 月 17 日,YZi Labs 宣布投资 RWAfi 赛道项目 Plume,引发市场广泛关注。本轮融资是 Plume 在 去年 5 月和 12 月 连续两轮融资后的第三轮融资,代表着市场资本市场对于 Plume RWAfi 叙事以及其发展潜力的高度认可。 本次融资不仅提升了市场对…

互功率谱 cpsd

互功率谱(Cross-Power Spectral Density, CPSD)是信号处理中用于描述两个信号在频域中相关性的工具。它表示两个信号在不同频率下的功率分布及其相位关系,广泛应用于模态分析、系统辨识和信号匹配等领域。 matlab 实现 MATLAB 提供了 cpsd 函数来计算互功率谱。以下是使用 …

RocketMQ 架构

一、RocketMQ 核心架构概述 ​1. 主要组件 ​Name Server: 集群的「中枢神经」,负责 Topic 元数据管理(如 Topic 分区分布、Broker 节点状态监控)。 ​Broker: 消息存储与流转的核心节点,负责消息的持久化…

单片机学完开发板,如何继续提升自己的技能?

很多人学完开发板后都会卡在一个尴尬的阶段:觉得自己会的东西不少,但又不知道下一步该干啥。会点C语言,能烧录程序,能点亮LED,玩转按键,搞定串口等等,能用开发板做点小玩意儿,但面对…

olmOCR大模型:支持结构化精准提取复杂PDF文件内容

基于streamlit与olmOCR大模型实现的pdf提取工具 import os import json import subprocess import pandas as pd from pathlib import Path import shutil import time import re import streamlit as st# 创建工作目录 WORKSPACE_DIR "olmocr_workspace" os.maked…

五模型对比!Transformer-GRU、Transformer、CNN-GRU、GRU、CNN五模型多变量时间序列预测

目录 预测效果基本介绍程序设计参考资料 预测效果 基本介绍 光伏功率预测!五模型对比!Transformer-GRU、Transformer、CNN-GRU、GRU、CNN五模型多变量时间序列预测(Matlab2023b 多输入单输出) 1.程序已经调试好,替换数据集后,仅运…

SQLMesh 系列教程:Airbnb数据分析项目实战

在本文中,我们将探讨如何利用dbt项目的代码库来实现一个简单的SQLMesh项目。本文的基础是基于Udemy讲师为dbt课程创建的示例项目,可以在这个GitHub repo中获得。这个dbt项目是相对完整的示例,我们将使用它作为模板来演示SQLMesh(下…

单片机写的小液晶屏驱动+汉字滚屏

单片机写的小液晶屏驱动汉字滚屏 stm32f401freertos内置HZK16 单片机汉字滚屏

【Golang那些事】go1.22和1.23 更新重点及测评

好久没有写文章了,攒了一年的Golang版本特性的技术点以及踩过的坑,那就在新年第一篇的文章中做一个总结吧: 一、关于迭代器 (一)迭代器去掉了共享共享内存 一个经典的面试题 说到Golang经典的面试题,大家可能都刷到过很多&…

【大模型实战篇】使用GPTQ量化QwQ-32B微调后的推理模型

1. 量化背景 之所以做量化,就是希望在现有的硬件条件下,提升性能。量化能将模型权重从高精度(如FP32)转换为低精度(如INT8/FP16),内存占用可减少50%~75%。低精度运算(如INT8&#xf…

【MySQL】架构

MySQL架构 和其它数据库相比,MySQL有点与众不同,它的架构可以在多种不同场景中应用并发挥良好作用。主要体现在存储引擎的架构上,插件式的存储引擎架构将查询处理和其它的系统任务以及数据的存储提取相分离。这种架构可以根据业务的需求和实…

国内首台太空采矿机器人亮相,宇宙资源开发迈入新阶段

随着地球资源的日益枯竭,人类将目光投向了浩瀚的宇宙。太空采矿作为一项前沿科技,正逐步从科幻走向现实。近日,中国矿业大学成功研制出国内首台太空采矿机器人,标志着我国在太空资源开发领域迈出了重要一步。 太空采矿并非新鲜概念…

Kubeasz工具快速部署K8Sv1.27版本集群(二进制方式)

文章目录 一、基本信息二、服务器初始化操作三、使用Kubeasz部署K8S集群四、验证集群 一、基本信息 1、部署需要满足前提条件: 注意1:确保各节点时区设置一致、时间同步;注意2:确保在干净的系统上开始安装;注意3&…

Java 文件和IO流基础(生动形象版)

系列文章目录 Java文件和IO流基础部分 文件VSIO流 文章目录 系列文章目录前言一、文件的定义和理解: 1.专业定义: 2.文件系统和路径: 二、IO流的定义和分类 1.定义:2.流的分类:修饰器模式的核心作用:基础结…

Linux驱动学习笔记(四)

高级字符设备进阶 1.一个完整的IO过程包含以下几个步骤:1应用程序向操作系统发起IO调用请求(系统调用);2操作系统准备数据,把IO设备的数据加载到内核缓冲区;3操作系统拷贝数据,把内核缓冲区的数据从内核空间拷贝到应用…

2025年,电脑还需要分区吗?

随着2025年的到来,电脑存储空间已经不像以前那么金贵,固态硬盘(SSD)容量更大、速度更快,云存储也成了日常标配。许多人开始质疑:电脑还需要像以前那样分区吗? 一、分区到底是什么意思&#xff…

Springboot项目集成maven-assembly-plugin进行打包

通常我们将应用部署到服务器的某个目录下,一般情况下我们会提供像target(存放应用jar包),bin(项目启动/停止脚本),config(项目配置文件),logs(项目…

鸿蒙NEXT项目实战-百得知识库01

代码仓地址,大家记得点个star IbestKnowTeach: 百得知识库基于鸿蒙NEXT稳定版实现的一款企业级开发项目案例。 本案例涉及到多个鸿蒙相关技术知识点: 1、布局 2、配置文件 3、组件的封装和使用 4、路由的使用 5、请求响应拦截器的封装 6、位置服务 7、三…

【DeepSeek应用】本地部署deepseek模型后,如何在vscode中调用该模型进行代码撰写,检视和优化?

若已成功在本地部署了 DeepSeek 模型(例如通过 vscode-llm、ollama 或私有 API 服务),在 VS Code 中调用本地模型进行代码撰写、检视和优化的完整流程如下: 1. 准备工作:确认本地模型服务状态 模型服务类型: 若使用 HTTP API 服务(如 FastAPI/Flask 封装),假设服务地址…