个人做网站设计/搜索引擎推广是什么意思

个人做网站设计,搜索引擎推广是什么意思,wordpress 发布商品,wordpress 礼物说模板文章目录 1. 什么是 DeepSeek R1?a. 主要介绍a. 版本区别 2. 部署资源要求a. 硬件资源要求 3. 本地安装DeepSeek-R1a. 为什么选择本地部署?b. 部署工具对比c. 演示环境配置d. Ollama安装流程 4. 可视化工具a. 工具对比b. Open-WebUI部署 5. AI API应用a.…

文章目录

      • 1. 什么是 DeepSeek R1?
        • a. 主要介绍
        • a. 版本区别
      • 2. 部署资源要求
        • a. 硬件资源要求
      • 3. 本地安装DeepSeek-R1
        • a. 为什么选择本地部署?
        • b. 部署工具对比
        • c. 演示环境配置
        • d. Ollama安装流程
      • 4. 可视化工具
        • a. 工具对比
        • b. Open-WebUI部署
      • 5. AI API应用
        • a. Python SDK实战
        • c. Spring AI集成
      • 6. 小结

1. 什么是 DeepSeek R1?

a. 主要介绍

DeepSeek介绍:

  • 公司背景:DeepSeek是一家专注于通用人工智能的中国科技公司,主攻大模型研发与应用。
  • DeepSeek-R1:其开源的推理模型,擅长处理复杂任务且可免费商用,性能在数学、代码、自然语言推理等任务上与OpenAI o1正式版相当。
  • 其主要亮点包括:
    • 完全开源,可自由使用;
    • 支持本地运行,无需依赖云服务器;
    • 数据完全可控,确保隐私安全。
a. 版本区别

根据官方信息DeepSeek R1 可以看到提供多个版本,包括完整版(671B 参数)和蒸馏版(1.5B 到 70B 参数)。

  • 完整版性能强大,但需要极高的硬件配置;
  • 蒸馏版则更适合普通用户,硬件要求较低

DeepSeek-R1官方地址:https://github.com/deepseek-ai/DeepSeek-R1

  • 完整版(671B):需要至少 350GB 显存/内存,适合专业服务器部署
    在这里插入图片描述
  • 蒸馏版:基于开源模型(如 QWEN 和 LLAMA)微调,参数量从 1.5B 到 70B 不等,适合本地硬件部署。
    在这里插入图片描述

蒸馏版与完整版的区别:

维度完整版蒸馏版
参数量参数量较大(671B),性能最强。参数量较少(如 1.5B、7B),性能接近完整版但略有下降。
硬件需求至少 350GB 显存/内存,需高端硬件支持。至少 4GB 显存/内存,适合低配硬件。
适用场景适合高精度任务和专业场景。适合轻量级任务和资源有限的设备。

接下来详细看下蒸馏版模型的特点:

模型版本参数量特点
deepseek-r1:1.5b1.5B轻量级模型,适合低配硬件,性能有限但运行速度快
deepseek-r1:7b7B平衡型模型,适合大多数任务,性能较好且硬件需求适中
deepseek-r1:8b8B略高于 7B 模型,性能稍强,适合需要更高精度的场景
deepseek-r1:14b14B高性能模型,适合复杂任务(如数字推理、代码生成),硬件需求较高
deepseek-r1:32b32B专业级模型,性能强大,适合研究和高精度任务,需高端硬件支持
deepseek-r1:70b70B顶级模型,性能最强,适合大规模计算和高复杂度任务,需专业级硬件支持

进一步的模型细分还分为量化版:

模型版本参数量特点
deepseek-r1:1.5b-quen-distill-q4_K_M1.5B轻量级模型,适合低配硬件,性能有限但运行速度快,使用了4-bit量化,模型精度下降
deepseek-r1:7b-quen-distill-q4_K_M7B平衡型模型,适合大多数任务,性能较好且硬件需求适中,使用了4-bit量化,模型精度下降
deepseek-r1:8b-llana-distill-q4_K_M8B略高于7B模型,性能稍强,适合需要更高精度的场景,使用了4-bit量化,模型精度下降
deepseek-r1:14b-quen-distill-q4_K_M14B高性能模型,适合复杂任务(如数字推理、代码生成),硬件需求较高,使用了4-bit量化,模型精度下降
deepseek-r1:32b-quen-distill-q4_K_M32B专业级模型,性能强大,适合研究和高精度任务,需高端硬件支持,使用了4-bit量化,模型精度下降
deepseek-r1:76b-llana-distill-q4_K_M70B顶级模型,性能最强,适合大规模计算和高复杂度任务,需专业级硬件支持,使用了4-bit量化,模型精度下降

最后我们了解下,蒸馏版与量化版的区别:

维度特点
蒸馏版基于大模型(如 QWEN 或 LLAMA)微调,参数量减少但性能接近原版,适合低配硬件。
量化版使用 4-bit/8-bit 量化可大幅降低显存需求(如bitsandbytes[6]),适合资源有限的设备。

例如:

  • deepseek-r1:7b-qwen-distill-q4_K_M:7B 模型的蒸馏+量化版本,显存需求从 5GB 降至 3GB。
  • deepseek-r1:32b-qwen-distill-q4_K_M:32B 模型的蒸馏+量化版本,显存需求从 22GB 降至 16GB
    我们正常本地部署使用蒸馏版就可以

2. 部署资源要求

a. 硬件资源要求

不同操作系统基础环境:

  • Windows

    • 依赖 CUDA 和 NVIDIA 驱动,推荐使用 RTX 30/40 系列。
    • 大模型(14B+)需借助量化或模型分片技术。
  • macOS

    • 仅限 Apple Silicon 芯片(M1/M2/M3),依赖 Metal 加速。
    • 模型规模超过 14B 时性能显著下降,建议量化或云端部署。
  • Linux

    • 支持多 GPU 扩展和高效资源管理(如 NVIDIA Docker)。
    • 适合部署大型模型(14B+),需专业级硬件。
  • 硬件配置:
    可根据下表配置选择使用自己的模型

模型名称参数量模型大小显存/内存
deepseek-r1:1.5b1.5B1.1 GB~2 GB
deepseek-r1:7b7B4.7 GB~5 GB
deepseek-r1:8b8B4.9 GB~6 GB
deepseek-r1:14b14B9.0 GB~10 GB
deepseek-r1:32b32B20 GB~22 GB
deepseek-r1:70b70B43 GB~45 GB
deepseek-r1:1.5b-qwen-distill-q4_K_M1.5B1.1 GB~2 GB
deepseek-r1:7b-qwen-distill-q4_K_M7B4.7 GB~5 GB
deepseek-r1:8b-llama-distill-q4_K_M8B4.9 GB~6 GB
deepseek-r1:14b-qwen-distill-q4_K_M14B9.0 GB~10 GB
deepseek-r1:32b-qwen-distill-q4_K_M32B20 GB~22 GB
deepseek-r1:70b-llama-distill-q4_K_M70B43 GB~45 GB

3. 本地安装DeepSeek-R1

a. 为什么选择本地部署?

本地运行 AI 模型有以下优势:

  • 隐私保障:保证数据‘不出域’,所有数据均存储在本地,避免敏感信息泄露。
  • 零额外成本:DeepSeek R1 免费运行,无需订阅或额外费用。
  • 完全控制:可以进行微调和本地优化,无需外部依赖。
b. 部署工具对比

部署可以使用Ollama、LM Studio、KubeML 、Docker等工具进行部署。

  • Ollama:
    • 支持 Windows、Linux 和 Mac 系统,提供命令行和 Docker 部署方式,安装只能默认到C盘
    • 使用命令 ollama run deepseek-r1:7b 下载并运行模型
    • 本地大模型管理框架,Ollama 让用户能够在本地环境中高效地部署和使用语言模型,而无需依赖云服务。
  • LM Studio:
    • 支持 Windows 和 Mac,提供可视化界面,适合新手用户
    • 部署方式:桌面应用程序(GUI)
    • 核心功能:零配置可视化界面,支持直接加载 HuggingFace 模型库、CPU+GPU 混合推理优化,适配低配硬件(如消费级显卡)、本地模型实验沙盒,无服务化部署能力。
  • Docker:
    • 支持系统:Linux、Windows(需 Docker Desktop)。
    • 部署方式:容器化部署(单机)
    • 使用命令 docker run -d --gpus=all -p 11434:11434 --name ollama ollama/ollama 启动容器。
    • 核心功能:环境隔离性强,依赖项封装为镜像,需配合 Docker Compose/Swarm 实现多机编排。
  • KubeML:
    • 支持系统:依赖 Kubernetes 集群(跨平台)
    • 部署方式:Kubernetes 原生扩展
    • 生产级特性:基于 Kubernetes 的自动扩缩容(HPA/VPA 集成)、分布式训练框架支持(PyTorch/TensorFlow 多节点调度)、资源配额监控与 GPU 共享策略。

根据工具特性对比表格如下:

工具优势局限适用场景
Ollama单节点快速部署,轻量化启动缺乏集群管理能力,仅支持单机运行开发测试环境/个人实验
KubeML支持K8s自动扩缩容,生产级资源调度需K8s基础,学习曲线陡峭大规模生产环境/分布式训练
Docker配置即代码,环境隔离性强多机编排需Compose/Swarm配合中小型生产环境/容器化部署
LM Studio零配置可视化界面,本地模型快速实验仅限本地单机,无服务化部署能力个人开发者原型验证/模型效果测试

补充说明:

  1. LM Studio

    • 核心价值:专注于本地化模型实验,提供开箱即用的GUI界面,支持直接加载HuggingFace模型
    • 典型用例:研究人员快速验证模型效果,无需编写部署代码
    • 进阶限制:无法导出为API服务,缺乏用户权限管理等生产级功能
  2. 横向对比维度

    • 扩展性:KubeML > Docker > Ollama > LM Studio
    • 易用性:LM Studio > Ollama > Docker > KubeML
    • 生产就绪:KubeML > Docker > Ollama(LM Studio不适合生产)
  3. 混合部署建议

    • 开发阶段:用LM Studio/Ollama快速验证模型
    • 测试阶段:通过Docker构建原型API
    • 生产阶段:使用KubeML实现弹性伸缩,配合Prometheus监控
c. 演示环境配置

我这里的演示的本地环境:

  • 操作系统:
    • 系统版本:Windows 11 企业版
  • CPU规格
    • CPU型号:Intel® Core™ i9-10900X CPU @ 3.70GHz 3.70 GHz
    • CPU核数:20 核
  • 内存规格:
    • 内存:64.0 GB
  • 存储规格:
    • 型号:Samsung SSD 970 EVO Plus 2TB
    • 容量:2TB
    • 类型:固态硬盘(SSD),NVMe SSD
  • 显卡规格:
    • 显卡型号:NVIDIA RTX 4090
    • 显存大小:24GB
    • 显卡驱动:32.0.15.6094 (NVIDIA 560.94) DCH / Win11 64
    • 显卡计算技术:OpenCL, CUDA, DirectCompute, DirectML, Vulkan, Ray Tracing, PhysX, OpenGL 4.6

系统配置截图:
在这里插入图片描述
显卡参数截图:
在这里插入图片描述

因为我的需求主要开发/测试,所有我最终选择使用Ollama安装,关于如何选择合适的模型版本以及配置相应的硬件资源参考以下:

  1. 选择模型版本

    • 跟我们电脑硬件的,最终选择DeepSeek-R1模型蒸馏版32B的版本。
  2. 通用配置原则

    • 模型显存占用:每1B参数约需1.5-2GB显存(FP16精度)或0.75-1GB显存(INT8/4-bit量化)。
      • 例如,32B模型在FP16下需约48-64GB显存,量化后可能降至24-32GB。
    • 内存需求:至少为模型大小的2倍(用于加载和计算缓冲)。
    • 存储:建议使用NVMe SSD,模型文件大小从1.5B(约64GB)不等。

总之根据自己实际情况,选择模型版本和配置硬件资源,以确保模型能够顺利运行。

d. Ollama安装流程

官方地址:https://ollama.com/

步骤1:下载Ollama服务安装包
在这里插入图片描述

步骤2:安装Ollama服务
在这里插入图片描述
控制台验证是否成功安装?
在这里插入图片描述

步骤3:选择并安装模型

我们再回到Ollama官网选择模型,选择适合你的蒸馏量化模型复制命令进行安装

ollama run deepseek-r1:32b

在这里插入图片描述

步骤4:加载模型

ollama run deepseek-r1:32b

可以看到安装完成:

在这里插入图片描述
输入指令测试下:
在这里插入图片描述

步骤5:配置远程Ollama服务(可选)

默认情况下,Ollama 服务仅在本地运行,不对外提供服务。要使 Ollama 服务能够对外提供服务,你需要设置以下两个环境变量:

OLLAMA_HOST=0.0.0.0
OLLAMA_ORIGINS=*

在 Windows 上,Ollama 会继承你的用户和系统环境变量。

  • 通过任务栏退出 Ollama。
  • 打开设置(Windows 11)或控制面板(Windows 10),并搜索“环境变量”。
  • 点击编辑你账户的环境变量。
    • 为你的用户账户编辑或创建新的变量 OLLAMA_HOST,值为 0.0.0.0; 为你的用户账户编辑或创建新的变量 OLLAMA_ORIGINS,值为 *。
  • 点击确定/应用以保存设置。
  • 从 Windows 开始菜单启动 Ollama 应用程序。

在这里插入图片描述

其它系统请参考:https://chatboxai.app/zh/help-center/connect-chatbox-remote-ollama-service-guide

注意事项

  • 可能需要在防火墙中允许 Ollama 服务的端口(默认为 11434),具体取决于你的操作系统和网络环境。
  • 为避免安全风险,请不要将 Ollama 服务暴露在公共网络中。办公网络是一个相对安全的环境。

步骤6:验证部署

返回HTTP 200即为成功

curl http://远程IP:11434/api/status

步骤7:ollama相关命令

# 查看已安装模型:
ollama list# 删除已安装的模型(模型名称替换你自己的):
ollama rm deepseek-r1:32

在这里插入图片描述

4. 可视化工具

为了获得更好的交互体验,可以安装可视化工具使用。

a. 工具对比

这里介绍下Open-WebUI、Dify、Chatbox

1. Open-WebUI
定位:轻量级自托管LLM交互界面
核心功能

  • 提供简洁的Web UI与大模型交互,支持本地或云端部署的LLM(如Llama、GPT等)。
  • 支持会话标签管理,便于多任务切换和历史记录追溯。
  • 集成80+插件生态,可扩展文件解析、知识库检索等功能。
  • 低延迟(≤50ms),适合个人用户快速调用本地模型。

适用场景

  • 个人开发者或研究者本地调试大模型。
  • 需要轻量化、高定制化UI的LLM交互场景。

局限性

  • 无API接口,无法直接集成到企业级应用中。
  • 功能聚焦于交互界面,缺乏应用开发支持。

2. Dify
定位:企业级LLM应用开发平台
核心功能

  • 提供可视化工作流编排,支持RAG、AI Agent等复杂应用开发。
  • 内置API服务,便于集成到现有系统(如客服、数据分析工具)。
  • 支持MongoDB/PostgreSQL存储,管理对话日志、知识库等结构化数据。
  • 提供企业级权限管理、数据审计和监控功能。

适用场景

  • 开发智能客服、知识库问答等AI SaaS服务。
  • 企业需要快速构建可扩展的LLM应用并集成API。

对比同类工具

  • 与AnythingLLM相比,Dify更强调开发灵活性,适合复杂业务逻辑;而AnythingLLM偏向开箱即用的知识库管理。

3. Chatbox
定位:跨平台桌面客户端工具
核心功能

  • 极低延迟(≤30ms),支持主流模型(GPT/Claude/文心一言等)快速调用。
  • 对话流程编排功能,可预设提示词模板、多轮对话逻辑。
  • 内置20+实用插件(如代码高亮、Markdown渲染、数据导出)。
  • 一键安装,跨平台支持(Windows/macOS/Linux),部署复杂度极低(★☆☆☆☆)。

特色优势

  • 开发者友好:支持调试模式、请求日志追踪和快捷键操作。
  • 轻量化:客户端无需服务器资源,适合本地开发测试。

适用场景

  • 开发者调试模型API或设计对话流程。
  • 个人用户需要轻量、高效的桌面端LLM工具。

对比总结

维度Open-WebUIDifyChatbox
核心定位自托管交互界面LLM应用开发平台跨平台客户端工具
API支持❌ 无✅ 提供完整API❌ 无(纯客户端)
部署难度中等(需配置环境)较高(依赖数据库)极低(开箱即用)
适用场景个人本地模型交互企业级应用开发开发者调试/轻量使用
生态扩展80+插件企业级功能模块20+效率插件

选择建议

  • 个人用户本地调试选 Open-WebUI
  • 企业构建AI应用选 Dify
  • 开发者需要轻量调试工具选 Chatbox

因为我们主要是个人使用,这里选择Open-WebUI

b. Open-WebUI部署

Open-WebUI官方地址:https://github.com/open-webui/open-webui
Open-WebUI官方文档地址:https://docs.openwebui.com/getting-started/

在这里插入图片描述
根据官网文档可使用pip和docker进行安装,我这里避免影响本地环境使用docker进行安装:

docker run \-d \--name open-webui \--restart always \-p 3000:8080 \-e OLLAMA_BASE_URL=http://192.168.3.60:11434 \-v open-webui:/app/backend/data \ghcr.io/open-webui/open-webui:main

注意:设置环境变量 OLLAMA_BASE_URL,指向运行 Ollama 的服务器地址和端口。

服务启动成功如下:
在这里插入图片描述

访问http://localhost:3000/
在这里插入图片描述
创建管理员账号
在这里插入图片描述
简单的测试下
在这里插入图片描述


5. AI API应用

这里列出了可以调用Ollama服务的很多类库:https://github.com/ollama/ollama。

a. Python SDK实战

先安装模块:

pip install ollama

用VS Code编写代码如下:

from ollama import Clientclient = Client(host='http://192.168.3.60:11434',headers={'x-some-header': 'some-value'}
)
response = client.chat(model='deepseek-r1:32b', messages=[{'role': 'user','content': '你是谁?',},
])print(response)

执行结果:
在这里插入图片描述

c. Spring AI集成

我们可以通过Spring Boot与Spring AI来调用DeepSeek-R1模型,并实现API服务。Spring Boot提供了丰富的功能,能够轻松与Ollama结合,处理来自客户端的请求,并返回模型的推理结果。

步骤1:构建 Spring Boot 项目
首先,使用Spring Initializr创建一个Spring Boot项目,并添加Spring AI依赖。确保在pom.xml中包含以下依赖项:

<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-ollama-spring-boot-starter</artifactId>
</dependency>

步骤2: 配置 Ollama

spring.ai.ollama.base-url=http://192.168.3.60:11434
spring.ai.ollama.chat.model=deepseek-r1:32b

步骤3:编写代码调用模型

@Bean
@SpringBootTest(classes = DemoApplication.class)
public class TestOllama {@Autowired
private OllamaChatModel ollamaChatModel;@Test
public void testChatModel() {
String prompt = "请将以下英文翻译成中文:";
String message = "Ollama now supports tool calling with popular models such as Llama 3.1.";String result = ollamaChatModel.call(prompt + " " + message);
System.out.println(result);
}
}

行以上代码,Spring Boot会向Ollama发送请求,并返回DeepSeek-R1生成的翻译结果。如下:

在这里插入图片描述


6. 小结

本文实现从基础部署业务集成的全链路实践:

  1. 版本选择:根据需求与硬件预算选择蒸馏版/完整版
  2. 部署模式:Ollama适合快速验证,KubeML满足生产需求
  3. 生态整合:通过标准化API实现与现有系统的无缝对接

后续建议

  • 结合搜索库实现日志分析自动化
  • 使用构建个人知识问答系统

参考资料:

  • https://www.cnblogs.com/zzy0471/p/18698656
  • https://blog.csdn.net/yht874690625/article/details/145483279

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/69807.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

数据结构——队列、哈希存储(2025.2.11)

目录 一、队列 1.定义 2.应用 3.分类 &#xff08;1&#xff09;逻辑结构 &#xff08;2&#xff09;物理结构 顺序队列 链式队列 二、哈希存储 1.定义 2.哈希冲突 &#xff08;1&#xff09;开放定址法 &#xff08;2&#xff09;再哈希法 &#xff08;3&#xf…

【做一个微信小程序】校园地图页面实现

前言 上一个教程我们实现了小程序的一些的功能&#xff0c;有背景渐变色&#xff0c;发布功能有的呢&#xff0c;已支持图片上传功能&#xff0c;表情和投票功能开发中&#xff08;请期待&#xff09;。下面是一个更高级的微信小程序实现&#xff0c;包含以下功能&#xff1a;…

npm安装时无法访问github域名的解决方法

个人博客地址&#xff1a;npm安装时无法访问github域名的解决方法 | 一张假钞的真实世界 今天在用npm install的时候出现了github项目访问不了的异常&#xff1a; npm ERR! Error while executing: npm ERR! /bin/git ls-remote -h -t https://github.com/nhn/raphael.git np…

J Exp Clin Cancer Res (IF:11.4)|上海九院张建军团队发现SPP1+巨噬细胞在头颈癌中的促肿瘤机制

巨噬细胞是肿瘤免疫微环境&#xff08;TIME&#xff09;的重要组成部分&#xff0c;在不同癌症类型中表现出功能的多样性以及与预后的紧密联系。在多种癌症中&#xff0c;SPP1巨噬细胞已被发现是一种常见的肿瘤相关巨噬细胞&#xff08;TAM&#xff09;亚群&#xff0c;且与不良…

盛铂科技 SCP4006/4018/4040:国产袖珍式功率计 射频微波功率探头 平均功率计

在通信、电子测量等领域&#xff0c;功率计是确保信号稳定、系统高效运行的关键设备。盛铂科技自主研发的 SCP4000 系列自带 USB 接口的袖珍式 CW 信号平均功率计&#xff0c;以其卓越的性能、高性价比和便捷的操作&#xff0c;在众多同类产品中脱颖而出&#xff0c;成为行业内…

Docker+Jenkins自动化部署SpringBoot项目【详解git,jdk,maven,ssh配置等各种配置,附有示例+代码】

文章目录 DockerJenkins部署SpringBoot项目一.准备工作1.1安装jdk111.2安装Maven 二.Docker安装Jenkins2.1安装Docker2.2 安装Jenkins2.3进入jenkins 三.Jenkins设置3.1安装jenkins插件3.2全局工具配置全局配置jdk全局配置maven全局配置git 3.3 系统配置安装 Publish Over SSH …

基于角色访问控制的UML 表示

Michael E. Shin、Gail-Joon Ahn 著&#xff0c;UMLChina 译 摘要 在基于角色访问控制&#xff08;role-based access control&#xff0c;RBAC&#xff09;中&#xff0c;权限和角色相关&#xff0c;用户被当作相应角色的成员而获得角色的权限。RBAC 背后的首要动机是为了简…

大数据SQL调优专题——Hive执行原理

引入 Apache Hive 是基于Hadoop的数据仓库工具&#xff0c;它可以使用SQL来读取、写入和管理存在分布式文件系统中的海量数据。在Hive中&#xff0c;HQL默认转换成MapReduce程序运行到Yarn集群中&#xff0c;大大降低了非Java开发者数据分析的门槛&#xff0c;并且Hive提供命令…

计算机网络(1)基础篇

目录 1.TCP/IP 网络模型 2.键入网址--->网页显示 2.1 生成HTTP数据包 2.2 DNS服务器进行域名与IP转换 2.3 建立TCP连接 2.4 生成IP头部和MAC头部 2.5 网卡、交换机、路由器 3 Linux系统收发网络包 1.TCP/IP 网络模型 首先&#xff0c;为什么要有 TCP/IP 网络模型&a…

c++ 多线程知识汇总

一、std::thread std::thread 是 C11 引入的标准库中的线程类&#xff0c;用于创建和管理线程 1. 带参数的构造函数 template <class F, class... Args> std::thread::thread(F&& f, Args&&... args);F&& f&#xff1a;线程要执行的函数&…

LabVIEW用户界面(UI)和用户体验(UX)设计

作为一名 LabVIEW 开发者&#xff0c;满足功能需求、保障使用便捷与灵活只是基础要求。在如今这个用户体验至上的时代&#xff0c;为 LabVIEW 应用程序设计直观且具有美学感的界面&#xff0c;同样是不容忽视的关键任务。一个优秀的界面设计&#xff0c;不仅能提升用户对程序的…

【工业场景】用YOLOv8实现火灾识别

火灾识别任务是工业领域急需关注的重点安全事项,其应用场景和背景意义主要体现在以下几个方面: 应用场景:工业场所:在工厂、仓库等工业场所中,火灾是造成重大财产损失和人员伤亡的主要原因之一。利用火灾识别技术可以及时发现火灾迹象,采取相应的应急措施,保障人员安全和…

STM32_USART通用同步/异步收发器

目录 背景 程序 STM32浮空输入的概念 1.基本概念 2. STM32浮空输入的特点 3. STM32浮空输入的应用场景 STM32推挽输出详解 1. 基本概念 2. 工作原理 3. 应用场景 使能外设时钟 TXE 和 TC的区别 USART_IT_TXE USART_IT_TC 使能串口外设 中断处理函数 背景 单片…

利用IDEA将Java.class文件反编译为Java文件:原理、实践与深度解析

文章目录 引言&#xff1a;当.class文件遇到源代码缺失第一章&#xff1a;反编译技术基础认知1.1 Java编译执行原理1.2 反编译的本质1.3 法律与道德边界 第二章&#xff1a;IDEA内置反编译工具详解2.1 环境准备2.2 三步完成基础反编译2.3 高级反编译技巧2.3.1 调试模式反编译2.…

算法日记16:SC68 联通块问题(并查集)

一、题目&#xff1a; 二、题解&#xff1a; 1、看到求联通块问题&#xff0c;我们可以考虑使用DFS/并查集(在这里我们仅介绍并查集) 2、什么是并查集&#xff1f; 2.1&#xff1a;初始化&#xff1a;对于每一个点&#xff0c;我们都对其进行初始化操作pre[i]i pre[i]表示i的…

visual studio导入cmake项目后打开无法删除和回车

通过Cmakelists.txt导入的项目做删除和回车无法响应&#xff0c;需要点击项目&#xff0c;然后选择配置项目就可以了

ChartDB:一个基于Web的可视化数据库设计工具

这次给大家介绍一个可视化的数据库设计工具&#xff1a;ChartDB。 ChartDB 是一个免费开源的数据库可视化设计工具&#xff0c;支持的数据库包括 MySQL、MariaDB、PostgreSQL、Microsoft SQL Server、SQLite、ClickHouse 等。 对于已有的数据库&#xff0c;ChartDB 提供了一键…

elementUI tree树形控件 根据数据动态设置禁用,全选时不可选中禁用数据

需求 根据后端返回的数据禁用数据&#xff0c;将tree结构对应的数据设置为禁用状态&#xff0c;并且在点击全选后不可选中禁用数据。 效果 根据数据动态设置禁用 全选时不可选中禁用数据 代码 <template>...<div class"list-box"><div class&q…

Flutter 添加 iOS widget 小组件

环境 macOS 15.1 Xcode16.1 Flutter 3.27.4 前言 本篇文章主要记录&#xff0c;在Flutter 项目中如何正确地添加iOS 小组件&#xff0c;iOS 小组件 相关的知识在另一篇文章有记录。 iOS 14 widget 添加小组件 WidgetExtension 打开Xcode New -> Target 选择 iOS -> 搜…

LLM:GPT 系列

阅读原文&#xff1a; LLM&#xff1a;Qwen 系列 GPT&#xff08;Generative Pre-trained Transformer&#xff09;是生成式预训练语言模型&#xff0c;基于 Transformer 架构&#xff0c;专注于通过自回归的方式生成自然语言文本&#xff0c;即给定一个输入序列 x { x 1 , …