LangChain 入门8 加载huggingface模型的案例对比

概述

huggingface模型和ollama 的一些区别

langchain加载 huggingface模型和ollama 的一些区别在于它们的使用场景、安装部署方式、以及与LangChain的集成方式。

  • 使用场景
    Hugging Face模型通常托管在Hugging Face Model Hub上,可以用于多种自然语言处理任务,如文本分类、问答、文本生成等。
    Ollama专注于运行大型语言模型(LLMs),如Llama 2和Mistral,提供了本地运行这些模型的能力。

  • 安装部署方式
    Hugging Face模型可以通过Hugging Face Hub直接调用,也可以本地安装和运行。如果选择本地部署,需要安装transformers库和可能的其他依赖,如sentence_transformers。
    Ollama提供了一个命令行界面,通过ollama命令与模型进行交互,它使用llama.cpp作为底层库,并在此基础上添加了额外的功能。

  • LangChain的集成方式
    Hugging Face模型在LangChain中可以通过HuggingFacePipeline类进行集成,这允许用户直接使用Hugging Face的模型进行文本生成或其他任务。
    Ollama模型在LangChain中的使用可能需要通过特定的接口或者适配器来实现,这取决于Ollama提供的API和LangChain的集成能力。

  • 性能和资源需求
    Hugging Face模型的性能和资源需求取决于所选模型的大小和复杂性,以及是否使用GPU加速。
    Ollama由于专注于大型语言模型,可能需要较高的硬件配置,特别是对于大型模型,如7B、13B或更大的模型。

  • 易用性和定制性
    Hugging Face提供了广泛的模型选择和易于使用的API,适合需要快速原型设计和模型测试的用户。
    Ollama则提供了更多的定制选项,允许用户通过创建自定义模型和运行多个预训练模型来满足特定需求。

  • 开源和社区支持
    Hugging Face模型完全开源,并有一个活跃的社区支持,用户可以轻松地贡献和共享模型。
    Ollama同样开源,提供了一个模型库,用户可以从中选择或上传自己的模型。

代码实现

案例1-有prompt

#加载依赖
from langchain_community.llms.huggingface_pipeline import HuggingFacePipeline
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
from langchain_core.prompts import PromptTemplate#加载本地模型
#model_id = "G:\hugging_fase_model2\gemma-7b"
model_id = "G:\hugging_fase_model2\gpt2"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto")# 增加 max_new_tokens 的值以生成更长的文本
max_new_tokens = 200  # 可以根据需要调整这个值#构建管道
pipe = pipeline("text-generation", model=model, tokenizer=tokenizer, max_new_tokens=max_new_tokens)
hf = HuggingFacePipeline(pipeline=pipe)#构建提示词模版
template = """Question: {question}Answer: Let's think step by step."""
prompt = PromptTemplate.from_template(template)#LCEL
chain = prompt | hf#提问
question = "What is electroencephalography?"#输出
print(chain.invoke({"question": question}))

返回数据:

In this article a number of studies demonstrate the potential for
neurofeedback. Some of the techniques used provide stimulation. One
research in the area of EEG (electroencephalography) studies, called
electroencephalographic stimulation, involves electrical stimulation,
such as ultrasound, lasers, and some sound. Another study, published
in the journal EEG by N. E. Hirschberger, shows the use of ultrasonic
pulses, such as those generated by a camera, as an acoustic
stimulation. The results should prompt us to take some actions.

First, we have to understand a few basic principles regarding the
field. First, electroencephalography is applied in three different
modes. The first uses a sound field. The second uses electrical
stimulation (pulse amplitude) which the user then sends to the
electrodes to activate the auditory stimulus. The third uses a pulse
amplitude, known as field oscillation (fascination) which involves the
electrical stimulation of the scalp of the subject. The final field

案例2-没有prompt 不使用invoke

#加载依赖
from langchain import PromptTemplate, LLMChain
from langchain.llms import HuggingFacePipeline
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline, AutoModelForSeq2SeqLM
from langchain_community.llms import HuggingFaceHub#实例化模型
model_id = "G:\hugging_fase_model2\gpt2"
tokenizer = AutoTokenizer.from_pretrained(model_id)model = HuggingFacePipeline.from_model_id(model_id=model_id,task="text-generation",pipeline_kwargs={"max_new_tokens": 100},device=-1,)#输出结果
model('What is electroencephalography?')

" It’s a very small optical instrument that collects EEG data from a
subject using a handheld electric current.\n\nWhat is
electroencephalography? It’s a very small optical instrument that
collects EEG data from a subject using a handheld electric current.
The image is in real time. We use it just for the visuals and to have
it look real; it’s not like that. It’s just like seeing a person in a
hospital with cerebral palsy. You get this low level of consciousness,
and"

案例3-使用run 执行案例

from langchain_community.llms import HuggingFacePipeline
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
from langchain import PromptTemplate, LLMChain#加载大模型
model_id = "G:\hugging_fase_model2\gpt2"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto")#加载管道
pipe = pipeline("text-generation", model=model, tokenizer=tokenizer, max_new_tokens=100)#加载huggingface 管道
model = HuggingFacePipeline(pipeline=pipe)#创建提示词
template = """Question: {question}Answer: """
prompt = PromptTemplate(template=template, input_variables=["question"])
llm_chain = LLMChain(prompt=prompt, llm=model)#运行大模型
question = "What is electroencephalography?"
response = llm_chain.run(question)
print(response)

This is an interesting topic which has not been thoroughly discussed
in the literature. In fact, some people have suggested there may not
even be an appropriate definition (see the below). In this document we
would like to discuss whether electroencephalography is a better
alternative, and are therefore going to write up this, in a short
manner.

A. Electroencephalography is a method to measure the electrical
activity or electroconvulsive activity of brain tissue.
Electroencephal

本文主要对hugging 模型的加载从不同的加载方式来看返回的结果上的差异。
以上是文本的全部内容,感谢阅读。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/831414.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【C++】命名冲突了怎么办?命名空间来解决你的烦恼!!!C++不同于C的命名方式——带你认识C++的命名空间

命名空间 导读一、什么是C?二、C的发展三、命名空间3.1 C语言中的重名冲突3.2 什么是命名空间?3.3 命名空间的定义3.4 命名空间的使用环境3.5 ::——作用域限定符3.6 命名空间的使用方法3.6.1 通过作用域限定符来指定作用域3.6.2 通过关键字using和关键字namespace…

云服务器+ASF实现全天挂卡挂时长

目录 前言正文1.安装下载2.编辑配置文件3.设置Steam社区证书4.启动ASF5.给游戏挂时长6.进阶-ASF自动启动且后台保活 前言 我遇到的最大的问题是,网络问题 其实不然,各大厂商的云服务器后台都有流量监控,意味着依靠一般方法是不能正常访问St…

变量内存和存储单位

基本数据类型及其占位符 存储单位 内存中的数据存储单元是由一个一个的二进制组成的,每个二进制只能存储0 和1 科学家为了更加方便存储更多的数据,把内存中8个二进制分为一组,叫做一个字节,Byte字节是最小的存储单位。(重点⭐⭐⭐…

学编程会让孩子变得更聪明吗?

学习编程对孩子的智力发展有着积极的影响。编程是一种逻辑思维和问题解决能力的训练,通过学习编程,孩子可以培养自己的思维能力、创造力和解决问题的能力。 首先,学习编程可以培养孩子的逻辑思维能力。编程是一种严谨的逻辑思维过程&#xf…

iOS cocoapods 升级

简介 首先需要先安装成功并且可以正常使用cocoapods,该部分请参考其他文章如果之前已经可以正常使用,那么安装将非常简单,只需要三个命令行(如果顺利的话) 具体过程 查看当前的cocoapods版本,便于之后查…

聚焦Spring后置处理器分析对比

目录 一、理解Spring后置处理器 二、Spring后置处理器在IOC容器和bean对象生命周期的切入时机分析 (一)IOC 容器生命周期中的切入时机 (二)Bean 对象生命周期中的切入时机 三、BeanPostProcessor后置器分析 (一&…

OpenCV(三)—— 车牌筛选

本篇文章要介绍如何对从候选车牌中选出最终进行字符识别的车牌。 无论是通过 Sobel 还是 HSV 计算出的候选车牌都可能不止一个,需要对它们进行评分,选出最终要进行识别的车牌。这个过程中会用到两个理论知识:支持向量机和 HOG 特征。 1、支…

Redis__事务

文章目录 😊 作者:Lion J 💖 主页: https://blog.csdn.net/weixin_69252724 🎉 主题:Redis__事务 ⏱️ 创作时间:2024年05月02日 ———————————————— 这里写目录标题 文章目…

SSM+Vue在线OA办公系统

在线办公分三个用户登录,管理员,经理,员工。 SSM架构,maven管理工具,数据库Mysql,系统有文档,可有偿安装调试及讲解,项目保证质量。需要划到 最底 下可以联系到我。 功能如下&am…

蓝桥杯练习系统(算法训练)ALGO-950 逆序数奇偶

资源限制 内存限制:256.0MB C/C时间限制:1.0s Java时间限制:3.0s Python时间限制:5.0s 问题描述 老虎moreD是一个勤于思考的青年,线性代数行列式时,其定义中提到了逆序数这一概念。不过众所周知我们…

nginx--location详细使用和账户认证

在没有使用正则表达式的时候,nginx会先在server中的多个location选取匹配度最高的一个uri,uri是用户请求的字符串,即域名后面的web文件路径,然后使用该location模块中的正则url和字符串串,如果匹配成功就结束搜索&…

C语言----贪吃蛇(补充)

各位看官好,我想大家应该已经看过鄙人的上一篇博客贪吃蛇了吧。鄙人在上一篇博客中只是着重的写了贪吃蛇的实现代码,但是前期的一些知识还没有具体的介绍,比如确认光标位置,句柄等。那么我这一篇博客就来补充上一篇博客所留下来的…

神经网络中的优化方法

一、引入 在传统的梯度下降优化算法中,如果碰到平缓区域,梯度值较小,参数优化变慢 ,遇到鞍点(是指在某些方向上梯度为零而在其他方向上梯度非零的点。),梯度为 0,参数无法优化&…

数据结构-AVL树

目录 什么是 AVL 树 ASL 度量查找效率 结构体定义 平衡调整 调整类型 左旋和右旋 右旋 左旋 左、右平衡调整 左平衡调整 右平衡调整 插入数据 模拟建立 AVL 树 什么是 AVL 树 二叉排序树的形状取决于数据集,当二叉树的高度越小、结构越合理&#xff0c…

使用通义千问,为汽车软件需求生成测试用例

前几篇文章我们介绍了,分析需求,生成代码,生成流程图,序列图等汽车软件开发设计中的常见工作步骤,今天我们讲下汽车软件测试中怎么使用大模型,如何用千问生成用例,具体操作步骤如下: 提示词: 车速自动闭锁 使能条件(a&b&c&d&e&f) a. 电源状态…

Linux:升级OpenSSL和OpenSSH

原因是现有版本存在安全漏洞,需要升级到新版本 原有版本和升级后的版本 OpenSSL 1.0.2k-fips 26 Jan 2017 -> OpenSSL 1.1.1w 11 Sep 2023OpenSSH_7.4p1, OpenSSL 1.0.2k-fips 26 Jan 2017 -> OpenSSH_9.5p1, OpenSSL 1.1.1w 11 Sep 2023目录 查看现有版…

thinkphp家政上门预约服务小程序家政保洁师傅上门服务小程序上门服务在线派单安装教程

介绍 thinkphp家政上门预约服务小程序家政保洁师傅上门服务小程序上门服务在线派单安装教程 上门预约服务派单小程序家政小程序同城预约开源代码独立版安装教程 程序完整,经过安装检测,可放心下载安装。 适合本地的一款上门预约服务小程序&#xff0…

计算机网络——初识网络

一、局域网与广域网 1.局域网(LAN) 局域网:即Local Area Network,简称LAN。Local即标识了局域⽹是本地,局部组建的⼀种私有⽹络。局域⽹内的主机之间能⽅便的进⾏⽹络通信,⼜称为内⽹;局域⽹和…

A4的PDF按A3打印

先用办公软件打开,比如WPS。 选择打印-属性。 纸张选A3,如果是双面打印,选短边装订,然后在版面-页面排版-每张页数(N合1)选2。 不同打印机的具体配置可能不一样,但大体都是这个套路。

[NSSCTF]prize_p1

前言 之前做了p5 才知道还有p1到p4 遂来做一下 顺便复习一下反序列化 prize_p1 <META http-equiv"Content-Type" content"text/html; charsetutf-8" /><?phphighlight_file(__FILE__);class getflag{function __destruct(){echo getenv(&qu…