hugging face 使用教程———快速入门

概述

    本篇存在的意义是快速介绍hugging face使用,梳理主要部件,梳理易混淆概念。原因是:目前hugging face的使用,官方放在了3个地方(参考链接部分):使用文档、NLP教程、Transformers git的readme 文件,很多重叠内容比较浪费时间,很容易看懵。等大家有了主要概念再去看需要具体看某个函数或功能。

    本篇主要从以下维度来快速介绍hugging face使用:

    1、是什么:我觉得这么讲更适合当前(20240603)初学者,hugging face本身集成了常用的三大功能:model hub、data hub、space,和一个著名源代码库Transformers。

    2、怎么用:这里除了上面的几大部件,最需要知道的几个易混淆名词:pipeline、AutoTokenizer、AutoConfig、AutoModel、AutoModelForXXX、accelerate、Trainer、peft、Agents、optimum。

一、是什么

1、model hub

    登录官方网站(https://huggingface.co/models)可以看到如下的页面(我们选择models 选项卡)。

    其中蓝色和绿色,就是后面怎么用的时候代码里面对应的参数名,分别代表任务类型和模型名字,其中任务类型在代码中全部换为小写。

    模型内部如下,这个是一个比较复杂的代码,并且当前没有被hugging face 的Transformers git代码集成,所以有自定义的一些源码,就需要也上传到对应的hub上,调用逻辑,主要是通过config json 里面的map 字段。

2、databub

    整体和model hub类似, 登录官方网站(https://huggingface.co/datasets)

3、space

    其实就是对应的服务的一个demo地址,可以先简单试一下模型效果。登录官方网站(https://huggingface.co/spaces)

4、docs

    就是对应的一些文档,这部分和源码里面的readme 有重叠。官方网址(https://huggingface.co/docs)

5、Transformers

    这是整个工程的开源代码库,这个要区别Transform(这是一个架构名称,区别与CNN),这个git里面集成了一些知名的结构的源代码,比如llama,并且没有做过多的抽象,可以方便快速查看源代码

    比如:https://github.com/huggingface/transformers/tree/main/src/transformers/models

    这里就要区别使用model bub,这是两种不同的使用方式,一般而言 model bub会更新和更全。官方也有文档写怎么提交这两种方式,参见这里https://github.com/huggingface/transformers/blob/main/docs/source/zh/custom_models.md

二、怎么用

    这里以pytorch和LLM类为例,图像和声音的可以参考官方对应文档,整体流程差不多。涉及的python安装包(建议使用Python虚拟环境):

    pip install transformers datasets evaluate accelerate torch

1、AutoTokenizer、AutoModel、AutoModelForXXX、AutoConfig

首先这里还是建议使用Auto类别,AutoModel、AutoModelForXXX、特定类区别:

AutoModel:加载基础的预训练模型,不带特定任务头部。

AutoModelFor 系列:为特定任务(如分类、标注、问答等)加载预训练模型,并添加适当的任务头部。

直接使用特定模型类(如 BertModel.from_pretrained):提供明确性和特定模型功能,适合需要特定模型特性的场景。

PS:

*这里AutoTokenizer需要和model绑定保持一致,因为不同的模型使用的Tokenizer可能不一样。需要基本了解BPE算法,还有就是hugging face tokenizer默认为快速版本使用rust编写,也可以选择满速版本使用Python原生实现,只需要在参数中将 use_fast=False 即可。

*这里AutoConfig需要和model等绑定保持一致,并且AutoConfig并不能加载权重。

使用范例:

from transformers import AutoModel, AutoModelForSequenceClassification, AutoTokenizer, AutoConfig, BertModel, BertTokenizermodel_name = "bert-base-uncased"# 使用AutoModel加载基础模型
model = AutoModel.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)# 使用AutoModelFor加载适用于特定任务的模型
model_for_classification = AutoModelForSequenceClassification.from_pretrained(model_name, num_labels=2)# 直接使用BertModel加载模型,等价使用AutoModel加载基础模型
model = BertModel.from_pretrained(model_name)
tokenizer = BertTokenizer.from_pretrained(model_name)# 从预训练模型名称加载配置
config = AutoConfig.from_pretrained(model_name)
model = AutoModel.from_config(config)  # 使用配置初始化模型(仅创建模型,不加载权重)
model = AutoModel.from_pretrained(model_name)  # 从预训练模型名称加载模型(包括配置和权重)
tokenizer = AutoTokenizer.from_pretrained(model_name)

2、pipeline

上面代码其实已经很简洁,但使用pipeline后可以仅需要一行代码。

其中pipeline支持的任务:https://huggingface.co/docs/transformers/main/en/main_classes/pipelines#transformers.pipeline.task

from transformers import pipeline# 加载文本分类pipeline
classifier = pipeline("sentiment-analysis", model="bert-base-uncased")# 示例文本
text = "I love using transformers library!"# 进行情感分析
result = classifier(text)
print(result)#其中pipeline参数可以为多种# 使用默认
classifier = pipeline("sentiment-analysis")# 指定model
classifier = pipeline("sentiment-analysis", model="bert-base-uncased")
model_name = "bert-base-uncased"
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
classifier = pipeline("sentiment-analysis", model=model, tokenizer=tokenizer)

自定义pipeline

官方:https://github.com/huggingface/transformers/blob/main/docs/source/zh/add_new_pipeline.md

简单的修改后处理的代码如下:

class MyPipeline(TextClassificationPipeline):def postprocess():# Your code goes herescores = scores * 100# And heremy_pipeline = MyPipeline(model=model, tokenizer=tokenizer, ...)
# or if you use *pipeline* function, then:
my_pipeline = pipeline(model="xxxx", pipeline_class=MyPipeline)

完整的一个示例如下:

from transformers import AutoTokenizer, AutoModelForSequenceClassification
from transformers import Pipeline
import torchclass CustomTextClassificationPipeline(Pipeline):def __init__(self, model, tokenizer, **kwargs):super().__init__(model=model, tokenizer=tokenizer, **kwargs)def _sanitize_parameters(self, **kwargs):preprocess_kwargs = {}forward_kwargs = {}postprocess_kwargs = {}return preprocess_kwargs, forward_kwargs, postprocess_kwargsdef preprocess(self, inputs):# 自定义预处理步骤return self.tokenizer(inputs, padding=True, truncation=True, return_tensors="pt")def _forward(self, model_inputs):# 自定义前向传播步骤with torch.no_grad():outputs = self.model(**model_inputs)return outputsdef postprocess(self, model_outputs):# 自定义后处理步骤logits = model_outputs.logitspredictions = torch.nn.functional.softmax(logits, dim=-1)return predictions# 加载模型和分词器
model_name_or_path = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(model_name_or_path)
model = AutoModelForSequenceClassification.from_pretrained(model_name_or_path)# 创建自定义 pipeline
custom_pipeline = CustomTextClassificationPipeline(model=model, tokenizer=tokenizer)# 示例文本
texts = ["I love using the transformers library!","I had a terrible experience with this product."
]# 进行分类
results = custom_pipeline(texts)# 输出结果
for text, result in zip(texts, results):print(f"Text: {text}\nClassification: {result}\n")

3、accelerate

    这里对等的相关概念还有:megtron、PyTorch FSDP、deepspeed。这里就不对比详细区别,因为整体的技术都是zero系列的思路,只不过不同的时刻支持的方案有区别,当你用的时候可以查看所使用版本支持哪些并行方案。整体适合生态而言:

*Accelerate:适合希望快速实现分布式训练的用户,尤其是使用 Hugging Face 生态系统的用户。

*DeepSpeed:适合需要训练非常大规模模型的用户,对性能和资源利用率有高要求的场景。

*PyTorch FSDP:适合需要在多 GPU 上进行大规模模型训练的用户,尤其是已经在使用 PyTorch 的用户。

    使用方式也相对简单,安装accelerate、简单设置、简单修改训练源码、启动训练,参照:https://github.com/huggingface/transformers/blob/main/docs/source/zh/accelerate.md

    # 安装库

pip install accelerate

    # 简单配置

accelerate config

    修改训练源码(查看+、-部分)  

 + from accelerate import Acceleratorfrom transformers import AdamW, AutoModelForSequenceClassification, get_scheduler
+ accelerator = Accelerator()model = AutoModelForSequenceClassification.from_pretrained(checkpoint, num_labels=2)optimizer = AdamW(model.parameters(), lr=3e-5)
- device = torch.device("cuda") if torch.cuda.is_available() else torch.device("cpu")
- model.to(device)
+ train_dataloader, eval_dataloader, model, optimizer = accelerator.prepare(
+     train_dataloader, eval_dataloader, model, optimizer+ )num_epochs = 3num_training_steps = num_epochs * len(train_dataloader)lr_scheduler = get_scheduler("linear",optimizer=optimizer,num_warmup_steps=0,num_training_steps=num_training_steps)progress_bar = tqdm(range(num_training_steps))model.train()for epoch in range(num_epochs):for batch in train_dataloader:
-         batch = {k: v.to(device) for k, v in batch.items()}outputs = model(**batch)loss = outputs.loss
-         loss.backward()
+         accelerator.backward(loss)optimizer.step()lr_scheduler.step()optimizer.zero_grad()progress_bar.update(1)

    启动训练

accelerate launch train.py

4、peft

    Transformers原生支持一些PEFT方法,这意味着你可以加载本地存储或在Hub上的adapter权重,并使用几行代码轻松运行或训练它们。以下是受支持的方法:Low Rank Adapters、IA3、AdaLoRA。参考:https://github.com/huggingface/transformers/blob/main/docs/source/zh/peft.md

    要从huggingface的Transformers库中加载并使用PEFTadapter模型,请确保Hub仓库或本地目录包含一个adapter_config.json文件和adapter权重,如上例所示。然后,您可以使用AutoModelFor类加载PEFT adapter模型。

    1)要为因果语言建模加载一个PEFT adapter模型:可以使用AutoModelFor类或基础模型类(如OPTForCausalLM或LlamaForCausalLM)来加载一个PEFT adapter;也可以通过load_adapter方法来加载 PEFT adapter。 

    2)添加新的adapter,切换adapter,启用禁用adapter。这里需要区别:

    *enable_adapters 影响的是整个模型的适配器功能开关。

    *set_active_adapters 影响的是具体的适配器激活状态。默认使用最后一次调用该函数的适配器,所以,当需要同时使用多个适配器的时候,同时传给该函数,切不要分次传入(只有最后一个生效)。

    *load_adapter:从外部资源加载预训练的适配器,适用于已经有预训练适配器的情况。

    *add_adapter:在模型中添加一个新的适配器,适用于需要在新任务上训练适配器的情况。

    * 调用关系链:enable_adapters:如果你希望在推理或训练过程中使用适配器,那么你需要调用 enable_adapters 方法。如果你不调用这个方法,模型将不使用适配器。set_active_adapters:如果你只有一个适配器,并且不需要切换适配器,那么你不需要调用 set_active_adapters 方法。如果你有多个适配器并需要在它们之间切换,那么你需要调用这个方法。

    *get_peft_model & add_adapter: get_peft_model是 PEFT 库的一部分,专注于参数高效微调技术。add_adapter 是 AdapterHub 或 Transformers 库的一部分。

from transformers import AutoModelForCausalLM, AutoTokenizer# 定义模型和适配器的ID
model_id = "facebook/opt-350m"
peft_model_id = "ybelkada/opt-350m-lora"# 加载基础模型
model = AutoModelForCausalLM.from_pretrained(model_id)# 加载PEFT适配器
model.load_adapter(peft_model_id, adapter_name="adapter_1")# 再次加载相同的PEFT适配器,作为不同的适配器名称
model.load_adapter(peft_model_id, adapter_name="adapter_2")# 启用适配器
model.enable_adapters()  # 禁用: model.disable_adapters()# 设置使用的适配器,展示切换
model.set_active_adapters("adapter_1")  # 使用 adapter_1
print("Using adapter_1:")
inputs = tokenizer("Hello, how are you?", return_tensors="pt")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))model.set_active_adapters("adapter_2")  # 使用 adapter_2
print("Using adapter_2:")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))# 同时使用多个适配器(如果支持)
model.set_active_adapters(["adapter_1", "adapter_2"])  # 同时使用 adapter_1 和 adapter_2
print("Using adapter_1 and adapter_2:")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))# 只使用 adapter_1
model.set_active_adapters("adapter_1")
print("Using adapter_1 again:")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))# 只使用 adapter_2
model.set_active_adapters("adapter_2")
print("Using adapter_2 again:")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

5、Trainer

    对于pytorch,当你的模型是模型都是标准的 torch.nn.Module,然后可以使用trainer来替代自己手写训练循环,初次之外trainer:包含了基础的训练循环并且为诸如分布式训练(也就是可以理解默认使用了acclerate),混合精度等特性增加了额外的功能。需要注意你可以使用回调来将trainer与其他库集成,查看训练循环来报告进度或提前结束训练。回调不会修改训练循环。如果想自定义损失函数等,就需要子类化 Trainer。 这里补充一点:Trainer 类支持的损失函数主要取决于所使用的模型。大多数预训练模型在其 forward 方法中已经定义了适合其任务的损失函数。如果需要自定义损失函数,可以通过继承 Trainer 类并重写 compute_loss 方法来实现。

from transformers import Trainer, TrainingArguments, AutoModelForSequenceClassification, AutoTokenizer,  PreTrainedModel, PretrainedConfig
from datasets import load_dataset
import numpy as np
from sklearn.metrics import accuracy_score, precision_recall_fscore_support
from peft import LoraConfig# 加载数据集
dataset = load_dataset("glue", "mrpc")# 加载预训练模型和分词器
model_name = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name, num_labels=2)#  ———————————————————————————————————— 如下是自定义模型——————————————————————————————————————————————————  #"""
class CustomBertModel(PreTrainedModel):def __init__(self, config):super().__init__(config)self.bert = AutoModelForSequenceClassification.from_pretrained("bert-base-uncased", config=config)self.custom_layer = nn.Linear(config.hidden_size, config.num_labels)def forward(self, input_ids=None, attention_mask=None, token_type_ids=None, labels=None):outputs = self.bert(input_ids, attention_mask=attention_mask, token_type_ids=token_type_ids)logits = self.custom_layer(outputs[1])  # 使用 BERT 的池化输出loss = Noneif labels is not None:loss_fct = nn.CrossEntropyLoss()loss = loss_fct(logits.view(-1, self.config.num_labels), labels.view(-1))return (loss, logits) if loss is not None else logits# 加载配置和模型
config = PretrainedConfig.from_pretrained("bert-base-uncased", num_labels=2)
model = CustomBertModel(config)
"""# ———————————————————————————————————— 如下是使用LoRa —————————————————————————————————————————————————— #
"""
peft_config = LoraConfig(lora_alpha=16,lora_dropout=0.1,r=64,bias="none",task_type="SEQ_CLS",
)
model.add_adapter(peft_config)
model.enable_adapters()  # 启用适配器,禁用: model.disable_adapters()# peft_model = get_peft_model(model, peft_config) # 上面两行代码也可以使用这行代码替换
"""# 预处理数据
def preprocess_function(examples):return tokenizer(examples['sentence1'], examples['sentence2'], truncation=True)
encoded_dataset = dataset.map(preprocess_function, batched=True)# 定义计算指标
def compute_metrics(pred):labels = pred.label_idspreds = np.argmax(pred.predictions, axis=1)precision, recall, f1, _ = precision_recall_fscore_support(labels, preds, average='binary')acc = accuracy_score(labels, preds)return {'accuracy': acc,'f1': f1,'precision': precision,'recall': recall}# 设置训练参数
training_args = TrainingArguments(output_dir='./results',evaluation_strategy="epoch",learning_rate=2e-5,per_device_train_batch_size=16,per_device_eval_batch_size=16,num_train_epochs=3,weight_decay=0.01,
)# 初始化 Trainer
trainer = Trainer(model=model,args=training_args,train_dataset=encoded_dataset['train'],eval_dataset=encoded_dataset['validation'],compute_metrics=compute_metrics
)# 开始训练
trainer.train()# 评估模型
trainer.evaluate()# 保存模型
save_dir = ''
model.save_pretrained(save_dir)
model = AutoModelForSequenceClassification.from_pretrained(save_dir)

6、optimum

支持的平台比较多(Intel、amd、NVIDIA等):https://huggingface.co/docs/optimum/index

鉴于目前还是都使用NVIDIA,所以重点看这里:https://github.com/huggingface/optimum-nvidia

然后发现底层其实还是TensorRT-LLM: https://github.com/NVIDIA/TensorRT-LLM,支持模型列表:Support Matrix — tensorrt_llm documentation

7、agent

目前(20240604)hugging face还在开发中,后续持续跟进,建议目前还是使用longchain 框架。

参考链接

https://huggingface.co/docs/transformers/v4.41.3/zh/index

https://huggingface.co/learn/nlp-course/zh-CN/chapter1/1

https://github.com/huggingface/transformers/tree/main/docs/source/zh

https://github.com/huggingface/transformers/tree/main/docs/source/zh/main_classes

swiGLU: Index - 笔记 

rope:一文通透位置编码:从标准位置编码、旋转位置编码RoPE到ALiBi、LLaMA 2 Long-CSDN博客

Yarn:大模型长度扩展综述:从直接外推ALiBi、插值PI、NTK-aware插值、YaRN到S2-Attention-CSDN博客

长文本:https://zhuanlan.zhihu.com/p/640641794 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/50761.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Vue3+Element Plus 实现table表格中input的验证

实现效果 html部分 <template><div class"table"><el-form ref"tableFormRef" :model"form"><el-table :data"form.detailList"><el-table-column type"selection" width"55" align&…

基于springboot+vue+uniapp的养老院系统小程序

开发语言&#xff1a;Java框架&#xff1a;springbootuniappJDK版本&#xff1a;JDK1.8服务器&#xff1a;tomcat7数据库&#xff1a;mysql 5.7&#xff08;一定要5.7版本&#xff09;数据库工具&#xff1a;Navicat11开发软件&#xff1a;eclipse/myeclipse/ideaMaven包&#…

repo 工具安装和使用教程(windows+gitee)

repo是什么 官方的定义&#xff1a;Repo是谷歌用python脚本写的调用git的一个脚本&#xff0c;可以实现管理多个git库。 Android的源代码使用Repo 命令行工具来管理多个git仓库&#xff0c;大概有百多个。要想克隆和管理百多个 Git 仓库&#xff0c;不是一件简单的事情。Repo 命…

LoRaWAN网络中的chirpstack

目录 一、chirpstack介绍 二、网关与chirpstack之间的通信 三、NS与AS之间的通信 1、Protobuf 2、gRPC 一、chirpstack介绍 ChirpStack 是一个开源的 LoRaWAN 网络服务器&#xff0c;可用于 设置私有或公共 LoRaWAN 网络。ChirpStack 提供了一个 Web 界面 用于管理网关、设…

HBuilder X中配置vue-cli项目和UI库

目录 一.前端项目结构 二.在HBuilder X中搭建vue-cli项目 1. 安装node.js前端环境 2. HBuilder X创建一个vue-cli项目 3. vue-cli项目结构 4. 如何运行前端项目 5. 创建组件 6. 组件路由(页面跳转) 6.1 创建router目录 6.2 使用路由 6.3 在main.js中配置路由 6.4 路…

【IoTDB 线上小课 05】时序数据文件 TsFile 三问“解密”!

【IoTDB 视频小课】持续更新&#xff01;第五期来啦~ 关于 IoTDB&#xff0c;关于物联网&#xff0c;关于时序数据库&#xff0c;关于开源... 一个问题重点&#xff0c;3-5 分钟详细展开&#xff0c;为大家清晰解惑&#xff1a; IoTDB 的 TsFile 科普&#xff01; 了解了时序数…

系统移植(三)u-boot移植 ① 相关概念

文章目录 一、u-boot概念&#xff08;一&#xff09;概念&#xff08;二&#xff09;获取u-boot源码1.从u-boot官网获取2. 从 STM官网3. 开发板厂商获取 &#xff08;三&#xff09;分析u-boot源码1. u-boot源码的目录结构2. 获取make的帮助信息3. 分析README文件 &#xff08;…

讨逆猴子剪切板,浏览器复制失败?

讨逆猴子剪切板&#xff0c;复制失败&#xff1f; 问题&#xff1a;本地开发情况下可以直接复制&#xff0c;公网就不行了…触发了安全机制。 const link 内容;navigator.clipboard.writeText(link);报错&#xff1a; 解决方案&#xff1a; if (navigator.clipboard &&…

使用代理IP进行本地SEO优化:如何吸引附近的客户?

在今天竞争激烈的互联网时代&#xff0c;如何利用代理IP进行本地SEO优化并吸引附近的客户已经成为许多企业和网站面临的关键挑战。本文将探讨使用代理IP的策略和技巧&#xff0c;以帮助公司提高在本地市场的可见性和吸引力&#xff0c;从而扩大本地客户群体。 1. 代理IP在本地…

Windosw下Visual Studio2022编译FFmpeg(支持x264、x265、fdk-acc)

FFmpeg 7.0 版本移除了 6.0 之前已弃用的 API&#xff0c;无法向下兼容。所以编译的版本选择FFmpeg 6.1.1。 一、安装Visual Studio2022 可参考另外一篇文章&#xff1a;Windows安装Visual Studio2022 QT5.15开发环境_qt5.15.2 vs2022-CSDN博客 二、安装MSYS2 下载地址&…

lua 游戏架构 之 游戏 AI (四)ai_autofight_find_target

定义一个名为 ai_autofight_find_target 的类&#xff0c;继承自 ai_base 类。 lua 游戏架构 之 游戏 AI &#xff08;一&#xff09;ai_base-CSDN博客文章浏览阅读237次。定义了一套接口和属性&#xff0c;可以基于这个基础类派生出具有特定行为的AI组件。例如&#xff0c;可…

大数据-50 Redis 分布式锁 乐观锁 Watch SETNX Lua Redisson分布式锁 Java实现分布式锁

点一下关注吧&#xff01;&#xff01;&#xff01;非常感谢&#xff01;&#xff01;持续更新&#xff01;&#xff01;&#xff01; 目前已经更新到了&#xff1a; Hadoop&#xff08;已更完&#xff09;HDFS&#xff08;已更完&#xff09;MapReduce&#xff08;已更完&am…

Docker+consul容器服务的更新与发现

1、Consul概述 &#xff08;1&#xff09;什么是服务注册与发现 服务注册与发现是微服务架构中不可或缺的重要组件。起初服务都是单节点的&#xff0c;不保障高可用性&#xff0c;也不考虑服务的压力承载&#xff0c;服务之间调用单纯的通过接口访问。直到后来出现了多个节点…

Spark实时(三):Structured Streaming入门案例

文章目录 Structured Streaming入门案例 一、Scala代码如下 二、Java 代码如下 三、以上代码注意点如下 Structured Streaming入门案例 我们使用Structured Streaming来监控socket数据统计WordCount。这里我们使用Spark版本为3.4.3版本&#xff0c;首先在Maven pom文件中导…

在 Spring Boot 中使用 Filters 实现请求过滤和预处理

​ 博客主页: 南来_北往 系列专栏&#xff1a;Spring Boot实战 什么是过滤器 过滤器&#xff08;Filter&#xff09;是一种在Web应用中用于拦截和处理HTTP请求和响应的对象。 在Java Web开发中&#xff0c;过滤器是实现特定功能&#xff0c;如认证、日志记录和字符编码处…

X-AnyLabeling标注软件使用方法

第一步 下载 官方X-AnyLabeling下载地址 github&#xff1a;X-AnyLabeling 第二步 配置环境 使用conda创建新的虚拟环境 conda create -n xanylabel python3.8进入环境 conda activate xanylabel进入X-AnyLabeling文件夹内&#xff0c;运行下面内容 依赖文件系统环境运行环…

MyBatisPlus复习

目录 自定义sql swagger工具 IService批量新增 代码生成器 DB静态工具&#xff0c;hutool工具 逻辑删除 枚举处理器 Json处理器 分页 自定义sql swagger工具 IService批量新增 代码生成器 DB静态工具&#xff0c;hutool工具 逻辑删除 枚举处理器 Json处理器 分页

ks滑块验证码逆向分析与python识别

文章目录 1. 写在前面3. 接口分析3. 算法实现 【&#x1f3e0;作者主页】&#xff1a;吴秋霖 【&#x1f4bc;作者介绍】&#xff1a;擅长爬虫与JS加密逆向分析&#xff01;Python领域优质创作者、CSDN博客专家、阿里云博客专家、华为云享专家。一路走来长期坚守并致力于Python…

大模型技术:发展历程、经典模型、微调与应用[更新中...]

文章目录 一、预训练语言模型发展历程二、经典的Pre-trained任务2.1 Masked Language Modeling2.2 Next Sentence Prediction 三、Task-specific Fine-tuning 任务3.1 Single-text Classification (单句分类)3.2 Sentence-pair Classification (句子匹配/成对分类)3.3 Span Tex…

谷粒商城实战笔记-71-商品服务-API-属性分组-前端组件抽取父子组件交互

文章目录 一&#xff0c;一次性创建所有的菜单二&#xff0c;开发属性分组界面1&#xff0c;左侧三级分类树形组件2&#xff0c;右侧分组列表3&#xff0c;左右两部分通信3.1 子组件发送数据3.2&#xff0c;父组件接收数据 Vue的父子组件通信父组件向子组件传递数据子组件向父组…