HuggingFace学习笔记--利用API实现简单的NLP任务

目录

1--中文分类

1-1--使用预训练模型推理

1-2--基于预训练模型实现下游任务

2--中文填空

3--中文句子关系推断


1--中文分类

1-1--使用预训练模型推理

代码实例:

import torch
from datasets import load_dataset
from transformers import BertTokenizer, BertModel# 定义全局分词工具
tokenizer = BertTokenizer.from_pretrained('bert-base-chinese')# 定义数据集
class Dataset(torch.utils.data.Dataset):def __init__(self, split):self.dataset = load_dataset(path = 'lansinuote/ChnSentiCorp', split = split) # 加载数据集def __len__(self):return len(self.dataset)def __getitem__(self, i):text = self.dataset[i]['text']label = self.dataset[i]['label']return text, label# 自定义数据的处理(加载)方式
def my_collate_fn(data): # data 的类型与 dataset 的返回值相同,本例中dataset返回一个列表[text, label]# 根据dataset的返回结果,取出对应的text和labelsents = [i[0] for i in data]labels = [i[1] for i in data]# 使用全局的分词工具进行编码data = tokenizer.batch_encode_plus(batch_text_or_text_pairs = sents,truncation = True,padding = 'max_length',max_length = 500,return_tensors = 'pt',return_length = True)input_ids = data['input_ids']attention_mask = data['attention_mask']token_type_ids = data['token_type_ids']labels = torch.LongTensor(labels)return input_ids, attention_mask, token_type_ids, labelsdef main():dataset = Dataset('train') # 初始化训练集# print(len(dataset), dataset[0])# 定义dataloaderloader = torch.utils.data.DataLoader(dataset = dataset,batch_size = 16,collate_fn = my_collate_fn,shuffle = True,drop_last = True)# 遍历dataloader加载数据for i, (input_ids, attention_mask, token_type_ids, labels) in enumerate(loader):breakprint(len(loader))print(input_ids.shape, attention_mask.shape, token_type_ids.shape, labels) # 打印一个样本# 加载预训练模型model = BertModel.from_pretrained('bert-base-chinese')for param in model.parameters(): # 不进行梯度计算和反向传播param.requires_grad_(False)# 调用预训练模型推理一个样本    output = model(input_ids = input_ids, attention_mask = attention_mask, token_type_ids = token_type_ids)print(output.last_hidden_state.shape) # 打印最后一个隐层输出特征的维度if __name__ == "__main__":main()print("All done!")

输出结果:

# dataloader单个样本:
torch.Size([16, 500]) 
torch.Size([16, 500]) 
torch.Size([16, 500]) 
tensor([1, 0, 1, 0, 1, 0, 0, 1, 1, 1, 0, 1, 0, 1, 0, 1])
# 最后一个隐层的输出特征:
torch.Size([16, 500, 768])

1-2--基于预训练模型实现下游任务

        利用预训练 bert 模型最后一个隐层的[cls] token的特征进行中文分类;

代码:

import torch
from datasets import load_dataset
from transformers import BertTokenizer, BertModel, AdamW# 定义全局分词工具
tokenizer = BertTokenizer.from_pretrained('bert-base-chinese')# 定义数据集
class Dataset(torch.utils.data.Dataset):def __init__(self, split):self.dataset = load_dataset(path = 'lansinuote/ChnSentiCorp', split = split) # 加载数据集def __len__(self):return len(self.dataset)def __getitem__(self, i):text = self.dataset[i]['text']label = self.dataset[i]['label']return text, label# 自定义数据的处理(加载)方式
def my_collate_fn(data): # data 的类型与 dataset 的返回值相同,本例中dataset返回一个列表[text, label]# 根据dataset的返回结果,取出对应的text和labelsents = [i[0] for i in data]labels = [i[1] for i in data]# 使用全局的分词工具进行编码data = tokenizer.batch_encode_plus(batch_text_or_text_pairs = sents,truncation = True,padding = 'max_length',max_length = 500,return_tensors = 'pt',return_length = True)input_ids = data['input_ids']attention_mask = data['attention_mask']token_type_ids = data['token_type_ids']labels = torch.LongTensor(labels)return input_ids, attention_mask, token_type_ids, labels# 定义下游任务模型
class Model(torch.nn.Module):def __init__(self):super().__init__()self.pretrained_model = BertModel.from_pretrained('bert-base-chinese') # 加载预训练模型self.fc = torch.nn.Linear(768, 2)# 固定预训练模型for param in self.pretrained_model.parameters():param.requires_grad = Falsedef forward(self, input_ids, attention_mask, token_type_ids):with torch.no_grad():output = self.pretrained_model(input_ids=input_ids,attention_mask=attention_mask,token_type_ids=token_type_ids)output = self.fc(output.last_hidden_state[:, 0]) # 利用最后一个隐层的[cls]token特征进行分类output = output.softmax(dim=1)return output# 定义测试函数
def test(model, dataset):model.eval()correct = 0total = 0# 定义加载测试集的dataloaderloader_test = torch.utils.data.DataLoader(dataset = dataset,batch_size = 32,collate_fn = my_collate_fn,shuffle = True,drop_last = True)for idx, (input_ids, attention_mask, token_type_ids, labels) in enumerate(loader_test):if idx == 5: # 测试5个batchbreakprint(idx)with torch.no_grad():input_ids = input_ids.cuda()attention_mask = attention_mask.cuda()token_type_ids = token_type_ids.cuda()labels = labels.cuda()output = model(input_ids=input_ids, attention_mask=attention_mask, token_type_ids=token_type_ids)output = output.argmax(dim=1)correct += (output == labels).sum().item()total += len(labels)print("Acc: ", correct / total) # 打印5个batch的总体准确率def main():dataset = Dataset('train') # 初始化训练集# print(len(dataset), dataset[0])# 定义dataloaderloader = torch.utils.data.DataLoader(dataset = dataset,batch_size = 16,num_workers = 8,collate_fn = my_collate_fn,shuffle = True,drop_last = True)# 初始化模型model = Model()model = model.cuda() # 使用GPU# 初始化优化器和损失函数optimizer = AdamW(model.parameters(), lr=5e-4)criterion = torch.nn.CrossEntropyLoss().cuda()# 训练模型model.train()for idx, (input_ids, attention_mask, token_type_ids, labels) in enumerate(loader): # 遍历加载数据input_ids = input_ids.cuda()attention_mask = attention_mask.cuda()token_type_ids = token_type_ids.cuda()labels = labels.cuda()output = model(input_ids=input_ids, attention_mask=attention_mask, token_type_ids=token_type_ids)loss = criterion(output, labels)loss.backward()optimizer.step()optimizer.zero_grad()if idx % 5 == 0: # 每5个batch打印当前准确率和损失output = output.argmax(dim=1)accuracy = (output == labels).sum().item() / len(labels)print(idx, loss.item(), accuracy)if idx == 300: # 使用300个batch进行训练break# 测试模型test(model, Dataset('validation'))if __name__ == "__main__":main()

部分输出结果:

...
260 0.5995925664901733 0.75
265 0.3791050910949707 1.0
270 0.42692136764526367 0.9375
275 0.4765201210975647 0.875
280 0.4071955382823944 0.9375
285 0.4194560945034027 0.875
290 0.449373722076416 0.9375
295 0.38813596963882446 1.0
300 0.5164415240287781 0.875
Acc:  0.89375

2--中文填空

        对训练数据的第15个词进行 mask 掉,预测第15个词;

        利用 bert 模型提取特征,对最后一个隐层的第15个token特征进行分类;

        分类用的是一个简单的线性层,其维度为(768, token.vocab_size),其中token.vocab_sized的大小为21128,即预测21128个词的分类分数,再与真实标签进行损失计算;

代码:

import torch
from datasets import load_dataset, load_from_disk
from transformers import BertTokenizer, BertModel, AdamW# 定义全局分词工具
token = BertTokenizer.from_pretrained('bert-base-chinese')# 定义数据集
class Dataset(torch.utils.data.Dataset):def __init__(self, split):dataset = load_dataset(path = 'lansinuote/ChnSentiCorp', split = split)# dataset = load_from_disk('./data/ChnSentiCorp')# dataset = dataset[split]def f(data):return len(data['text']) > 30self.dataset = dataset.filter(f) # 筛选数据集def __len__(self):return len(self.dataset)def __getitem__(self, i):text = self.dataset[i]['text']return textdef collate_fn(data):# batch编码data = token.batch_encode_plus(batch_text_or_text_pairs = data,truncation = True,padding = 'max_length',max_length = 30, # padding到30个词return_tensors = 'pt', # 返回pytorch格式return_length = True)input_ids = data['input_ids']attention_mask = data['attention_mask']token_type_ids = data['token_type_ids']# 把第15个词固定替换为masklabels = input_ids[:, 15].reshape(-1).clone() # 记录真实标签input_ids[:, 15] = token.get_vocab()[token.mask_token]return input_ids, attention_mask, token_type_ids, labels# 定义下游任务模型
class Model(torch.nn.Module):def __init__(self):super().__init__()self.decoder = torch.nn.Linear(768, token.vocab_size, bias=False) # token.vocab_size为21128,预测21128个词的分类分数self.bias = torch.nn.Parameter(torch.zeros(token.vocab_size))self.decoder.bias = self.biasself.pretrained = BertModel.from_pretrained('bert-base-chinese')# 固定预训练模型for param in self.pretrained.parameters():param.requires_grad = Falsedef forward(self, input_ids, attention_mask, token_type_ids):# 使用bert模型提取特征with torch.no_grad():output = self.pretrained(input_ids=input_ids, attention_mask=attention_mask, token_type_ids=token_type_ids)output = self.decoder(output.last_hidden_state[:, 15])return output# 测试
def test(model):model.eval()correct = 0total = 0loader_test = torch.utils.data.DataLoader(dataset = Dataset('test'), batch_size = 32, collate_fn = collate_fn, shuffle = True, drop_last = True)for idx, (input_ids, attention_mask, token_type_ids, labels) in enumerate(loader_test):input_ids = input_ids.cuda()attention_mask = attention_mask.cuda()token_type_ids = token_type_ids.cuda()labels = labels.cuda()if idx == 15: # 测试15个batchbreakwith torch.no_grad():output = model(input_ids=input_ids, attention_mask=attention_mask, token_type_ids=token_type_ids)output = output.argmax(dim=1)correct += (output == labels).sum().item()total += len(labels)print(token.decode(input_ids[0])) # 打印测试数据print("真实标签: ", token.decode(labels[0]), "预测标签: ", token.decode(labels[0]))print("Acc: ", correct / total)def main():# 初始化训练集dataset = Dataset('train')# 定义dataloaderloader = torch.utils.data.DataLoader(dataset = dataset,batch_size = 16,collate_fn = collate_fn,shuffle = True,drop_last = True)# 初始化模型model = Model().cuda()# 训练optimizer = AdamW(model.parameters(), lr=5e-4)criterion = torch.nn.CrossEntropyLoss().cuda()model.train()for epoch in range(5):for idx, (input_ids, attention_mask, token_type_ids, labels) in enumerate(loader):input_ids = input_ids.cuda()attention_mask = attention_mask.cuda()token_type_ids = token_type_ids.cuda()labels = labels.cuda()output = model(input_ids=input_ids, attention_mask=attention_mask, token_type_ids=token_type_ids)loss = criterion(output, labels)loss.backward()optimizer.step()optimizer.zero_grad()if idx % 50 == 0:output = output.argmax(dim=1)accuracy = (output == labels).sum().item() / len(labels)print(epoch, idx, loss.item(), accuracy)# 测试模型            test(model)if __name__ == "__main__":main()

部分输出结果:

4 300 0.633719801902771 1.0
4 350 0.8078413605690002 0.75
4 400 0.7607380747795105 0.75
4 450 1.2219955921173096 0.875
4 500 0.7912384867668152 0.8125
4 550 0.4526982307434082 0.875
Filter: 100%|██████████████████████████████████████████████████| 1200/1200 [00:00<00:00, 152215.71 examples/s]
[CLS] 1. 有 急 事 出 去 , 要 们 童 叫 出 租 [MASK] , 他 们 就 叫 酒 店 里 的 黑 车 , 价 [SEP]
真实标签:  车 预测标签:  车
[CLS] 酒 店 特 别 提 示 [ 2008 / 02 / 29 - 2008 [MASK] 08 / 30 ] 酒 店 对 面 立 交 桥 改 造 [SEP]
真实标签:  / 预测标签:  /
[CLS] 不 知 大 陆 观 众 有 多 少 看 过 台 湾 的 [MASK] 生 活 智 慧 王 [UNK] 节 目 , 里 面 介 绍 [SEP]
真实标签:  [ U N K ] 预测标签:  [ U N K ]
[CLS] 性 价 比 极 高 , 我 在 苏 宁 买 4699 , [MASK] 东 才 4399. 功 能 很 全 , 用 起 来 很 [SEP]
真实标签:  东 预测标签:  东
[CLS] 服 务 态 度 极 其 差 , 前 台 接 待 好 象 [MASK] 有 受 过 培 训 , 连 基 本 的 礼 貌 都 [SEP]
真实标签:  没 预测标签:  没
[CLS] 自 己 马 上 就 有 宝 宝 了 , 期 待 着 宝 [MASK] 降 临 人 世 , 所 以 提 前 看 看 家 教 [SEP]
真实标签:  宝 预测标签:  宝
[CLS] 《 阴 阳 师. 晴 明 取 瘤 》 这 本 书 买 [MASK] 来 放 在 书 架 上 好 段 日 子 , 我 都 [SEP]
真实标签:  回 预测标签:  回
[CLS] 出 差 入 住 的 酒 店, 订 了 个 三 人 间 [MASK] 房 间 没 空 调, 冷 得 要 死, 而 且 [SEP]
真实标签:  . 预测标签:  .
[CLS] 2007 年 9 月 11 日 256 元 住 普 通 标 间 , [MASK] 街 ( 其 它 房 型 已 无 ) 。 我 是 喜 [SEP]
真实标签:  临 预测标签:  临
[CLS] 1 、 作 为 便 携 本 , 重 了 一 点 , 厚 [MASK] 一 些 2 、 屏 幕 确 实 太 小 了 , 上 [SEP]
真实标签:  了 预测标签:  了
[CLS] 官 方 给 的 [UNK] 碟 子 和 驱 动 真 是 让 人 [MASK] 郁 闷 , 拿 到 还 是 自 己 重 新 装 的 [SEP]
真实标签:  很 预测标签:  很
[CLS] 外 观 设 计 别 出 心 裁 ! 配 置 均 衡 性 [MASK] 比 高 , 比 [UNK] 系 列 又 有 进 步 。 散 [SEP]
真实标签:  价 预测标签:  价
[CLS] 酒 店 的 位 置 很 好, 距 离 火 车 站 非 [MASK] 近. 总 提 感 觉 酒 店 的 性 价 比 不 [SEP]
真实标签:  常 预测标签:  常
[CLS] 虽 然 只 是 刚 刚 开 始 阅 读 , 但 是 已 [MASK] 给 我 带 来 很 多 思 想 冲 击 了 。 一 [SEP]
真实标签:  经 预测标签:  经
[CLS] 于 丹 的 < < 论 语 心 得 > > 简 直 就 [MASK] 胡 说 八 道 。 除 了 《 论 语 》 之 外 [SEP]
真实标签:  是 预测标签:  是
Acc:  0.7229166666666667

3--中文句子关系推断

代码:

import torch
import random
from datasets import load_dataset, load_from_disk
from transformers import BertTokenizer, BertModel, AdamW# 定义全局分词工具
token = BertTokenizer.from_pretrained('bert-base-chinese')# 定义数据集
class Dataset(torch.utils.data.Dataset):def __init__(self, split):# dataset = load_dataset(path='lansinuote/ChnSentiCorp', split=split)dataset = load_from_disk('./data/ChnSentiCorp')dataset = dataset[split]def f(data):return len(data['text']) > 40self.dataset = dataset.filter(f)def __len__(self):return len(self.dataset)def __getitem__(self, i):text = self.dataset[i]['text']# 切分一句话为前半句和后半句sentence1 = text[:20]sentence2 = text[20:40]label = 0 # label为0表示为同一句# 有一半的概率把后半句替换为一句无关的话if random.randint(0, 1) == 0:j = random.randint(0, len(self.dataset) - 1)sentence2 = self.dataset[j]['text'][20:40]label = 1return sentence1, sentence2, labeldef collate_fn(data):sents = [i[:2] for i in data]labels = [i[2] for i in data]# 编码data = token.batch_encode_plus(batch_text_or_text_pairs = sents,truncation = True,padding = 'max_length',max_length = 45,return_tensors = 'pt',return_length = True,add_special_tokens = True)input_ids = data['input_ids']attention_mask = data['attention_mask']token_type_ids = data['token_type_ids']labels = torch.LongTensor(labels)return input_ids, attention_mask, token_type_ids, labels# 定义下游任务模型
class Model(torch.nn.Module):def __init__(self):super().__init__()self.fc = torch.nn.Linear(768, 2) # 二分类self.pretrained = BertModel.from_pretrained('bert-base-chinese')# 固定预训练模型for param in self.pretrained.parameters():param.requires_grad = Falsedef forward(self, input_ids, attention_mask, token_type_ids):with torch.no_grad():output = self.pretrained(input_ids = input_ids, attention_mask = attention_mask, token_type_ids = token_type_ids)output = self.fc(output.last_hidden_state[:, 0])output = output.softmax(dim=1)return outputdef main():model = Model().cuda()optimizer = AdamW(model.parameters(), lr=5e-4)criterion = torch.nn.CrossEntropyLoss().cuda() # dataloaderloader = torch.utils.data.DataLoader(dataset = Dataset('train'),batch_size = 8,collate_fn = collate_fn,shuffle = True,drop_last = True)  # 训练model.train()for idx, (input_ids, attention_mask, token_type_ids, labels) in enumerate(loader):input_ids = input_ids.cuda()attention_mask = attention_mask.cuda()token_type_ids = token_type_ids.cuda()labels = labels.cuda()output = model(input_ids=input_ids, attention_mask=attention_mask, token_type_ids=token_type_ids)loss = criterion(output, labels)loss.backward()optimizer.step()optimizer.zero_grad()if idx % 5 == 0: # 每5个batch打印output = output.argmax(dim=1)accuracy = (output == labels).sum().item() / len(labels)print(idx, loss.item(), accuracy)if idx == 300: # 训练300个batchbreak# 测试test(model)# 定义测试函数
def test(model):model.eval()correct = 0total = 0loader_test = torch.utils.data.DataLoader(dataset = Dataset('test'),batch_size = 32,collate_fn = collate_fn,shuffle = True,drop_last = True)for idx, (input_ids, attention_mask, token_type_ids, labels) in enumerate(loader_test):input_ids = input_ids.cuda()attention_mask = attention_mask.cuda()token_type_ids = token_type_ids.cuda()labels = labels.cuda()if idx == 5: # 测试5个batchbreakwith torch.no_grad():output = model(input_ids=input_ids, attention_mask=attention_mask, token_type_ids=token_type_ids)pred = output.argmax(dim=1)correct += (pred == labels).sum().item()total += len(labels)print('acc:', correct / total)if __name__ == "__main__":main()

部分运行结果:

240 0.39283961057662964 0.875
245 0.7069525122642517 0.5
250 0.41953372955322266 0.875
255 0.5032698512077332 0.75
260 0.6422066688537598 0.75
265 0.5467717051506042 0.75
270 0.4452913701534271 0.875
275 0.5998544096946716 0.625
280 0.4301206171512604 0.875
285 0.5177156329154968 0.75
290 0.3987200856208801 0.875
295 0.33609679341316223 1.0
300 0.3723036050796509 0.875
acc: 0.925

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/179675.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

leetCode 216.组合总和 III + 回溯算法 + 剪枝 + 图解 + 笔记

找出所有相加之和为 n 的 k 个数的组合&#xff0c;且满足下列条件&#xff1a; 只使用数字1到9每个数字 最多使用一次 返回 所有可能的有效组合的列表 。该列表不能包含相同的组合两次&#xff0c;组合可以以任何顺序返回 示例 1: 输入: k 3, n 7 输出: [[1,2,4]] 解释…

kotlin中sealed语句的使用

sealed 密封类是 Kotlin 中的一种特殊类别&#xff0c;它的主要作用是限制类的继承结构。密封类用于表示受限的类继承结构&#xff0c;即一个值只能有有限几种类型&#xff0c;而不能有任意类型。密封类通常用于表示一种有限集合的类型。 下面是密封类的主要特性和作用&#x…

pinia从入门到使用

pinia: 比vuex更适合vue3的状态管理工具&#xff0c;只保留了vuex 原有的 state, getters&#xff0c;actions 作用等同于 data computed methods&#xff0c;可以有多个 state 1.安装创建导入 安装&#xff1a;npm install pinia 或 yarn add pinia 创建stores/index.js inde…

Springboot2+WebSocket

一、引入依赖 <dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-websocket</artifactId> </dependency> 二、添加配置 新增配置文件 config/WebSocketConfig.java import org.springframewo…

Jmeter接口测试和性能测试

目前最新版本发展到5.0版本&#xff0c;需要Java7以上版本环境&#xff0c;下载解压目录后&#xff0c;进入\apache-jmeter-5.0\bin\&#xff0c;双击ApacheJMeter.jar文件启动JMemter。 1、创建测试任务 添加线程组&#xff0c;右击测试计划&#xff0c;在快捷菜单单击添加-…

插入或更新学生信息的 SQL 语句

#! https://zhuanlan.zhihu.com/p/667794849 插入或更新学生信息的 SQL 语句 INSERT INTO student_info_table (id, name, age, gender, major, grade, attendance_state, last_attendance_time ) VALUES (?, ?, ?, ?, ?, ?, ?, ?) ON DUPLICATE KEY UPDATEname VALU…

【Python百宝箱】探索Python科学绘图宝库:交互与美学并存

前言 Python作为一种强大的编程语言&#xff0c;在数据科学领域展现出了巨大的优势。数据可视化作为数据科学的重要组成部分&#xff0c;为数据分析和解释提供了有力的工具。本文将深入探讨多个Python库&#xff0c;这些库不仅提供了丰富的绘图功能&#xff0c;而且能够满足不…

VSCode Vue 开发环境配置

Vue是前端开发中的重要工具与框架&#xff0c;可以保住开发者高效构建用户界面。 Vue2官方文档&#xff1a;https://v2.cn.vuejs.org/ Vue3官方文档&#xff1a;https://cn.vuejs.org/ Vue的安装和引用 Vue2的官方安装指南&#xff1a;https://v2.cn.vuejs.org/v2/guide/ins…

ESP32-Web-Server 实战编程-通过网页控制设备多个 GPIO

ESP32-Web-Server 实战编程-通过网页控制设备多个 GPIO 概述 上节 ESP32-Web-Server 实战编程-通过网页控制设备的 GPIO 讲述了如何通过网页控制一个 GPIO。本节实现在网页上控制多个 GPIO。 示例解析 前端设计 前端代码建立了四个 GPIO&#xff0c;如下死 GPIO 2 在前端的…

配置 Mantis 在 Windows 上的步骤

配置 Mantis Bug Tracker 在 Windows 上的步骤 Mantis Bug Tracker 是一款开源的缺陷跟踪系统&#xff0c;用于管理软件开发中的问题和缺陷。在 Windows 环境下配置 Mantis 可以帮助开发者更方便地进行项目管理。以下是一个详细的教程&#xff0c;包含了 EasyPHP Devserver 和…

python中字符串操作函数split的用法

在Python中&#xff0c;字符串操作最常用的split()函数&#xff0c;用于将字符串分割成子字符串&#xff0c;并返回一个包含这些子字符串的列表。split()函数通过指定分隔符将字符串拆分成多个部分。 split()函数的语法&#xff1a; str.split(separator, maxsplit)separator…

路径规划之A*算法

系列文章目录 路径规划之Dijkstra算法 路径规划之Best-First Search算法 路径规划之A*算法 路径规划之A*算法 系列文章目录前言一、前期准备1.1 算法对比1.2 数学式方法1.3 启发式方法 二、A*算法2.1 起源2.2 思想2.3 启发式函数2.4 过程2.5 案例查看 前言 之前提过Dijkstra算…

leetcode 1670

leetcode 1670 解题思路 使用2个deque作为类的成员变量 code class FrontMiddleBackQueue { public:deque<int> left;deque<int> right;FrontMiddleBackQueue() {}void pushFront(int val) {left.push_front(val);if(left.size() right.size()2){right.push_fr…

如何使用ArcGIS Pro制作一张北极俯视地图

地图的表现形式有很多种&#xff0c;经常我们看到的地图是以大西洋为中心的地图&#xff0c;还有以太平洋为中心的地图&#xff0c;今天要给大家介绍的地图是从北极上方俯视看的地图&#xff0c;这里给大家讲解一下制作方法&#xff0c;希望能对你有所帮助。 修改坐标系 制作…

带着GPT-4V(ision)上路,自动驾驶新探索

On the Road with GPT-4V(ision): Early Explorations of Visual-Language Model on Autonomous Driving GitHub | https://github.com/PJLab-ADG/GPT4V-AD-Exploration arXiv | https://arxiv.org/abs/2311.05332 自动驾驶技术的追求取决于对感知、决策和控制系统的复杂集成。…

Oracle常用系统变量

Oracle常用系统变量 当使用Oracle数据库时&#xff0c;可以通过系统变量来获取有关客户端连接、数据库和DDL操作的信息。以下是这些系统变量的详细介绍和示例代码&#xff1a; Ora_client_ip_address: 返回客户端的IP地址 应用场景&#xff1a;在数据库日志中记录客户端连接的…

vue项目中使用jsonp跨域请求百度联想接口

一. 内容简介 vue项目中使用jsonp跨域请求百度联想接口 二. 软件环境 2.1 Visual Studio Code 1.75.0 2.2 chrome浏览器 2.3 node v18.14.0 三.主要流程 3.1 代码 核心代码 // 这个是请求函数doLeno() {// 挂载回调函数&#xff0c;不挂载&#xff0c;会报不存在window…

Webshell混淆免杀的一些思路

简介 为了避免被杀软检测到&#xff0c;黑客们会对Webshell进行混淆免杀。本文将介绍一些Webshell混淆免杀的思路&#xff0c;帮助安全人员更好地防范Webshell攻击。静态免杀是指通过对恶意软件进行混淆、加密或其他技术手段&#xff0c;使其在静态分析阶段难以被杀毒软件或安全…

基于U2-Net如何训练一个一键抠图模型

1. 前言 抠图是图像编辑的基础功能之一&#xff0c;在抠图的基础上可以发展出很多有意思的玩法和特效。比如一键更换背景、一键任务卡通化、一键人物素描化等。正是因为这些有意思的玩法。 最近也是对此模型背后的网络很感兴趣&#xff0c;收集数据训练了人脸素描化模型&…

五、cookie、session、token、localstroage、sessionStroage区别

一、localStorage 跟 sessionStorage有什么不同&#xff1f;&#xff1f;&#xff1f;&#xff1f; localStorage 1、生命周期&#xff1a;localStorage的生命周期是永久的&#xff0c;关闭页面或浏览器之后localStorage中的数据也不会消失。localStorage除非主动删除数据&am…