基于albert的汽车评论情感分析【含代码】

汽车评论情感分析

  • 汽车评论情感数据集
  • 代码
    • 加载库与参数设置
    • 数据集的读取
    • 超参数设置与数据集的构建
    • 模型的训练与验证

汽车评论情感数据集

链接:https://pan.baidu.com/s/1K5TWrXbXBRXkCUpMbZq2XA
提取码:9mt9

代码

加载库与参数设置

首先先把一些基础的库进行加载

import random
import torch
from torch.utils.data import DataLoader
from transformers import AdamW, BertTokenizerFast, AutoModelForSequenceClassification
from sklearn.metrics import classification_report, accuracy_score, recall_score, f1_score
from tqdm import tqdm
# Set seed for reproducibility
import pandas as pd
import os
from sklearn.model_selection import train_test_split
import numpy as np

做实验时需要固定随机种子,方便实验的可重复性


# 设置种子
seed = 42random.seed(seed)
torch.manual_seed(seed)
os.environ["CUDA_VISIBLE_DEVICES"] = '0'  # 设置GPU型号# 设置训练装置为GPU或CPU
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

在这里设置GPU或CPU,如果你的机器存在多个GPU,则可以修改以下代码

os.environ["CUDA_VISIBLE_DEVICES"] = '0'修改为os.environ["CUDA_VISIBLE_DEVICES"] = '0,1,2,3'

在情感分析中,一般情况存在三种标签:消极、中性、积极。如果是更细粒度的标签,比如电商中对于评论分析有一星到五星的标签,则根据标签修改字典即可。

text_lst = []
label_lst = []
num = 0
label2id = {"消极": 0, "中性": 1, "积极": 2}

数据集的读取

读取数据集,并确保文本与标签数量相同。读者可根据自己实际情况进行修改该部分。

# 读取"消极"类别数据集
with open('negative.txt', 'r', encoding='utf-8') as f:lines = f.readlines()for idx, ele in enumerate(lines):ele = ele.strip('\n')text_lst.append(ele)label_lst.append(label2id['消极'])# 读取"中性"类别数据集
with open('neutral.txt', 'r', encoding='utf-8') as f:lines = f.readlines()for idx, ele in enumerate(lines):ele = ele.strip('\n')text_lst.append(ele)label_lst.append(label2id['中性'])# 读取"积极"类别数据集
with open('positive.txt', 'r', encoding='utf-8') as f:lines = f.readlines()for idx, ele in enumerate(lines):ele = ele.strip('\n')text_lst.append(ele)label_lst.append(label2id['积极'])# 打印文本和标签的数量,确认两者相同
print(len(text_lst))
print(len(label_lst))
assert len(text_lst) == len(label_lst)

超参数设置与数据集的构建

当准备好数据集后,开始初始化参数,然后进行训练前的基本工作。一般情况下,读者需要修改的参数为batch_size 和num_epochs ,其他参数无需修改。根据albert原始论文,学习率一般在e-5级别,因此可以保留默认参数(其实修改了也不会有很大优化)。

在本实验中,我们对数据集进行了4:1的划分,构建训练集和验证集。我们采用了albert_base_chinese模型,具体模型可以在huggingface下载

# 设置超参数
num_labels = len(set(label_lst))  # 根据数据集中的类别数量调整此参数
max_seq_length = 256
batch_size = 16
learning_rate = 2e-5
num_epochs = 10
accumulation_steps = 4# 加载分词器和模型
# model_name = "allenai/led-base-16384"
model_name = './albert_base_chinese'
tokenizer = BertTokenizerFast.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name, num_labels=num_labels).to(device)
model.resize_token_embeddings(len(tokenizer))# 分割文本和标签
texts = text_lst
labels = label_lst# 切分训练集和测试集,80%的训练集和20%的验证集
X_train, X_test, y_train, y_test = train_test_split(texts, labels, test_size=0.2, random_state=42, shuffle=True)# 对训练集和测试集文本进行编码
train_encodings = tokenizer(X_train, truncation=True, padding=True, max_length=max_seq_length, return_tensors="pt")
eval_encodings = tokenizer(X_test, truncation=True, padding=True, max_length=max_seq_length, return_tensors="pt")
train_labels = y_train
eval_labels = y_test# 创建训练和验证数据集
class ClassificationDataset(torch.utils.data.Dataset):def __init__(self, encodings, labels):self.encodings = encodingsself.labels = labelsdef __getitem__(self, idx):item = {key: val[idx].to(device) for key, val in self.encodings.items()}item["labels"] = torch.tensor(self.labels[idx]).to(device)return itemdef __len__(self):return len(self.labels)train_dataset = ClassificationDataset(train_encodings, y_train)
eval_dataset = ClassificationDataset(eval_encodings, y_test)

模型的训练与验证


# 创建用于训练和验证的数据加载器
train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
eval_loader = DataLoader(eval_dataset, batch_size=batch_size, shuffle=False)# 初始化变量来存储预测和真实标签以进行评估
all_eval_predictions = []
all_eval_true_labels = []# 准备优化器和损失函数
optimizer = AdamW(model.parameters(), lr=learning_rate)
loss_fn = torch.nn.CrossEntropyLoss()# 训练循环
model.train()
optimizer.zero_grad()
total_steps = len(train_loader) * num_epochs  # 计算总步数
current_step = 0  # 跟踪当前步数
best_f1 = 0
for epoch in range(num_epochs):# 重置下一个epoch的变量all_eval_predictions = []all_eval_true_labels = []model.train()train_loss = 0.0progress_bar = tqdm(train_loader, desc="Epoch {}/{}".format(epoch + 1, num_epochs))for i, batch in enumerate(progress_bar):input_ids = batch["input_ids"]attention_mask = batch["attention_mask"]labels = batch["labels"]# 将输入数据放入GPU或CPU中input_ids = input_ids.to(device)attention_mask = attention_mask.to(device)labels = labels.to(device)outputs = model(input_ids=input_ids, attention_mask=attention_mask, labels=labels)loss = outputs.loss# 进行梯度累加loss = loss / accumulation_stepsloss.backward()if (i + 1) % accumulation_steps == 0:optimizer.step()optimizer.zero_grad()train_loss += loss.item()progress_bar.set_postfix({"Training Loss": train_loss / (i + 1)})# 更新当前步数current_step += 1progress = current_step / total_stepsprogress_bar.set_postfix({"Training Loss": train_loss / (i + 1), "Progress": "{:.1%}".format(progress)})# 验证循环model.eval()for eval_batch in tqdm(eval_loader, desc="Evaluating"):# 将输入数据放入GPU或CPU中eval_input_ids = eval_batch["input_ids"].to(device)eval_attention_mask = eval_batch["attention_mask"].to(device)eval_labels = eval_batch["labels"].to(device)with torch.no_grad():eval_outputs = model(input_ids=eval_input_ids, attention_mask=eval_attention_mask)eval_logits = eval_outputs.logitseval_predictions = torch.argmax(eval_logits, dim=1).tolist()all_eval_predictions.extend(eval_predictions)all_eval_true_labels.extend(eval_labels.tolist())# 计算验证指标,准确率、召回率和F1值eval_accuracy = accuracy_score(all_eval_true_labels, all_eval_predictions)eval_recall = recall_score(all_eval_true_labels, all_eval_predictions, average='weighted')eval_f1 = f1_score(all_eval_true_labels, all_eval_predictions, average='weighted')eval_accuracy = eval_accuracy * 100eval_recall = eval_recall * 100eval_f1 = eval_f1 * 100if eval_f1 > best_f1:best_f1 = eval_f1torch.save(model.state_dict(), './output/best_model.bin')# 打印验证指标print("Validation Accuracy: {:.2f}%".format(eval_accuracy))print("Validation Recall: {:.2f}%".format(eval_recall))print("Validation F1: {:.2f}%".format(eval_f1))print("classification_report:\n", classification_report(all_eval_true_labels, all_eval_predictions))

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/601761.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

C#使用条件语句判断用户登录身份

目录 一、示例 二、生成 利用条件语句判断用户登录身份,根据用户登录身份的不同,给予相应的操作权限。 一、示例 主要用if语句及ComboBox控件。其中,ComboBox是窗体中的下拉列表控件,在使用ComboBox控件前,可以先向…

YoloV7改进策略:基于频域多轴表示学习模块|全网首发|高效涨点|代码注释详解

摘要 涨点效果: 本文尝试使用频域多轴表示学习模块改进YoloV7,尝试了三种改进方式,均有不同的涨点。 论文:《医学图像分割中的频域多轴表示学习》 https://arxiv.org/pdf/2312.17030v1.pdf 最近,视觉Transformer (ViT)在医学图像分割(MIS)中得到了广泛应用,这归功于…

springboot实现ChatGPT式调用(一次调用,持续返回)

下边实现了一个持续返回100以内随机数的接口,在接口超时之前会每隔1秒返回一个随机数 GetMapping(value "/getRandomNum", produces MediaType.TEXT_EVENT_STREAM_VALUE) public SseEmitter getRandomNum() {SseEmitter emitter new SseEmitter();Th…

【airsim】python控制airsim

使用airsim 1.8.1编译完成,进过block项目在cpp测试后,开始踩坑使用python。 使用AirSim\PythonClient\setup.py或者pip安装airsim。 python setup.py install或者 pip install airsim此时,windows电脑的环境信息 (air_py38) D:\code\Gith…

如何计算CAN通信波特率

目录 1、理论 2、实践 3、注意事项 在CAN总线系统中,波特率的计算是一个关键步骤,它确保网络上的所有设备能够以相同的速率进行通信。 1、理论 波特率的计算涉及到几个关键参数,包括CAN控制器的时钟频率、分频因子、以及位时间的不同部分…

vue icon 本地正常 线上打包失败变乱码

出现这个原因是因为sass解析的问题 Node版本高的话可以通过升级sass版本 并且配置vue.config规避这个问题 //给sass配置的东西 这个对应的版本是sass 1.39.0 本人node版本v14 升级sass版本后出现报错css: {loaderOptions: {scss: {additionalData: import "/styles/var…

JVM知识总结(简单且高效)

1. JVM内存与本地内存 JVM内存:受虚拟机内存大小的参数控制,当大小超过参数设置的大小时会报OOM。本地内存:本地内存不受虚拟机内存参数的限制,只受物理内存容量的限制;虽然不受参数的限制,如果所占内存超过…

软件工程概论------文件管理

目录 1.文件的相关概念 2.文件目录 3.位示图 4.索引文件 5.例题 1.文件的相关概念 文件:具有符号名的、在逻辑上具有完整意义的一组相关信息项的集合。 逻辑结构:有结构的记录式文件、无结构的流式文件。 物理结构: 连续结构、链接结构、索引结构、多个物理块的索引表。 …

ROS-arbotix安装

方式一:命令行输入: sudo apt-get install ros-melodic-arbotix如果ROS为其他版本,可将melodic替换为对应版本。 方式二: 先从 github 下载源码,然后调用 catkin_make 编译 git clone https://github.com/vanadiumla…

MySQL--基础篇

这里写目录标题 总览MySQl各个阶段基础篇总览 MySQL概述数据库相关概念查看本机MySQL版本号启停mysql打开windows服务管理windows命令行启停 连接mysql客户端mysql运行逻辑数据模型关系型数据库 总结 SQL总览SQL通用语法SQL语句分类DDL数据库操作表操作查询表创建表结构数据类型…

sublim安装Autoprefixer插件

有时候在写css样式的时候,分不清哪些属性需要前缀,哪些不需要写前缀,sublime text这款编辑器下安装autoprefixer这款插件可以省去很多问题,写起来也很方便。1 确保系统已经安装node.js 可直接去官网上下载并安装,我的系…

c语言:用结构体找出学生年龄|练习题

一、题目 在结构体数组中&#xff0c;输入学生信息&#xff0c;找出学生的年龄。 如图&#xff1a; 二、代码图片【带注释】 三、源代码【带注释】 #include <stdio.h> //设置结构体&#xff0c;结构体有3个变量 struct student { int id; char name[20]; …

BMTrain来高效训练预训练模型-大模型的福音

一.背景知识 在2018年&#xff0c;预训练语言模型技术的出现成为人工智能领域一场革命性的变革。研究表明&#xff0c;通过增加模型参数量和训练数据规模&#xff0c;可以有效提升语言模型的性能&#xff0c;因此十亿、百亿甚至千亿级大模型的探索成为业界的热门话题。这一趋势…

使用Spring Cache优化数据库访问

使用Spring Cache优化数据库访问 在这篇博客中&#xff0c;我们将学习如何使用Spring Cache来优化数据库访问&#xff0c;提高系统性能。我们将创建一个简单的图书管理应用作为示例&#xff0c;并演示如何通过缓存减少对数据库的频繁查询。 1. 项目结构 首先&#xff0c;我们…

使用vite构建Vue3项目

1、安装vite npm init vitelatest npm构建vite项目 yarn create vite yarn构建vite项目2、依次需要配置项目名 、框架选择、原生和ts版本的选择 r enter 重新开始服务 o enter 快速打开浏览器3、项目启动效果

TCP_可靠数据传输原理

引言 在网络通信中&#xff0c;TCP是确保数据可靠传输的关键协议。但在我们深入研究TCP拥塞控制技术之前&#xff0c;让我们先探索可靠数据传输的原理&#xff0c;特别是TCP头部中一些重要字段的作用。 网络层提供了点对点的通信服务&#xff0c;努力交付数据报&#xff0c;但…

根据具体时间转换为一周前、几小时前格式

export function formatChangeTime(dateTimeStamp){// dateTimeStamp是一个时间毫秒&#xff0c;注意时间戳是秒的形式&#xff0c;在这个毫秒的基础上除以1000let minute 1000 * 60; //把分&#xff0c;时&#xff0c;天&#xff0c;周&#xff0c;半个月&#xff0c;一…

Python课程设计基于python的人脸识别佩戴口罩系统设计

wx供重浩&#xff1a;创享日记 对话框发送&#xff1a;python口罩 获取完整论文报告源码源文件 1 研究背景与意义 新型冠状病毒展现出全球化流行和蔓延的趋势&#xff0c;这提醒我们&#xff1a;传染病防治在今后相当长时间内仍是疾病预测控制工作的重点。戴口罩是预防呼吸道…

Qt应用-实现图像截取功能类似QQ上传头像截取功能

本文演示利用Qt实现图像截取功能类似QQ上传头像截取功能。 效果如下,通过移动中间的裁剪区域可以获得一张裁剪后的图片。 目录

UE4运用C++和框架开发坦克大战教程笔记(十四)(第43~45集)

UE4运用C和框架开发坦克大战教程笔记&#xff08;十四&#xff09;&#xff08;第43~45集&#xff09; 43. 单个加载 UObject 功能获取资源 URL 链接实现异步加载单个 UObject 类型资源 44. 批量加载 UObject 功能测试加载单个 UObject 资源批量加载多个同类的 UObject 资源 45…