pytorch经典训练流程

文章目录

    • @[toc]
      • 1. **经典训练流程和任务:监督学习**
        • **1.1 什么是监督学习?**
        • **1.2 为什么要设计训练流程?**
        • **1.3 怎么设计训练流程?**
        • **代码示例:监督学习的典型流程**
      • 2. **超参数设置**
        • **2.1 什么是超参数?**
        • **2.2 为什么要设置超参数?**
        • **2.3 怎么设置超参数?**
        • **代码示例:设置超参数**
      • 3. **数据集预处理(Pre-transform)**
        • **3.1 什么是数据集预处理?**
        • **3.2 为什么要预处理?**
        • **3.3 怎么做预处理?**
        • **代码示例:数据预处理**
      • 4. **数据集加载**
        • **4.1 什么是数据集加载?**
        • **4.2 为什么需要数据集加载器?**
        • **4.3 怎么加载数据集?**
        • **代码示例:数据加载**
      • 5. **数据集后处理(Transform)**
        • **5.1 什么是数据集后处理?**
        • **5.2 为什么需要后处理?**
        • **5.3 常见的后处理操作**
        • **代码示例:数据集后处理**
        • **可视化增强后的数据**
      • 6. **模型初始化、优化器初始化**
        • **6.1 什么是模型初始化?**
        • **6.2 为什么要初始化模型?**
        • **6.3 怎么初始化模型?**
        • **代码示例:模型初始化**
        • **优化器初始化**
      • 7. **多个 Epoch 的训练:梯度下降**
        • **7.1 什么是梯度下降?**
        • **7.2 为什么要多次训练(多个 Epoch)?**
        • **7.3 训练流程**
        • **代码示例:多个 Epoch 的训练**
      • 8. **中间结果打印 (Loss, Accuracy 等)**
        • **8.1 为什么打印中间结果?**
        • **8.2 什么是常见的中间结果?**
        • **8.3 怎么计算和打印中间结果?**
        • **代码示例:中间结果打印**
        • **8.4 增加验证过程**
        • **8.5 可视化训练曲线**

1. 经典训练流程和任务:监督学习

1.1 什么是监督学习?

监督学习是一种机器学习方法,模型通过已标注的数据(输入与输出)进行训练,从而学习从输入预测输出的映射关系。其目标是让模型能够在未标注的新数据上作出准确预测。

典型任务:

  • 分类任务:预测输入属于哪个类别(例如图像分类、垃圾邮件检测)。
  • 回归任务:预测连续的数值(例如房价预测、股票预测)。
1.2 为什么要设计训练流程?

监督学习的目标是最小化模型预测输出和真实输出之间的误差(称为损失)。一个标准的训练流程可以帮助我们:

  1. 有效利用数据 :通过批量化处理大数据集,逐步优化模型参数。
  2. 动态调整模型 :通过多轮迭代学习更好的参数。
  3. 评估模型性能 :通过指标(例如准确率、损失值)判断模型效果。
1.3 怎么设计训练流程?

一个典型的监督学习训练流程包括以下步骤:

  1. 准备数据(加载、预处理)。
  2. 初始化模型。
  3. 定义损失函数和优化器。
  4. 执行多个 epoch 的训练(包括前向传播、损失计算、反向传播、参数更新)。
  5. 评估模型性能。
代码示例:监督学习的典型流程

以下是一个简单的监督学习流程,用于分类任务(例如使用 MNIST 手写数字数据集):

# 1. 加载必要的库
import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader
from torchvision import datasets, transforms# 2. 数据准备
transform = transforms.Compose([transforms.ToTensor(),  # 转换为张量transforms.Normalize((0.5,), (0.5,))  # 标准化
])# 加载MNIST数据集
train_dataset = datasets.MNIST(root='./data', train=True, transform=transform, download=True)
test_dataset = datasets.MNIST(root='./data', train=False, transform=transform, download=True)train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=64, shuffle=False)# 3. 模型初始化
class SimpleNN(nn.Module):def __init__(self):super(SimpleNN, self).__init__()self.fc = nn.Sequential(nn.Flatten(),  # 展平输入nn.Linear(28 * 28, 128),  # 全连接层nn.ReLU(),  # 激活函数nn.Linear(128, 10)  # 输出层(10类别))def forward(self, x):return self.fc(x)model = SimpleNN()# 4. 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()  # 交叉熵损失
optimizer = optim.SGD(model.parameters(), lr=0.01)  # 随机梯度下降优化器# 5. 训练流程
epochs = 5
for epoch in range(epochs):model.train()running_loss = 0.0for batch_idx, (inputs, labels) in enumerate(train_loader):# 清除之前的梯度optimizer.zero_grad()# 前向传播outputs = model(inputs)loss = criterion(outputs, labels)# 反向传播和参数更新loss.backward()optimizer.step()running_loss += loss.item()print(f"Epoch {epoch+1}/{epochs}, Loss: {running_loss/len(train_loader):.4f}")# 6. 模型评估
model.eval()
correct = 0
total = 0
with torch.no_grad():for inputs, labels in test_loader:outputs = model(inputs)_, predicted = torch.max(outputs, 1)  # 获取最大值对应的类别correct += (predicted == labels).sum().item()total += labels.size(0)print(f"Accuracy: {100 * correct / total:.2f}%")

2. 超参数设置

2.1 什么是超参数?

超参数是那些在训练模型之前手动设置的参数,而不是通过训练自动学习的参数。超参数对模型性能和训练过程有重要影响。常见的超参数包括:

  • 学习率(learning rate):决定每次参数更新的步长大小。
  • 批量大小(batch size):决定一次训练中使用的样本数。
  • 训练轮数(epochs):模型在整个数据集上训练的完整次数。
  • 隐藏层的层数和单元数(网络结构相关)。
  • 优化器类型(如 SGD, Adam)。
2.2 为什么要设置超参数?

合理的超参数设置可以:

  1. 提升训练效率 :加速收敛,减少训练时间。
  2. 提高模型性能 :避免欠拟合或过拟合。
  3. 改善稳定性 :避免训练过程中的数值不稳定或发散。

超参数通常需要通过经验或网格搜索、随机搜索等方法来确定最佳值。

2.3 怎么设置超参数?

以下是常见的超参数设置和推荐值:

  1. 学习率 :较小值(如 0.001~0.01)通常较稳定,但训练慢;较大值(如 0.1)可能加速训练,但易导致不收敛。
  2. 批量大小 :32、64 或 128 是常用的值,GPU 通常能更好地处理较大的 batch。
  3. 训练轮数 :视数据集大小和模型复杂度而定,通常设置为 5~100。
  4. 优化器 :推荐从 Adam 开始,默认参数 lr=0.001
代码示例:设置超参数

以下是一个简单的超参数设置示例,包含了常见的超参数配置:

# 超参数定义
learning_rate = 0.01  # 学习率
batch_size = 64       # 批量大小
epochs = 10           # 训练轮数# 数据加载
train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)# 模型、损失函数和优化器初始化
model = SimpleNN()
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=learning_rate)# 输出超参数设定
print(f"Hyperparameters:\n Learning Rate: {learning_rate}\n Batch Size: {batch_size}\n Epochs: {epochs}")

3. 数据集预处理(Pre-transform)

3.1 什么是数据集预处理?

数据集预处理是指在模型训练前对原始数据进行转换,使其适合输入到模型中。典型的预处理包括:

  • 图像归一化、缩放。
  • 缺失值填充。
  • 特征工程(如词嵌入、独热编码)。

在深度学习中,pre-transform 通常是一次性操作,处理后的数据保存到磁盘,后续训练直接加载以节省时间。

3.2 为什么要预处理?
  1. 提高模型训练效果 :例如,归一化可以加快收敛速度。
  2. 减少数据噪声 :例如,去掉异常值。
  3. 统一数据格式 :确保数据符合模型输入要求。
3.3 怎么做预处理?

以下以 MNIST 数据集为例说明预处理:

  • 归一化:将像素值从 [0, 255] 映射到 [0, 1]
  • 标准化:使数据均值为 0,标准差为 1。
代码示例:数据预处理
# 定义预处理操作
transform = transforms.Compose([transforms.ToTensor(),  # 转为 PyTorch 张量transforms.Normalize((0.5,), (0.5,))  # 标准化:均值为0,方差为1
])# 加载并预处理数据集
train_dataset = datasets.MNIST(root='./data', train=True, transform=transform, download=True)
test_dataset = datasets.MNIST(root='./data', train=False, transform=transform, download=True)# 数据加载器
train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)

4. 数据集加载

4.1 什么是数据集加载?

数据集加载是指将数据从存储介质中读取到内存中,并按需提供给模型训练的过程。PyTorch 提供了 DataLoader 方便进行批量化加载数据。

4.2 为什么需要数据集加载器?
  1. 批量化处理 :分批加载可以减少内存占用,加速训练。
  2. 随机性 :支持数据打乱(shuffle),有助于减少模型对数据顺序的依赖。
  3. 并行化 :支持多线程加载数据,提高数据读取效率。
4.3 怎么加载数据集?
  • DataLoader 是核心工具,可以控制批量大小、是否打乱、加载线程数等。
代码示例:数据加载
from torch.utils.data import DataLoader# 批量加载数据
train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True, num_workers=2)
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False, num_workers=2)# 查看一个 batch 的数据
data_iter = iter(train_loader)
images, labels = next(data_iter)print(f"Batch size: {images.size()}")  # 打印形状 (batch_size, 1, 28, 28)
print(f"Labels: {labels}")             # 打印标签

下一步,将详细讲解 数据集后处理(Transform) 和其他剩余内容。

5. 数据集后处理(Transform)

5.1 什么是数据集后处理?

数据集后处理是指在每次运行训练或推理时,对加载后的数据进行动态转换操作。这些操作和预处理(Pre-transform)不同,它们会在每次访问数据时应用,而不是一次性保存到磁盘。典型操作包括:

  • 数据增强(如随机裁剪、旋转)。
  • 数据格式转换(如将图片转换为张量)。
  • 特定模型需求的格式调整。
5.2 为什么需要后处理?
  1. 增加数据多样性 :数据增强通过对原始数据的变换提高模型的泛化能力。
  2. 简化训练流程 :通过动态调整避免为每种场景重新处理数据。
  3. 满足特定需求 :根据不同模型需求生成合适的输入。
5.3 常见的后处理操作

以下列举了图像任务中常见的后处理操作:

  • 随机裁剪(RandomCrop)。
  • 随机旋转(RandomRotation)。
  • 随机翻转(RandomHorizontalFlip)。
  • 图像缩放(Resize)。
代码示例:数据集后处理

以下代码实现了动态的数据增强和标准化操作:

from torchvision import transforms# 定义数据增强和标准化操作
transform = transforms.Compose([transforms.RandomHorizontalFlip(p=0.5),  # 50%概率水平翻转transforms.RandomRotation(degrees=10),  # 随机旋转 -10 到 10 度transforms.ToTensor(),                  # 转为张量transforms.Normalize((0.5,), (0.5,))    # 标准化
])# 加载训练数据集(应用transform)
train_dataset = datasets.MNIST(root='./data', train=True, transform=transform, download=True)# 数据加载器
train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)# 查看一个经过后处理的数据样本
data_iter = iter(train_loader)
images, labels = next(data_iter)print(f"Image batch shape: {images.size()}")  # 打印形状
print(f"Label batch: {labels}")
可视化增强后的数据

你还可以可视化数据增强后的图像,直观观察后处理效果:

import matplotlib.pyplot as plt# 可视化前几个图像
for i in range(6):plt.subplot(2, 3, i+1)plt.imshow(images[i].squeeze().numpy(), cmap='gray')plt.title(f"Label: {labels[i].item()}")
plt.tight_layout()
plt.show()

6. 模型初始化、优化器初始化

6.1 什么是模型初始化?

模型初始化是定义模型结构,并为模型的参数赋初值的过程。在 PyTorch 中,模型通过继承 torch.nn.Module 来构建。模型的参数在定义时会默认随机初始化。

6.2 为什么要初始化模型?
  1. 定义网络结构 :为任务设计合适的模型结构。
  2. 参数初始化 :参数初始化对训练过程至关重要,好的初始化方式可以加速收敛并减少梯度消失或爆炸问题。
6.3 怎么初始化模型?
  • PyTorch 提供了多种参数初始化方式(如 Xavier 初始化、He 初始化)。
  • 模型结构在 __init__ 方法中定义,前向计算逻辑在 forward 方法中定义。
代码示例:模型初始化

以下示例构建了一个简单的卷积神经网络(CNN):

import torch.nn as nn
import torch.nn.functional as Fclass SimpleCNN(nn.Module):def __init__(self):super(SimpleCNN, self).__init__()# 定义网络层self.conv1 = nn.Conv2d(1, 16, kernel_size=3, stride=1, padding=1)  # 输入通道1,输出通道16self.conv2 = nn.Conv2d(16, 32, kernel_size=3, stride=1, padding=1)self.fc1 = nn.Linear(32 * 7 * 7, 128)  # 全连接层self.fc2 = nn.Linear(128, 10)def forward(self, x):# 定义前向传播x = F.relu(self.conv1(x))x = F.max_pool2d(x, 2)  # 最大池化x = F.relu(self.conv2(x))x = F.max_pool2d(x, 2)x = x.view(x.size(0), -1)  # 展平x = F.relu(self.fc1(x))x = self.fc2(x)return x# 初始化模型
model = SimpleCNN()
print(model)
优化器初始化

优化器是用于更新模型参数的工具。在初始化时,需要指定优化器类型和学习率。

# 定义优化器
optimizer = optim.Adam(model.parameters(), lr=0.001)# 打印模型的可训练参数
for name, param in model.named_parameters():print(name, param.shape, param.requires_grad)

7. 多个 Epoch 的训练:梯度下降

7.1 什么是梯度下降?

梯度下降是深度学习中优化模型参数的核心算法。它通过计算损失函数相对于模型参数的梯度,逐步更新参数以最小化损失。

7.2 为什么要多次训练(多个 Epoch)?
  1. 充分学习数据 :单次遍历数据(一个 epoch)通常不足以学到有效的参数。
  2. 渐进式优化 :每次迭代(mini-batch)更新参数,多个 epoch 能够进一步减少损失。
7.3 训练流程

每个 epoch 的训练包括:

  1. 前向传播 :计算模型输出和损失。
  2. 反向传播 :通过梯度计算更新参数。
  3. 评估中间结果 :打印损失、准确率等指标。
代码示例:多个 Epoch 的训练
epochs = 5
for epoch in range(epochs):model.train()total_loss = 0.0for inputs, labels in train_loader:optimizer.zero_grad()  # 清除梯度outputs = model(inputs)  # 前向传播loss = criterion(outputs, labels)  # 计算损失loss.backward()  # 反向传播optimizer.step()  # 参数更新total_loss += loss.item()print(f"Epoch {epoch+1}/{epochs}, Loss: {total_loss/len(train_loader):.4f}")

8. 中间结果打印 (Loss, Accuracy 等)

8.1 为什么打印中间结果?

在训练过程中打印中间结果(例如损失和准确率)有以下重要意义:

  1. 监控训练过程 :可以观察模型是否正常收敛,避免梯度爆炸或梯度消失。
  2. 调试和排错 :如果损失不减小或表现异常,可能是模型结构或超参数设置的问题。
  3. 评估性能趋势 :通过观察准确率的变化,判断模型是否欠拟合或过拟合。
8.2 什么是常见的中间结果?
  1. 训练损失(Training Loss) :表示模型在训练数据上的误差。
  2. 验证损失(Validation Loss) :表示模型在验证数据上的误差,用于监控模型的泛化能力。
  3. 训练准确率(Training Accuracy) :模型在训练数据上的分类正确率。
  4. 验证准确率(Validation Accuracy) :模型在验证数据上的分类正确率。

8.3 怎么计算和打印中间结果?
  1. 损失计算 :通过定义的损失函数 criterion 直接计算。
  2. 准确率计算 :通过比较模型输出的预测值与真实标签,统计预测正确的数量。
  3. 打印格式优化 :可以采用 print 或日志工具(如 logging)打印结果。

代码示例:中间结果打印

以下是训练过程中打印损失和准确率的完整代码示例:

# 定义一个函数计算准确率
def compute_accuracy(outputs, labels):_, predicted = torch.max(outputs, 1)  # 获取预测值的类别correct = (predicted == labels).sum().item()  # 统计正确数量accuracy = correct / labels.size(0)  # 计算准确率return accuracy# 训练过程
epochs = 5
for epoch in range(epochs):model.train()total_loss = 0.0total_accuracy = 0.0for inputs, labels in train_loader:optimizer.zero_grad()  # 清除梯度outputs = model(inputs)  # 前向传播loss = criterion(outputs, labels)  # 计算损失loss.backward()  # 反向传播optimizer.step()  # 参数更新total_loss += loss.item()  # 累积损失total_accuracy += compute_accuracy(outputs, labels)  # 累积准确率avg_loss = total_loss / len(train_loader)  # 平均损失avg_accuracy = total_accuracy / len(train_loader)  # 平均准确率print(f"Epoch {epoch+1}/{epochs}, Loss: {avg_loss:.4f}, Accuracy: {avg_accuracy:.4f}")

8.4 增加验证过程

通常,在每个 epoch 的末尾会用验证集进行评估,以监控模型的泛化性能。

# 验证过程
def validate_model(model, val_loader, criterion):model.eval()  # 设置为评估模式total_loss = 0.0total_accuracy = 0.0with torch.no_grad():  # 禁用梯度计算for inputs, labels in val_loader:outputs = model(inputs)loss = criterion(outputs, labels)total_loss += loss.item()total_accuracy += compute_accuracy(outputs, labels)avg_loss = total_loss / len(val_loader)avg_accuracy = total_accuracy / len(val_loader)return avg_loss, avg_accuracy# 在训练中加入验证
for epoch in range(epochs):# 训练model.train()train_loss = 0.0train_accuracy = 0.0for inputs, labels in train_loader:optimizer.zero_grad()outputs = model(inputs)loss = criterion(outputs, labels)loss.backward()optimizer.step()train_loss += loss.item()train_accuracy += compute_accuracy(outputs, labels)# 验证val_loss, val_accuracy = validate_model(model, test_loader, criterion)# 打印训练和验证结果print(f"Epoch {epoch+1}/{epochs}")print(f"  Training  - Loss: {train_loss/len(train_loader):.4f}, Accuracy: {train_accuracy/len(train_loader):.4f}")print(f"  Validation - Loss: {val_loss:.4f}, Accuracy: {val_accuracy:.4f}")

8.5 可视化训练曲线

为了更清楚地观察训练过程中的趋势,可以通过可视化工具绘制损失和准确率曲线:

import matplotlib.pyplot as plt# 记录损失和准确率
train_losses, val_losses = [], []
train_accuracies, val_accuracies = [], []for epoch in range(epochs):# 训练model.train()train_loss = 0.0train_accuracy = 0.0for inputs, labels in train_loader:optimizer.zero_grad()outputs = model(inputs)loss = criterion(outputs, labels)loss.backward()optimizer.step()train_loss += loss.item()train_accuracy += compute_accuracy(outputs, labels)# 验证val_loss, val_accuracy = validate_model(model, test_loader, criterion)# 保存结果train_losses.append(train_loss / len(train_loader))val_losses.append(val_loss)train_accuracies.append(train_accuracy / len(train_loader))val_accuracies.append(val_accuracy)# 绘制曲线
plt.figure(figsize=(12, 5))# 损失曲线
plt.subplot(1, 2, 1)
plt.plot(range(epochs), train_losses, label='Train Loss')
plt.plot(range(epochs), val_losses, label='Validation Loss')
plt.xlabel('Epochs')
plt.ylabel('Loss')
plt.legend()
plt.title('Loss Curve')# 准确率曲线
plt.subplot(1, 2, 2)
plt.plot(range(epochs), train_accuracies, label='Train Accuracy')
plt.plot(range(epochs), val_accuracies, label='Validation Accuracy')
plt.xlabel('Epochs')
plt.ylabel('Accuracy')
plt.legend()
plt.title('Accuracy Curve')plt.tight_layout()
plt.show()

  1. 中间结果打印是训练中的重要环节,可以帮助实时了解模型的训练和验证性能。
  2. 可以通过 print 或绘制曲线,直观展示损失和准确率的变化趋势。
  3. 验证集的使用能有效监控模型的泛化性能,避免过拟合。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/887415.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【C语言】传值调用与传址调用:深度解析与实现

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳] 本文专栏: C语言 文章目录 💯前言💯什么是传值调用和传址调用?1. 传值调用(Call by Value)2. 传址调用(Call by Reference) 💯传值调…

科技赋能健康:多商户Java版商城系统引领亚健康服务数字化变革

在当今社会,随着生活节奏的加快和工作压力的增大,越来越多的人处于亚健康状态。据《The Lancet》期刊2023年的统计数据显示,全球亚健康状态的人群比例已高达82.8%,这一数字背后,隐藏着巨大的健康风险和社会成本。亚健康…

vue实现列表滑动下拉加载数据

一、实现效果 二、实现思路 使用滚动事件监听器来检测用户是否滚动到底部&#xff0c;然后加载更多数据 监听滚动事件。检测用户是否滚动到底部。加载更多数据。 三、案例代码 <div class"drawer-content"><div ref"loadMoreTrigger" class&q…

【CSP CCF记录】201809-2第14次认证 买菜

题目 样例输入 4 1 3 5 6 9 13 14 15 2 4 5 7 10 11 13 14 样例输出 3 思路 易错点&#xff1a;仅考虑所给样例&#xff0c;会误以为H和W两人的装车时间是一一对应的&#xff0c;那么提交结果的运行错误就会让你瞬间清醒。 本题关键是认识到H和W的装车时间不一定一一对应&…

学习threejs,使用设置bumpMap凹凸贴图创建褶皱,实现贴图厚度效果

&#x1f468;‍⚕️ 主页&#xff1a; gis分享者 &#x1f468;‍⚕️ 感谢各位大佬 点赞&#x1f44d; 收藏⭐ 留言&#x1f4dd; 加关注✅! &#x1f468;‍⚕️ 收录于专栏&#xff1a;threejs gis工程师 文章目录 一、&#x1f340;前言1.1 ☘️THREE.MeshPhongMaterial高…

GoF设计模式——结构型设计模式分析与应用

文章目录 UML图的结构主要表现为&#xff1a;继承&#xff08;抽象&#xff09;、关联 、组合或聚合 的三种关系。1. 继承&#xff08;抽象&#xff0c;泛化关系&#xff09;2. 关联3. 组合/聚合各种可能的配合&#xff1a;1. 关联后抽象2. 关联的集合3. 组合接口4. 递归聚合接…

Unity中动态生成贴图并保存成png图片实现

实现原理&#xff1a; 要生成长x宽y的贴图&#xff0c;就是生成x*y个像素填充到贴图中&#xff0c;如下图&#xff1a; 如果要改变局部颜色&#xff0c;就是从x1到x2(x1<x2),y1到y2(y1<y2)这个范围做处理&#xff0c; 或者要想做圆形就是计算距某个点&#xff08;x1,y1&…

互联网直播/点播EasyDSS视频推拉流平台视频点播有哪些技术特点?

在数字化时代&#xff0c;视频点播应用已经成为我们生活中不可或缺的一部分。监控技术与视频点播的结合正悄然改变着我们获取和享受媒体内容的方式。这一变革不仅体现在技术层面的进步&#xff0c;更深刻地影响了我们。 EasyDSS视频直播点播平台是一款高性能流媒体服务软件。E…

1语言基础

数据结构与算法可以说是每位程序员的必修课&#xff0c;即使是AI高速发展的今天&#xff0c;熟悉数据结构与算法都无疑是面向开发的一项加分项。先从一个问题看起&#xff1a; # 怎么让后面不带空格 print("11",11) # 11 2方案可能有更多&#xff0c;就像一个问题&am…

Redis 可观测最佳实践

Redis 介绍 Redis 是一个开源的高性能键值对&#xff08;key-value&#xff09;数据库。它通常用作数据库、缓存和消息代理。Redis 支持多种类型的数据结构&#xff0c;Redis 通常用于需要快速访问的场景&#xff0c;如会话缓存、全页缓存、排行榜、实时分析等。由于其高性能和…

【前端】JavaScript 变量声明和函数声明的提升机制:深入探讨提升优先级与其行为

博客主页&#xff1a; [小ᶻ☡꙳ᵃⁱᵍᶜ꙳] 本文专栏: 前端 文章目录 &#x1f4af;前言&#x1f4af;提升&#xff08;Hoisting&#xff09;概述&#x1f4af;提升机制——函数声明 vs 变量声明&#x1f4af;代码示例&#xff1a;函数与 var 的提升提升后的代码解析分析 …

fastadmin实现站内通知功能

实现效果如下 application/admin/view/common/header.html <style>#notificationMenu {display: none;position: absolute;top: 40px;right: 0;background: #fff;border-radius: 6px;padding: 10px 0;width: 300px;box-shadow: 0 4px 12px rgba(0, 0, 0, 0.15);z-inde…

Axure RP教程:创建高效用户界面和交互

Axure RP是一款广受好评的软件&#xff0c;专门用于设计精致的用户界面和交互体验。这款软件提供了众多UI控件&#xff0c;并根据它们的用途进行了分类。与此同时&#xff0c;国产的即时设计软件作为Axure的替代品&#xff0c;支持在线协作和直接在浏览器中使用&#xff0c;无需…

2024-11-25 二叉树的定义

一、基本概念 1.二叉树是n(n>0)个结点的有限集合: ① 或者为空二叉树&#xff0c;即n0。 ②或者由一个根结点和两个互不相交的被称为根的左子树和右子树组成。左子树和右子树又分别是一棵二叉树。 特点&#xff1a; ①每个结点至多只有两棵子树。 ②左右子树不能颠倒&am…

部署实战(二)--修改jar中的文件并重新打包成jar文件

一.jar文件 JAR 文件就是 Java Archive &#xff08; Java 档案文件&#xff09;&#xff0c;它是 Java 的一种文档格式JAR 文件与 ZIP 文件唯一的区别就是在 JAR 文件的内容中&#xff0c;多出了一个META-INF/MANIFEST.MF 文件META-INF/MANIFEST.MF 文件在生成 JAR 文件的时候…

对象的大小

文章目录 一、对象大小 一、对象大小 对象是类实例化出来的&#xff0c;让我们分析一下类对象中哪些成员呢&#xff1f; 类实例化出的每个对象&#xff0c;每个都有独立的数据空间&#xff0c;所以对象中肯定包含 成员变量&#xff0c;那么成员函数是否包含呢&#xff1f; 首…

01-go入门

文章目录 Go语言学习1. 简介安装windows安装linux安装编译工具安装-goland 2. 入门2.1 Helloworld注释 2.2 变量初始化打印内存地址变量交换匿名变量作用域局部变量全局变量 2.3 常量iota 2.4 数据类型布尔整数浮点类型复数字符串定义字符串字符串拼接符定义多行字符串 map数据…

数据库的联合查询

数据库的联合查询 简介为什么要使⽤联合查询多表联合查询时MYSQL内部是如何进⾏计算的构造练习案例数据案例&#xff1a;⼀个完整的联合查询的过程 内连接语法⽰例 外连接语法 ⽰例⾃连接应⽤场景示例表连接练习 ⼦查询语法单⾏⼦查询多⾏⼦查询多列⼦查询在from⼦句中使⽤⼦查…

LeetCode-632. Smallest Range Covering Elements from K Lists [C++][Java]

目录 题目描述 解题思路 【C】 【Java】 LeetCode-632. Smallest Range Covering Elements from K Listshttps://leetcode.com/problems/smallest-range-covering-elements-from-k-lists/description/ 题目描述 You have k lists of sorted integers in non-decreasing o…

UI自动化测试中公认最佳的设计模式-POM

一、概念 什么是POM&#xff1f; POM是PageObjectModule&#xff08;页面对象模式&#xff09;的缩写&#xff0c;其目的是为了Web UI测试创建对象库。在这种模式下&#xff0c;应用涉及的每一个页面应该定义为一个单独的类。类中应该包含此页面上的页面元素对象和处理这些元…