深度学习-张量相关

一. 张量的创建

张量简介

张量是pytorch的基本数据结构

张量,英文为Tensor,是机器学习的基本构建模块,是以数字方式表示数据的形式。

例如,图像可以表示为形状为 [3, 224, 224] 的张量,这意味着 [colour_channels, height, width] ,因为图像具有 3 颜色通道(红色、绿色、蓝色),高度为 224 像素,宽度为 224 像素。

在张量语言(用于描述张量的语言)中,张量将具有三个维度,一个维度表示 colour_channelsheightwidth

张量的基本创建

根据数据创建tensor

默认64

# 1. 使用torch.tensor根据数据创建张量
# 1.1. 创建标量
data = torch.tensor(10)
print(data)
​
# 1.2. 创建numpy数组
data = np.random.randn(3, 4)
data = torch.tensor(data)
print(data)
​
# 1.3. 创建张量
data = torch.tensor([[1, 2], [3, 4]])
print(data)

根据形状/数据创建Tensor

默认32

# 2.使用torch.Tensor根据形状/数据创建张量
# 2.1. 创建两行三列张量, 默认dtype为float32
data = torch.Tensor(2, 3)
print(data)
​
# 2.2. 如果传递列表, 则创建包含指定元素的张量
data = torch.Tensor([10])
print(data)
​
data = torch.Tensor([1, 4])
print(data)

指定类型张量

# 3. torch.IntTensor(), torch.FloatTensor(), torch.DoubleTensor()创建指定类型的张量
# 3.1. 创建2行3列, dtype 为 int32 的张量
data = torch.IntTensor(2, 3)
print(data)
​
# 3.2. 注意: 如果传递的元素类型不正确, 则会进行类型转换
data = torch.IntTensor([2.5, 3.3])
print(data)
​
# 3.3. 其他的类型
data = torch.ShortTensor()      # int16
print(data)
data = torch.LongTensor()       # int64
print(data)
data = torch.FloatTensor()      # float32
print(data)
data = torch.DoubleTensor()     # float64
print(data)

线性张量与随机张量

  1. torch.arange 和 torch.linspace 创建线性张量

  2. torch.random.init_seed 和 torch.random.manual_seed 随机种子设置

  3. torch.randn 创建随机张量

线性张量

torch.arange()
# 1.1 arange() 左闭右开
data = torch.arange(0, 11, 2)
print(data)
torch.linspace()
# 1.2 linspace() 左闭右闭
data = torch.linspace(0, 10, 5)
print(data)
区别

arange(start, end, step): 起始, 截至, 步长(每步走多少, 左闭右开)

linspace(start, end, steps): 起始, 截止, 步数(走几步, 左闭右闭)

随机张量

  1. torch.random.initial_seed()查看随机种子

  2. torch.random.manual_seed() 设置随机数种子

  3. torch.randn() 创建随机张量

创建随机张量

# 2.1 创建随机张量
data = torch.randn(2, 3)  # 2行3列
print(data)
​
# 2.2 查看随机种子
print(torch.random.initial_seed())      # 查看默认种子, 机器码
​
# 2.3 创建随机种子
torch.random.manual_seed(1)    # 设置随机种子
data = torch.randn(2, 3)    # 随机张量
print(data)
print(torch.random.initial_seed())

创建指定值张量

  1. torch.ones 和 torch.ones_like(像什么形状) 创建全1张量

  2. torch.zeros 和 torch.zeros_like 创建全0张量

  3. torch.full([行数, 列数], 指定值) 和 torch.full_like 创建指定值张量

创建全0张量

创建结果为浮点型, zeros_like(data) => 创建形状和data一样的张量

# 3.1 创建全0张量
data_zeros = torch.zeros(2, 3)
print('0张量', data_zeros)
​
data_zeros = torch.zeros_like(data_zeros)
print('0张量', data_zeros)

创建全1张量

# 3.2 创建全1张量
data_ons = torch.ones(2, 3)
print('1张量', data_ons)
​
data_ons = torch.tensor(data_ons)
print('1张量', data_ons)

创建全指定值张量

# 3.3 创建指定值张量
data_full = torch.full((2, 3), 5)
print('指定值张量', data_full)
​
data_full = torch.full_like(data_full, 10)
print('指定值张量', data_full)

张量元素类型转换

  1. data.type(torch.DoubleTensor)

  2. data.double(), data.float()......小写

  3. data.dtype: 查看数据类型

间接转换

data = torch.full([2, 3], 10)
print(data.dtype)
>>> torch.int64
​
# 将 data 元素类型转换为 float64 类型
data = data.type(torch.DoubleTensor)
print(data.dtype)
>>> torch.float64
​
# 转换为其他类型
# data = data.type(torch.ShortTensor)   # int16
# data = data.type(torch.IntTensor)    # int32
# data = data.type(torch.LongTensor)   # int64
# data = data.type(torch.FloatTensor)  # float32

直接转换

data = torch.full([2, 3], 10)
print(data.dtype)
>>> torch.int64
​
# 将 data 元素类型转换为 float64 类型
data = data.double()
print(data.dtype)
>>> torch.float64
​
# 转换为其他类型
# data = data.short()
# data = data.int()
# data = data.long()
# data = data.float()
​

张量创建总结

创建张量的方式

  • torch.tensor() 根据指定数据创建张量

  • torch.Tensor() 根据形状创建张量, 其也可用来创建指定数据的张量

  • torch.IntTensor()、torch.FloatTensor()、torch.DoubleTensor() 创建指定类型的张量

创建线性和随机张量

  • torch.arrange() 和 torch.linspace() 创建线性张量

  • torch.random.initial_seed() 和 torch.random.manual_seed() 随机种子设置

  • torch.randn() 创建随机张量

创建01张量

  • torch.ones() 和 torch.ones_like() 创建全1张量

  • torch.zeros() 和 torch.zeros_like() 创建全0张量

  • torch.full() 和 torch.full_like() 创建全为指定值张量

张量元素类型转换

  • data.type(torch.DoubleTensor)

  • data.double()

二. 张量相关操作

张量的类型转换

张量转Numpy数组

使用 Tensor.numpy 函数可以将张量转换为 ndarray 数组,但是共享内存,可以使用 copy 函数避免共享。

import torch
​
torch.manual_seed(21)
​
data = torch.randn(2, 3)
print(type(data))
​
data_numpy = data.numpy().copy()    # 设置不共享内存
print(type(data_numpy))
​
data[0][0] = 100
print(data)
print(data_numpy)

Numpy数组转张量

  1. from_numpy(data_numpy):默认共享内存, 可以使用data_numpy.copy()复制一份, 避免内存共享

  2. torch.tensor()/torch.Tensor ()此方法不共享内存

# numpy转张量
import numpy as np
​
data_numpy = np.random.randn(2, 3)
print(type(data_numpy))
print(data_numpy)
​
# data_tensor = torch.from_numpy(data_numpy)  # 此方法共享内存
# data_tensor = torch.from_numpy(data_numpy.copy())  # 此方法不共享内存
# data_tensor = torch.tensor(data_numpy)  # 此方法不共享内存
data_tensor = torch.Tensor(data_numpy)  # 此方法不共享内存
print(type(data_tensor))
print(data_tensor)
​
data_tensor[0][0] = 100
print(data_numpy)
print(data_tensor)

标量张量和数字转换

当只有一个元素的张量时, 可以使用data.item()函数将该值从张量中取出

# 标量张量和数字转换
​
data = torch.tensor(1)
print(data.item())
​
data = torch.tensor([1, 2])
print(data.item())      # 报错!

张量类型转换总结

张量转换为 numpy 数组
  • data_tensor.numpy()

  • data_tensor.numpy().copy()

numpy 转换为张量
  • torch.from_numpy(data_numpy)

  • torch.tensor(data_numpy)

标量张量和数字转换
  • data.item()

张量的数值计算

基本运算

1. 加减乘除取负号:
2. add+、sub-、mul*、div/、neg负号     不修改原数据
3. add_、sub_、mul_、div_、neg_        修改原数据
import torch
torch.manual_seed(21)
data1 = torch.randint(0, 10, [2, 3])
torch.manual_seed(22)
data2 = torch.randint(10, 20, [3, 4])
torch.manual_seed(23)
data3 = torch.randint(10, 20, [2, 3])
print(data1)
print(data2)
print(data3)
​
# 不修改原数据
print(data1.add(2))
print(data1.sub(2))
print(data1.mul(2))
print(data1.div(2))
print(data1.neg())
print(data1)
​
# # 修改原数据
print(data1.add_(2))
print(data1.sub_(2))
print(data1.mul_(2))
​
print(data1.neg_())
print(data1)

点乘运算

对应位置元素相乘

mul或者*

# 点乘
print(data1.mul(data3))
print(data1 * data3)

矩阵运算

点积

(n, m) * (m, p) = (n, p)

matmul或者@

# 点积
print(data1.matmul(data2))
print(data1 @ data2)

张量运算总结

张量基本运算函数
  • add、sub、mul、div、neg等函数

  • add、sub、mul、div、neg_等函数

张量的点乘运算
  • mul 和运算符 *

点积运算
  • 运算符@用于进行两个矩阵的点乘运算

  • torch.matmul 对进行点乘运算的两矩阵形状没有限定,对数输入的 shape 不同的张量, 对应的最后几个维度必须符合矩阵运算规则

张量函数运算

PyTorch 为每个张量封装很多实用的计算函数:

import torch
​
torch.manual_seed(21)
data = torch.randint(1, 10, (2, 3), dtype=torch.float64)
print(data)
​
# 均值
print(data.mean())
print(data.mean(dim=0))     # 按列求和
print(data.mean(dim=1))     # 按行求和
​
# 平方
print(torch.pow(data, 2))
​
# 平方根
print(data.sqrt())
​
# 求和
print(data.sum())
print(data.sum(dim=0))
print(data.sum(dim=1))
​
# 指数计算(以e为底的指数)
print(data.exp())
​
# 对数计算
print(data.log())   # 以e为底
print(data.log2())
print(data.log10())

张量索引操作

import torch
# 随机生成数据
data = torch.randint(0, 10, [4, 5])
print(data)
>>> tensor([[0, 7, 6, 5, 9],[6, 8, 3, 1, 0],[6, 3, 8, 7, 3],[4, 9, 5, 3, 1]])
​

简单行列索引

print(data[0])      # 第0行数据
>>> tensor([0, 7, 6, 5, 9])
​
print(data[:, 0])   # 所有行第0列数据
>>> tensor([0, 6, 6, 4])
​

列表索引

# 返回 (0, 2)、(1, 3) 两个位置的元素
print(data[[0, 1], [2, 3]])     # 第0行第2列和第1行第3列
>>> tensor([7, 3])
​
# 返回 0、1 行的 1、2 列共4个元素
print(data[[[0], [1]], [1, 2]])
>>> tensor([[7, 6],[8, 3]])
​

范围索引

# 前3行的前2列数据
print(data[:3, :2])
>>> tensor([[0, 7],[6, 8],[6, 3]])
​
# 第2行到最后的前2列数据
print(data[2:, :2])
>>> tensor([[6, 3],[4, 9]])
​
# 第0行、第2行的第0、1两列数据
print(data[0:3:2, :2])# data[行(start, end, step), 列(start, end, step)]
>>>tensor([[0, 7],[6, 3]])
​

布尔索引

# 第三列大于5的行数据
print(data[data[:, 2] > 5])
>>> tensor([[0, 7, 6, 5, 9],[6, 3, 8, 7, 3]])
​
# 第二行大于5的列数据
# 所有数据第1列数据大于5的所有行数据
print(data[:, data[1] > 5])     # data[行, 列] => 第2行大于5的列
>>> tensor([[0, 7],[6, 8],[6, 3],[4, 9]])
​
# 所有行中第4列小于10的行数据
print(data[data[:, 3] < 10])

多维索引

# 范围索引
torch.random.manual_seed(21)
data = torch.randint(0, 10, [3, 4, 5])  # 三通道、四行、五列
print(data)
>>>tensor([[[3, 3, 6, 8, 6],[4, 0, 9, 8, 8],[3, 7, 2, 2, 6],[7, 8, 5, 9, 9]],
​[[9, 4, 4, 4, 2],[2, 0, 8, 1, 2],[9, 8, 8, 3, 1],[4, 1, 6, 8, 8]],
​[[4, 8, 2, 6, 3],[5, 8, 2, 9, 4],[6, 9, 5, 8, 6],[8, 5, 2, 0, 8]]])
​
print(data[:, 1:3, 2])      # 所有通道的第1行和第2行,第2列的数据
>>>tensor([[0, 8],[4, 0],[0, 7]])
​
print(data[1, :, :])    # 第二通道的所有行,所有列的数据
>>>tensor([[9, 4, 4, 4, 2],[2, 0, 8, 1, 2],[9, 8, 8, 3, 1],[4, 1, 6, 8, 8]])

张量形状操作

有重塑、堆叠、挤压和解压:

方法单行描述
torch.reshape(input, shape)重塑 input 到 shape (如果兼容),也可以使用 torch.Tensor.reshape()。
tensor.view(shape)返回不同 shape 中的原始张量视图,但与原始张量共享相同的数据。
tensor.contiguous()将张量转换到整块内存上
torch.stack(tensors, dim=0)堆叠:沿着新的维度(dim)连接 tensors 的序列,所有 tensors 必须具有相同的大小。
torch.squeeze(input)降维:挤压 input 以移除值为 1 的所有尺寸。
torch.unsqueeze(input, dim)升维:返回在 dim 处添加了维度值 1 的 input。
torch.transpose(input,dim1,dim2)维度交换:实现交换张量形状的指定维度
torch.permute(input, dims)返回原始 input 的视图,其尺寸被置换(重新排列)为 dims。

深度学习模型(神经网络)都是以某种方式操纵张量。由于矩阵乘法的规则,如果形状不匹配,就会遇到错误。这些方法可帮助您确保张量的正确元素与其他张量的正确元素混合。

重塑维度形状

reshape

reshape 函数可以在保证张量数据不变的前提下改变数据的维度,将其转换成指定的形状。

使用 torch.reshape() 增加一个维度。

import torch
torch.random.manual_seed(21)
data = torch.randint(0, 10, [4, 5, 6])
print(data)
print(data.shape)
print(data.size())
​
# 1. reshape
# 1.1 降维
data1 = torch.reshape(data, [2, -1])    # -1表示自动计算  
​
print(data1.shape)  # torch.Size([2, 60])
​
# 1.2 改变形状
data2 = torch.reshape(data, [2, 5, -1])
print(data2.shape)  # torch.Size([2, 5, 12])

view/contiguous
  1. view 函数也可以用于修改张量的形状,只能用于存储在整块内存中的张量

  2. 在 PyTorch 中,有些张量是由不同的数据块组成的,它们并没有存储在整块的内存中,view 函数无法对这样的张量进行变形处理。例如: 一个张量经过了 transpose 或者 permute 函数的处理之后,就无法使用 view 函数进行形状操作。

  3. 此时需要先使用 contiguous 函数转换为整块内存的张量,再使用 view 函数。

# 2. view(): 存储在一块内存上才可以操作
# 查看data是否在一块内存上
print(data.is_contiguous())     # True
​
# 2.1 在一块内存上, 改变形状
data3 = data.view(3, 8, -1)
print(data3.shape)      # torch.Size([3, 8, 5])
​
# 2.2 不在一块内存上, 改变形状
# 2.2.1 交换数据维度, 使数据在不同的内存上
# data4 = data.permute(2, 0, 1)   # 一次交换多个维度
data4 = torch.transpose(data, 1, 2)  # 交换两个维度
print(data4.is_contiguous())    # False
​
# 2.2.2 转换为同一内存
print(data4.contiguous().is_contiguous())   # True
# 改变形状
data5 = data4.contiguous().view(3, 8, -1)
print(data5.shape)      # torch.Size([3, 8, 5])

stack

将新张量堆叠五次,使用 torch.stack() 来实现。

x = torch.arange(1, 9)
x_stack = torch.stack([x, x, x, x], dim=0)  # 按0维堆叠
print(x_stack)

升维降维

squeeze 函数删除形状为 1 的维度(降维),unsqueeze 函数添加形状为1的维度(升维)。

unsqueeze升维
# 4. unsqueeze(): 增加维度
data = torch.tensor([1, 2, 3, 4, 5])
print(data.shape)   # torch.Size([5])
​
data1 = data.unsqueeze(dim=0)
print(data1.shape)  # torch.Size([1, 5])
data2 = data.unsqueeze(dim=1)
print(data2.shape)  # torch.Size([5, 1])
data3 = data.unsqueeze(dim=-1)
print(data3.shape)  # torch.Size([5, 1])
squeeze降维

只可以将维度1的维度删除

# 5. squeeze(): 删除维度
data4 = data3.squeeze()
print(data4.shape)  # torch.Size([5])
data5 = data1.squeeze(dim=0)
print(data5.shape)  # torch.Size([5])

维度交换

transpose 函数可以实现交换张量形状的指定维度,

例如: 一个张量的形状为 (2, 3, 4) 可以通过 transpose 函数把 3 和 4 进行交换, 将张量的形状变为 (2, 4, 3) 。

permute 函数可以一次交换更多的维度。

# 6. 交换维度
data = torch.randint(0, 10, [4, 5, 6])
print(data.shape)   # torch.Size([4, 5, 6])
​
# 交换1和2维度
data1 = torch.transpose(data, 1, 2)
print(data1.shape)  # torch.Size([4, 6, 5])
data2 = data.permute(0, 2, 1)
print(data2.shape)  # torch.Size([4, 6, 5])

张量形状总结

  1. reshape 函数可以在保证张量数据不变的前提下改变数据的维度

  2. squeeze 和 unsqueeze 函数可以用来增加或者减少维度

  3. transpose 函数可以实现交换张量形状的指定维度, permute 可以一次交换更多的维度

  4. view 函数也可以用于修改张量的形状, 但是它要求被转换的张量内存必须连续,所以一般配合 contiguous 函数使用

张量拼接

将多个张量按指定维度(根据维度索引)拼接成一个张量

torch.cat([data1, data2...], dim=维度索引)

import torch
​
data1 = torch.randint(1, 11, [1, 3, 4])
data2 = torch.randint(1, 11, [1, 3, 4])
# print(data1)
# print(data2)
​
# 按0维拼接
data3 = torch.cat([data1, data2], dim=0)
print(data3)
print(data3.shape)
​
# 按1维拼接
data4 = torch.cat([data1, data2], dim=1)
print(data4)
print(data4.shape)
​
# 按2维拼接
data5 = torch.cat([data1, data2], dim=2)
print(data5)
print(data5.shape)

自动微分模块

再反向传播中, 用于计算梯度

正向传播: 由x得到z

反向传播: 由损失更新权重参数

一维

多维

import torch
def test02():# 输入张量 2*5x = torch.ones(2,5)# 目标值是 2*3y = torch.zeros(2,3)# 设置要更新的权重和偏置的初始值w = torch.randn(5, 3,requires_grad=True)b = torch.randn(3, requires_grad=True)# 设置网络的输出值z = torch.matmul(x, w) + b  # 矩阵乘法# 设置损失函数,并进行损失的计算loss = torch.nn.MSELoss()loss = loss(z, y)# 自动微分loss.backward()# 打印 w,b 变量的梯度# backward 函数计算的梯度值会存储在张量的 grad 变量中print("W的梯度:", w.grad)print("b的梯度", b.grad)
​

案例-线性回归

pytorch模型构建流程:

  1. 准备训练集数据

    使用 PyTorch 的 data.DataLoader 代替自定义的数据加载器

    打乱数据顺序, 数据分批次

  2. 构建要使用的模型

    使用 PyTorch 的 nn.Linear 代替自定义的假设函数

  3. 设置损失函数和优化器

    使用 PyTorch 的 nn.MSELoss() 代替自定义的平方损失函数

    使用 PyTorch 的 optim.SGD 代替自定义的优化器

  4. 模型训练

225原则:

2: 2个初始化参数(损失函数, 优化器)

2: 2个遍历(epoch: 轮次, 数据: 批次大小)

5: 前向传播, 损失函数, 梯度清零, 反向传播, 参数更新

构建数据集

# 导入相关模块
import torch
from torch.utils.data import TensorDataset  # 构造数据集对象
from torch.utils.data import DataLoader  # 数据加载器
from torch import nn  # nn模块中有平方损失函数和假设函数
from torch import optim  # optim模块中有优化器函数
from sklearn.datasets import make_regression  # 创建线性回归模型数据集
import matplotlib.pyplot as plt
​
plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号
​
​
# 定义函数创建数据集: 线性回归: y = kx + b
def creat_datasets():x, y, coef = make_regression(n_samples=100,n_features=1,noise=10,coef=True,bias=1.5,random_state=21)x = torch.tensor(x)y = torch.tensor(y)
​return x, y, coef
​
​
if __name__ == '__main__':x, y, coef = creat_datasets()plt.scatter(x, y)x = torch.linspace(x.min(), x.max(), 1000)# y1 = torch.tensor([coef * i + 1.5 for i in x])    # 报错y1 = torch.tensor([i * coef + 1.5 for i in x])  # i为张量, 只可以张量 * 标量plt.plot(x, y1, label='predict')plt.legend()plt.grid()plt.xlabel('x')plt.ylabel('y')plt.show()

构建数据加载器和模型构建

# 构建数据加载器和模型
def data_loader(x, y):# 构造数据集对象dataset = TensorDataset(x, y)# 构造数据加载器# batch_size: 批次大小# batch: 批次数量# shuffle: 是否打乱顺序dataloader = DataLoader(dataset, batch_size=10, shuffle=True)# 构造模型model = nn.Linear(1, 1)return dataloader, model

训练参数设置

# 设置损失函数和优化器
def loss_optimizer(model):# 设置损失函数: 均方损失函数loss_fn = nn.MSELoss()# 设置优化器: 随机梯度下降, 学习率0.01optimizer = optim.SGD(model.parameters(), lr=0.01)return loss_fn, optimizer

模型训练

# 训练模型
def train_model(dataloader, model, loss_fn, optimizer):# 训练100轮epoch = 100# 存储每轮损失loss_epoch = []total_loss = 0train_sample = 0# 训练轮次for i in range(epoch):# 遍历批次for train_x, train_y in dataloader:# 预测值, 正向传播y_pred = model(train_x.type(torch.float32))# 计算损失loss = loss_fn(y_pred, train_y.reshape(-1, 1).type(torch.float32))# 累加损失total_loss += loss.item()# 累加样本数量train_sample += len(train_y)# 梯度清零optimizer.zero_grad()# 反向传播loss.backward()# 优化器更新参数optimizer.step()# 存储批次损失loss_epoch.append(total_loss / train_sample)return loss_epoch, epoch

轮次损失可视化

if __name__ == '__main__':x, y, coef = creat_datasets()dataloader, model = data_loader(x, y)loss_fn, optimizer = loss_optimizer(model)loss_epoch, epochs = train_model(dataloader, model, loss_fn, optimizer)print(loss_epoch)# 绘制损失变化曲线plt.plot(range(epochs), loss_epoch)plt.title('损失变化曲线')plt.grid()plt.show()# 绘制拟合直线plt.scatter(x, y)x = torch.linspace(x.min(), x.max(), 1000)y1 = torch.tensor([v * model.weight + model.bias for v in x])y2 = torch.tensor([v * coef + 1.5 for v in x])plt.plot(x, y1, label='训练')plt.plot(x, y2, label='真实')plt.grid()plt.legend()plt.show()

案例总结

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/58864.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

使用vite构建一个react网站,并部署到Netlify上

这篇教程中&#xff0c;我会教你如何用vite快速构建一个react网站&#xff0c;并把网站免费部署到Netlify上&#xff0c;让别人可以经由网址访问你的react网站。 1. 使用vite构建基础框架 npm create vitelatestcd vite-project npm install npm run dev2. 网站内容设计 3. 构…

Fastify Swagger:自动化API文档生成与展示

在现代软件开发中&#xff0c;API文档的生成和维护是一个不可或缺的环节。Fastify Swagger 是一个专为 Fastify 框架设计的插件&#xff0c;它能够自动生成符合 Swagger&#xff08;OpenAPI v2 或 v3&#xff09;规范的文档&#xff0c;从而帮助开发者轻松创建和维护API文档。本…

【网络原理】万字详解 UDP 和 TCP

&#x1f970;&#x1f970;&#x1f970;来都来了&#xff0c;不妨点个关注叭&#xff01; &#x1f449;博客主页&#xff1a;欢迎各位大佬!&#x1f448; 文章目录 1. UDP1.1 UDP 报文格式1.1.1 源端口/目的端口1.1.2 报文长度1.1.3 校验和 2. TCP2.1 TCP 报文结构2.2 TCP 特…

Go 中的泛型,日常如何使用

泛型从 go 的 1.18 开始支持 什么是泛型编程 在泛型出现之前&#xff0c;如果需要计算两数之和&#xff0c;可能会这样写&#xff1a; func Add(a, b int) int {returb a b } 这个很简单&#xff0c;但是只能两个参数都是 int 类型的时候才能调用 如果想要计算两个浮点数…

IoTDB 与 HBase 对比详解:架构、功能与性能

五大方向&#xff0c;洞悉 IoTDB 与 HBase 的详尽对比&#xff01; 在物联网&#xff08;IoT&#xff09;领域&#xff0c;数据的采集、存储和分析是确保系统高效运行和决策准确的重要环节。随着物联网设备数量的增加和数据量的爆炸式增长&#xff0c;开发者和决策者们需要选择…

单片机串口接收状态机STM32

单片机串口接收状态机stm32 前言 项目的芯片stm32转国产&#xff0c;国产芯片的串口DMA接收功能测试不通过&#xff0c;所以要由原本很容易配置的串口空闲中断触发DMA接收数据的方式转为串口逐字节接收的状态机接收数据 两种方式各有优劣&#xff0c;不过我的芯片已经主频跑…

词嵌入方法(Word Embedding)

词嵌入方法&#xff08;Word Embedding&#xff09; Word Embedding是NLP中的一种技术&#xff0c;通过将单词映射到一个空间向量来表示每个单词 ✨️常见的词嵌入方法&#xff1a; &#x1f31f;Word2Vec&#xff1a;由谷歌提出的方法&#xff0c;分为CBOW&#xff08;conti…

【go从零单排】实现枚举类型(Enum)

&#x1f308;Don’t worry , just coding! 内耗与overthinking只会削弱你的精力&#xff0c;虚度你的光阴&#xff0c;每天迈出一小步&#xff0c;回头时发现已经走了很远。 &#x1f4d7;概念 在Go语言中&#xff0c;并没有内置的枚举类型&#xff08;Enum&#xff09;&…

Python爬虫如何处理验证码与登录

Python爬虫如何处理验证码与登录 Python 爬虫在抓取需要登录的网站数据时&#xff0c;通常会遇到两个主要问题&#xff1a;登录验证和验证码处理。这些机制是网站用来防止自动化程序过度抓取数据的主要手段。本文将详细讲解如何使用 Python 处理登录与验证码&#xff0c;以便进…

MOS管损坏原因

MOS管是什么&#xff1f; MOS管&#xff0c;全程就是MOSFET&#xff08;Metal-Oxide-Semiconductor Field-Effect Transistor&#xff09;&#xff0c;是一种场效应晶体管。‌ MOS管控制原理 MOS管的工作原理是通过栅极电压&#xff08;G&#xff09;来控制源极&#xff08…

「QT」QT5程序设计专栏目录

✨博客主页何曾参静谧的博客&#x1f4cc;文章专栏「QT」QT5程序设计&#x1f4da;全部专栏「VS」Visual Studio「C/C」C/C程序设计「UG/NX」BlockUI集合「Win」Windows程序设计「DSA」数据结构与算法「UG/NX」NX二次开发「QT」QT5程序设计「File」数据文件格式「PK」Parasolid…

论文阅读《机器人状态估计中的李群》

目录 摘要1 介绍2 微李理论2.1 李群 摘要 李群是一个古老的数学抽象对象&#xff0c;可以追溯到19世纪&#xff0c;当时数学家 Sophus Lie奠定了连续变换群理论的基础。多年后&#xff0c;它的影响已经蔓延到科学和技术的各个领域。在机器人领域&#xff0c;我们最近正在经历一…

EHOME视频平台EasyCVR视频融合平台使用OBS进行RTMP推流,WebRTC播放出现抖动、卡顿如何解决?

在现代视频监控领域&#xff0c;跨区域的网络化视频监控管理平台成为了大中型项目的首选。EHOME视频平台EasyCVR以其强大的功能和兼容性&#xff0c;成为了众多项目的核心组件。它不仅能够管理视频资源、设备、用户、运维和安全&#xff0c;还支持多种行业标准协议&#xff0c;…

浮动路由:实现出口线路的负载均衡冗余备份。

浮动路由 Tip&#xff1a;浮动路由指在多条默认路由基础上加入优先级参数&#xff0c;实现出口线路冗余备份。 ip routing-table //查看路由表命令 路由优先级参数&#xff1a;越小越优 本次实验测试两条默认路由&#xff0c;其中一条默认路由添加优先级参数&#xff0c;设置…

Android CCodec Codec2 (十九)C2LinearBlock

在上一篇文章的结尾&#xff0c;我们看到fetchLinearBlock方法最终创建了一个C2LinearBlock对象。这一节&#xff0c;我们将深入了解C2LinearBlock是什么&#xff0c;它的作用是什么&#xff0c;以及它是如何被创建的。 1、_C2BlockFactory 先对上一篇文章的结尾内容做简单回顾…

Axure PR 9 多级下拉选择器 设计交互

​ 大家好&#xff0c;我是大明同学。 Axure选择器是一种在交互设计中常用的组件&#xff0c;这期内容&#xff0c;我们来探讨Axure中多级下拉选择器设计与交互技巧。 下拉列表选择输入框元件 创建选择输入框所需的元件 1.在元件库中拖出一个矩形元件。 2.选中矩形元件&…

SparkSql读取数据的方式

一、读取普通文件 方式一&#xff1a;给定读取数据源的类型和地址 spark.read.format("json").load(path) spark.read.format("csv").load(path) spark.read.format("parquet").load(path) 方式二&#xff1a;直接调用对应数据源类型的方法 …

使用Python实现图像的手绘风格效果

使用Python实现图像的手绘风格效果 一、引言二、代码详细解释与示例三、完整框架流程四、运行五、结论附&#xff1a;完整代码 一、引言 在数字图像处理领域&#xff0c;模拟手绘风格是一项有趣且具有挑战性的任务。手绘风格图像通常具有独特的纹理和深浅变化&#xff0c;给人…

Oracle Select语句

SELECT语句使用方法 在Oracle中&#xff0c;表是由列和行组成。 例如&#xff0c;示例数据库中的customers表具有以下列&#xff1a;customer_id&#xff0c;name&#xff0c;address&#xff0c;website和credit_limit。customers表中这些列中也有对应的数据。 要从表的一个或…

w~大模型~合集21

我自己的原文哦~ https://blog.51cto.com/whaosoft/12459590 #大模型~微调~用带反馈的自训练 面对当前微调大模型主要依赖人类生成数据的普遍做法&#xff0c;谷歌 DeepMind 探索出了一种减少这种依赖的更高效方法。大模型微调非得依赖人类数据吗&#xff1f;用带反馈的自训…