《动手学深度学习》 第3章 线性神经网络 部分笔记

文章目录

  • 前言
  • 一、线性回归
    • 1.知识点
      • (1)解析解
      • (2)泛化
      • (3)随机梯度下降
      • (4)python列表推导
      • (5)全连接层
  • 二、线性回归的从零开始实现
    • 1.知识点
      • (1)scatter()
      • (2)random.shuffle()
      • (3)yield()
    • 2.练习
      • (2)假设试图为电压和电流的关系建立一个模型。自动微分可以用来学习模型的参数吗?
      • (4)计算二阶导数时可能会遇到什么问题?这些问题可以如何解决?
      • (5)为什么在squared_loss函数中需要使用reshape函数?
      • (6)尝试使用不同的学习率,观察损失函数值下降的快慢。
      • (7)如果样本个数不能被批量大小整除,data_iter函数的行为会有什么变化?
  • 三、线性回归的简洁实现
    • 1.知识点
      • (1)data.TensorDataset()
      • (2)data.DataLoader()
      • (3)iter()和next()
      • (4)Sequential()
      • (5)下划线_: 原地操作
    • 2.练习
      • (1)如果将小批量的总损失替换为小批量损失的平均值,需要如何更改学习率?
  • 四、softmax回归
    • 1.知识点
      • (1)独热编码
  • 五、图像分类数据集
    • 1.知识点
      • (1)subplots()
      • (2)zip()
      • (3)enumerate()
      • (4)imshow()
    • (2)练习
      • 1.减少batch_size(如减少到1)是否会影响读取性能?
  • 六、softmax回归的从零开始实现
    • 1.知识点
      • (1)交叉熵
      • (2)isinstance
      • (3)eval() 评估模式
      • (4)numel()
      • (5)with torch.no_grad()
      • (6)lambda()
      • (7)hasattr
      • (8)cla()
      • (9)assert()
    • 2.练习
      • (1、2、3)自定义softmax函数和交叉熵损失函数的问题的解决方案
      • (4)返回概率最大的分类标签总是最优解吗?例如,医疗诊断场景下可以这样做吗?
      • (5)假设我们使用softmax回归来预测下一个单词,可选取的单词数目过多可能会带来哪些问题?

前言

这篇博客主要记录了学习第三章过程中,个人不了解的地方,以及学习这些知识点搜集的资料,以便后续复习查看。

因此,此博客只含有部分个人新学的知识点,而不会将所有知识点整理总结。

同时,知识点部分也只是简单地了解了概念,以此辅助学习,而没有深入内核。

下方为电子版书籍网页,其中代码可复制到jupyternotebook,直接运行,提高学习效率
《动手学深度学习电子版书籍》

一、线性回归

1.知识点

(1)解析解

解析解与数值解

在这里插入图片描述

(2)泛化

深入理解泛化

优化(optimization)是指调节模型以在训练数据上得到最佳性能(即机器学习中的学习),而泛化(generalization)是指训练好的模型在前所未见的数据上的性能好坏。

(3)随机梯度下降

随机梯度下降详解

在这里插入图片描述

(4)python列表推导

【技能树共建】Python 列表推导式

(5)全连接层

全连接层详解

对于线性回归,每个输入都与每个输出相连, 我们将这种变换 称为全连接层(fully-connected layer)或称为稠密层

在这里插入图片描述
在这里插入图片描述
在这一节末尾,我很喜欢下面这段话,记录一下下。

“当然,许多这样的单元可以通过正确连接和正确的学习算法拼凑在一起, 从而产生的行为会比单独一个神经元所产生的行为更有趣、更复杂, 这种想法归功于我们对真实生物神经系统的研究。

当今大多数深度学习的研究几乎没有直接从神经科学中获得灵感。 我们援引斯图尔特·罗素和彼得·诺维格在他们的经典人工智能教科书 Artificial Intelligence:A Modern Approach (Russell and Norvig, 2016) 中所说的:虽然飞机可能受到鸟类的启发,但几个世纪以来,鸟类学并不是航空创新的主要驱动力。 同样地,如今在深度学习中的灵感同样或更多地来自数学、统计学和计算机科学。”

二、线性回归的从零开始实现

1.知识点

(1)scatter()

这篇博客较为详细,可以系统学习scatter,如果只是想简单理解,可以看下文

scatter() 函数在 Matplotlib 中可以接受多个参数,以便用户能够自定义散点图的样式、颜色、大小等。
一些常用的参数:
s:指定散点的大小,可以是一个数值或一个数组,用于设置每个点的大小。
c:指定散点的颜色,可以是一个颜色名称(如 ‘red’、‘blue’)或一个颜色序列,用于设置每个点的颜色。
marker:指定散点的形状,可以是一个字符(如 ‘o’ 表示圆形、‘s’ 表示方形)或一个符号(如 ‘^’ 表示三角形、‘*’ 表示星号)。
alpha:指定散点的透明度,取值范围为 0 到 1,0 表示完全透明,1 表示不透明。
label:指定散点的标签,用于生成图例。

例子:

在这里插入图片描述
在这里插入图片描述

(2)random.shuffle()

作用:打乱数据集顺序

【Python基础】random.shuffle()的用法

(3)yield()

python中yield的用法详解——最简单,最清晰的解释

yield 是 Python 中的一个关键字,通常用于生成器函数中。生成器函数是一种特殊的函数,它可以在迭代过程中暂停并返回一个中间结果,然后在需要时再继续执行。yield 的作用是将函数的执行结果返回给调用者,并且保留了函数的当前状态,以便下次调用时可以从之前的状态继续执行。当在一个函数中使用 yield 时,这个函数就成为了一个生成器函数。

2.练习

(注:部分答案由AI给出)

(2)假设试图为电压和电流的关系建立一个模型。自动微分可以用来学习模型的参数吗?

自动微分可以用来学习电压和电流关系模型的参数。在机器学习中,自动微分技术通常被用于训练模型参数,使得模型能够更好地拟合数据并学习输入和输出之间的关系。

具体来说,在建立电压和电流关系模型时,可以定义一个参数化的模型函数,例如:

def model(voltage, params):current = some_function_of(voltage, params)return current

然后,利用自动微分工具(如 PyTorch 或 TensorFlow)来计算模型输出与真实观测值之间的损失,并通过反向传播算法来更新模型参数,使得模型预测的电流与真实电流更加接近。

自动微分通过计算损失函数对模型参数的梯度,从而指导参数更新方向,使得模型能够逐渐优化和学习到电压和电流之间的关系。这样,自动微分为学习模型参数提供了一种高效的方式,无需手动推导梯度或者编写复杂的优化算法。

(4)计算二阶导数时可能会遇到什么问题?这些问题可以如何解决?

问题
计算量大: 计算二阶导数通常比计算一阶导数更加复杂和耗时,因为需要考虑更多的交叉导数项。
数值稳定性: 在计算二阶导数时,数值稳定性可能成为一个问题,特别是当函数具有复杂的形式或者存在数值不稳定的情况时,如除以接近零的数或指数函数等。
高阶导数消失: 在某些情况下,高阶导数可能会消失,导致二阶导数的计算结果不准确或者丢失了一些信息。
计算效率低: 由于计算二阶导数通常需要更多的计算量和存储空间,可能会导致计算效率变低。

解决方法
使用自动微分工具: 使用现有的自动微分工具(如 PyTorch 或 TensorFlow)来计算高阶导数,这些工具能够有效地管理计算过程并提高计算效率。
数值稳定性处理: 在计算过程中注意数值稳定性,避免出现数值不稳定的操作,可以通过数值稳定的计算技巧来减少误差的累积。
截断高阶导数: 在实际应用中,有时可以截断高阶导数的计算,只计算到某个特定阶数的导数,以减少计算复杂度和提高效率。
优化算法选择: 对于特定的优化问题,可以根据问题特点选择合适的优化算法,有些算法可能不需要显式地计算二阶导数就能够取得很好的效果。

(5)为什么在squared_loss函数中需要使用reshape函数?

在 squared_loss 函数中使用 reshape 函数的目的是确保 y 和 y_hat 的形状一致,以便进行减法和平方操作。

在深度学习中,经常会遇到需要对张量进行形状匹配的情况。如果 y 和 y_hat 的形状不一致,直接进行减法操作可能会导致维度不匹配的错误。因此,为了保证运算能够进行,需要将 y 调整为与 y_hat 相同的形状。

具体来说,假设 y_hat 的形状是 (batch_size, 1),而 y 的形状是 (batch_size,),即 y 是一个一维张量。在这种情况下,我们需要使用 reshape 函数将 y 转换为与 y_hat 相同的形状,即 (batch_size, 1),以便进行减法和平方操作。

在这里插入图片描述

(6)尝试使用不同的学习率,观察损失函数值下降的快慢。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

(7)如果样本个数不能被批量大小整除,data_iter函数的行为会有什么变化?

我设置的数据总数为8,batch_size数为10,运行结果如下:

在这里插入图片描述
可以看到,虽然设置batch_size为10,但是由于数据只有8个,所以只会输出8个

当最后一个批次的样本数量少于批量大小时,batch_indices 的索引范围会超出实际的样本索引范围,这可能导致索引越界错误。为了解决这个问题,可以在代码中进行处理,例如:

在计算 batch_indices 时,确保不超过样本总数,避免索引越界。
在处理最后一个批次时,可以选择忽略剩余的样本、补齐到批量大小或者采取其他策略,如下:

for i in range(0, num_examples, batch_size):batch_indices = torch.tensor(indices[i: min(i + batch_size, num_examples)])  # 确保不超过样本总数if len(batch_indices) < batch_size and len(batch_indices) > 0:# 可以添加处理最后一个批次的代码,比如补齐样本、忽略剩余样本或者其他操作# 这里只是简单地打印出不完整的批次print("Incomplete batch:")yield features[batch_indices], labels[batch_indices]

三、线性回归的简洁实现

1.知识点

(1)data.TensorDataset()

data.TensorDataset是PyTorch中用于包装张量数据的类,通常用于构建数据集和对应的标签集。它可以将数据张量和标签张量作为输入,并将它们封装成一个数据集对象,以便于进行后续的数据处理、批量读取等操作。

import torch
from torch.utils.data import TensorDataset, DataLoader# 假设有训练数据 data 和对应的标签 label
data = torch.tensor([[1.0, 2.0], [3.0, 4.0]])
label = torch.tensor([0, 1])# 使用 TensorDataset 封装数据和标签
dataset = TensorDataset(data, label)# 构建 DataLoader 进行数据加载
dataloader = DataLoader(dataset, batch_size=2, shuffle=True)

(2)data.DataLoader()

data.DataLoader 是 PyTorch 中用于数据加载的工具,它可以实现对数据集的批量读取、打乱顺序、并行加载等功能。通常情况下,我们会将封装好的数据集(比如 TensorDataset)传入 DataLoader 中,以便于进行批量处理和训练神经网络模型。

import torch
from torch.utils.data import TensorDataset, DataLoader# 假设有训练数据 data 和对应的标签 label
data = torch.tensor([[1.0, 2.0], [3.0, 4.0]])
label = torch.tensor([0, 1])# 使用 TensorDataset 封装数据和标签
dataset = TensorDataset(data, label)# 构建 DataLoader 进行数据加载
batch_size = 2
# shuffle 是在使用 DataLoader 加载数据时的一个参数,用于指定是否对数据进行打乱顺序。
# 当shuffle设置为 True 时,DataLoader 会在每个 epoch(训练周期)开始前将数据集打乱顺序
# 这样可以使得每个 epoch 中模型看到的数据顺序都是不同的,有助于增加模型的泛化能力。
shuffle = True
num_workers = 2  # 并行加载的线程数
dataloader = DataLoader(dataset, batch_size=batch_size, shuffle=shuffle, num_workers=num_workers)# 遍历 DataLoader 并输出每个 batch 的数据和标签
for batch_data, batch_label in dataloader:print("Batch data:", batch_data)print("Batch label:", batch_label)# 在这里可以进行模型训练等操作

运行结果:
在这里插入图片描述

(3)iter()和next()

在 Python 中,iter() 是一个内置函数,用于将可迭代对象转换为迭代器。迭代器是一种能够逐个返回元素的对象,而可迭代对象是一种能够被迭代器遍历的对象。

使用 iter() 函数可以将可迭代对象转换为迭代器。一旦转换完成,我们就可以使用 next() 函数从迭代器中逐个获取元素。当迭代器没有更多元素时,会抛出 StopIteration 异常。

下面是一个简单的示例,展示了如何使用 iter() 和 next():

my_list = [1, 2, 3, 4, 5]  # 可迭代对象my_iter = iter(my_list)  # 将列表转换为迭代器print(next(my_iter))  # 输出:1
print(next(my_iter))  # 输出:2
print(next(my_iter))  # 输出:3

在上面的示例中,我们首先创建了一个列表 my_list,它是一个可迭代对象。然后,我们使用 iter() 函数将 my_list 转换为迭代器 my_iter。接着,通过连续调用 next() 函数,我们可以逐个获取迭代器中的元素。

需要注意的是,一旦迭代器中没有更多元素,再次调用 next() 函数就会引发 StopIteration 异常,因此需要在使用时进行适当的异常处理。

(4)Sequential()

nn.Sequential 是 PyTorch 中的一个模型容器,用于以顺序的方式组织多个神经网络模块。它允许我们按照顺序将这些模块串联起来,构建一个更复杂的神经网络模型。

使用 nn.Sequential,我们可以通过简单地传入一系列的模块来定义我们的模型结构,而无需手动编写前向传播函数。

下面展示了如何使用 nn.Sequential 定义一个简单的全连接神经网络模型:

import torch
import torch.nn as nnmodel = nn.Sequential(nn.Linear(10, 20),  # 第一个全连接层,输入大小为10,输出大小为20nn.ReLU(),         # ReLU 激活函数nn.Linear(20, 30),  # 第二个全连接层,输入大小为20,输出大小为30nn.ReLU()          # ReLU 激活函数
)

(5)下划线_: 原地操作

在 Python 中,下划线 _ 通常用作一个临时变量或占位符。它的具体含义取决于上下文。

在 PyTorch 中,方法名称以 _ 结尾的形式,例如 normal_() 和 fill_(),表示它们是原地(in-place)操作。原地操作是指在不创建新对象的情况下,直接修改原始对象的值。它们会直接修改权重和偏置参数的值,而不会返回任何结果。

import torch# 创建一个张量
x = torch.tensor([1.0, 2.0, 3.0])# 使用原地操作对张量进行修改
x.add_(1.0)  # 原地加法操作,等同于 x = x + 1.0print(x)  # 输出修改后的张量

2.练习

(1)如果将小批量的总损失替换为小批量损失的平均值,需要如何更改学习率?

当将小批量的总损失替换为小批量损失的平均值时,通常需要相应地调整学习率。这是因为平均损失和总损失具有不同的尺度。

假设使用的是随机梯度下降(SGD)优化算法,并且在每个小批量样本上计算了损失,然后求取这些损失的平均值作为小批量的总损失。在这种情况下,可以将学习率除以小批量大小来调整学习率。

具体来说,如果原始学习率为 lr,小批量大小为 batch_size,则在每次更新模型参数时,将学习率设置为 lr / batch_size。这样可以保持学习率的相对大小不变,同时适应了小批量损失的平均值。

四、softmax回归

1.知识点

(1)独热编码

机器学习中使用的独热编码

五、图像分类数据集

1.知识点

(1)subplots()

plt: subplot()、subplots()详解及返回对象figure、axes的理解

(2)zip()

zip()函数的用法

(3)enumerate()

python enumerate用法总结

(4)imshow()

Matplotlib imshow() 方法 菜鸟教程

(2)练习

1.减少batch_size(如减少到1)是否会影响读取性能?

AI给的答案:

减少 batch_size 可能会影响读取性能,具体取决于数据集的大小和存储方式、硬件设备以及数据读取的方式。

数据集大小和存储方式:如果数据集较小且存储在较慢的存储介质上(例如硬盘而非固态硬盘),较小的 batch_size 可能会增加数据读取的开销,因为在每个训练步骤中都需要从磁盘加载更多的数据。

硬件设备:在使用 GPU 进行训练时,较小的 batch_size 可能无法充分利用 GPU 的并行计算能力,导致 GPU 的利用率下降,从而影响性能。另一方面,如果系统内存有限,减少 batch_size 可能会减少内存占用,从而提高整体性能。

数据读取方式:如果使用了数据预加载或者数据预处理技术,较小的 batch_size 可能会增加数据加载和处理的开销,尤其是在每个训练步骤中都需要对数据进行额外的处理时。

综上所述,减少 batch_size 可能会对读取性能产生影响,但影响的具体程度取决于多个因素。在实际情况下,可以根据具体的硬件环境和数据集特点进行实验,并根据实际效果来确定最佳的 batch_size 大小。

六、softmax回归的从零开始实现

1.知识点

(1)交叉熵

交叉熵损失函数原理详解

(2)isinstance

isinstance 是 Python 的一个内置函数,用于检查一个对象是否属于指定类或类型。

语法如下:

isinstance(object, classinfo)
object:要检查的对象。
classinfo:类名、类型或者由它们组成的元组。
isinstance 函数会返回一个布尔值,表示该对象是否属于指定的类或类型。

例如:

x = 5
print(isinstance(x, int))  # 输出 True,因为 x 是整数类型
print(isinstance(x, str))  # 输出 False,因为 x 不是字符串类型

(3)eval() 评估模式

快速学pytorch之评估模式:model.eval()

在 PyTorch 中,通过调用 eval() 方法可以将模型切换为评估模式,这通常用于在推理阶段使用模型而不进行梯度计算。评估模式下,模型中的一些特定层(如 Dropout)可能会表现出不同的行为,以保证模型的输出稳定性。

(4)numel()

numel 是 PyTorch 中的一个函数,用于返回张量中元素的总数。具体来说,numel 返回的是张量的维度大小的乘积,即张量中包含的元素个数。

(5)with torch.no_grad()

with torch.no_grad() 是 PyTorch 中的上下文管理器,用于在该上下文中禁用梯度计算。在这个上下文中,PyTorch 不会跟踪张量的梯度,这样可以节省内存并提高运行效率。通常情况下,with torch.no_grad(): 被用于推断阶段,即在不需要计算梯度的情况下进行模型的推理。

(6)lambda()

python——lambda函数

(7)hasattr

【python】hasattr( )的用法

hasattr 是 Python 中的一个内置函数,用于检查对象是否具有指定的属性。

语法如下:

hasattr(object, attribute)

object 是要检查的对象。
attribute 是要检查的属性名。

(8)cla()

cla() 是 Matplotlib 中 Axes 对象的一个方法,用于清除当前 Axes 对象中的内容,即清空当前绘图区域,准备绘制新的内容。调用 cla() 方法可以清除之前绘制的图形,以便在同一个 Axes 对象上重新绘制新的图形或数据。

(9)assert()

python中assert的用法(简洁明了)

Python中的assert用法

在 Python 中,assert 语句用于检查一个条件是否为真,如果条件为假,则会引发 AssertionError 异常。assert 语句的一般形式如下:

assert condition, message

condition 是需要被检查的条件,如果条件为假(False),则会触发 AssertionError。
message 是可选的,用于在 AssertionError 中指定出错时的信息。

当程序执行到 assert 语句时,会首先对 condition 进行求值,如果为真(True),则程序继续执行;如果为假(False),则会引发 AssertionError。这种断言通常用于在开发和测试阶段对程序执行的结果进行检查,帮助发现潜在的问题或错误。

2.练习

(注:以下答案全部由AI生成)

(1、2、3)自定义softmax函数和交叉熵损失函数的问题的解决方案

在这里插入图片描述

Softmax 函数的问题:

当输入向量中的元素较大时,指数函数可能导致数值溢出或数值稳定性问题。
计算结果可能存在数值不稳定性,并且可能影响模型的训练和预测结果。

交叉熵损失函数的问题:

对数函数在定义域内为负无穷到正无穷,如果输入包含非常接近或等于零的值,可能导致计算出现无穷大或无法收敛的情况。
针对上述问题,可以采取以下解决方案:

Softmax 函数的数值稳定处理:

在计算 softmax 函数时,可以对输入向量进行归一化处理,即减去输入向量中的最大值,以减小指数函数的值,提高数值稳定性。
可以使用 softmax 函数的 log-sum-exp 表示来计算,以避免指数函数操作带来的数值问题。

交叉熵损失函数的数值稳定处理:

在计算交叉熵损失函数时,可以对预测概率值进行限制,避免输入值接近或等于零。
可以在计算交叉熵损失函数时,对预测概率值进行平滑处理,如添加一个极小值,以避免对数函数计算出现异常情况。
通过以上处理方式,可以提高数值稳定性,避免数值计算问题,确保模型训练和预测的准确性和稳定性。

(4)返回概率最大的分类标签总是最优解吗?例如,医疗诊断场景下可以这样做吗?

在大多数情况下,返回概率最大的分类标签并不总是最优解,特别是在医疗诊断等领域。虽然概率最大的分类标签可能是模型认为最有可能的类别,但在实际应用中需要综合考虑其他因素。

在医疗诊断场景下,确诊结果可能受到多个因素的影响,包括但不限于:

误诊风险:仅仅依赖于概率最大的分类标签可能忽略了其他可能性,增加了误诊的风险。
医疗专家知识:医疗诊断往往需要结合医疗专家的知识和经验,综合考虑病人的病史、症状等信息。
不确定性:医疗诊断可能存在一定的不确定性,患者的病情可能具有多样性和复杂性,单一概率最大的分类标签可能无法完全覆盖所有情况。

因此,在医疗诊断等重要场景下,通常会采取以下策略来提高诊断准确性和可靠性:

多因素综合考虑:除了模型输出的概率最大分类标签外,还需考虑其他因素,如医疗专家意见、辅助检查结果等。
不确定性估计:对模型输出的概率值进行不确定性估计,提供患者可能属于不同类别的概率范围,而非仅仅依赖于单一分类标签。
风险评估:综合考虑误诊风险,采取相应的风险管理措施,如进一步检查或复核。

综合考虑各种因素,可以帮助提高医疗诊断的准确性和可靠性,避免仅仅依赖于概率最大的分类标签而造成误诊的情况。

(5)假设我们使用softmax回归来预测下一个单词,可选取的单词数目过多可能会带来哪些问题?

当使用 softmax 回归来预测下一个单词时,如果可选取的单词数目过多,可能会导致以下问题

计算复杂度高:
随着可选单词数目的增加,softmax 函数的计算复杂度会呈指数级增长,需要计算所有可能单词的概率分布。这将导致训练时间和推理时间大幅增加。
内存消耗大:
需要存储所有可能单词的概率分布,如果可选取的单词数目很大,将占用大量内存空间。
稀疏性问题:
当可选取的单词数目过多时,训练数据中每个样本对应的标签向量会变得非常稀疏,这会使模型难以学习有效的表示,影响模型的泛化能力。
标签噪声:
过多的可选单词可能导致训练数据中存在大量的标签噪声,使模型难以准确学习每个单词的概率分布。

为了解决上述问题,可以采取以下策略
降低类别数量:
可以通过合并相似的单词或者仅选择出现频率较高的单词作为候选,来降低可选取的单词数目。
层次 softmax:
使用层次 softmax(hierarchical softmax)来减少 softmax 函数的计算复杂度,通过构建树形结构对单词进行分类,减少概率计算的时间复杂度。
负采样:
使用负采样(negative sampling)代替 softmax 来训练模型,通过随机采样出一小部分负例来估计概率,从而降低计算复杂度。

通过以上策略,可以在保证模型效果的同时,降低计算复杂度和内存消耗,提高模型的训练和推理效率。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/756961.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

HCIP作业

实验要求&#xff1a; 1、R6为ISP&#xff0c;接口IP地址均为公有地址&#xff0c;该设备只能配置IP地址&#xff0c;之后不能再对其进行任何配置&#xff1b; 2、R1-R5为局域网&#xff0c;私有IP地址192.168.1.0/24&#xff0c;请合理分配&#xff1b; 3、R1、R2、R4&#x…

硬件基础:带缓启动MOS管电源开关电路

电源开关电路&#xff0c;经常用在各“功能模块”电路的电源通断控制&#xff0c;是常用电路之一。 本文要讲解的电源开关电路&#xff0c;是用MOS管实现的&#xff0c;且带缓开启功能&#xff0c;非常经典。 一、电路说明 电源开关电路&#xff0c;尤其是MOS管电源开关电路…

webpack中常见的Loader?解决了什么问题?

一、是什么 loader 用于对模块的"源代码"进行转换&#xff0c;在 import 或"加载"模块时预处理文件 webpack做的事情&#xff0c;仅仅是分析出各种模块的依赖关系&#xff0c;然后形成资源列表&#xff0c;最终打包生成到指定的文件中。如下图所示&#…

微信小程序 ---- 慕尚花坊 结算支付

结算支付 01. 配置分包并跳转到结算页面 思路分析&#xff1a; 随着项目功能的增加&#xff0c;项目体积也随着增大&#xff0c;从而影响小程序的加载速度&#xff0c;影响用户的体验。 因此我们需要将 结算支付 功能配置成一个分包&#xff0c; 当用户在访问设置页面时&a…

使用 Redux 管理 React 应用状态

使用 Redux 管理 React 应用状态 在复杂的 React 应用中&#xff0c;管理组件状态变得越来越复杂&#xff0c;这时候引入 Redux 可以帮助我们更好地管理状态。Redux 是一个可预测状态容器&#xff0c;它可以帮助我们统一管理应用的状态&#xff0c;使得状态变化更加可控。本文…

MATLAB环境下基于K-SVD的一维时间序列信号瞬态特征提取

当旋转机械某一零部件发生故障时&#xff0c;其振动信号中就会产生周期性循环冲击响应—瞬态成分&#xff0c;这些瞬态成分往往包含着重要的故障信息。因此&#xff0c;利用合适的方法对振动信号中因局部故障引起的瞬态冲击响应成分进行提取是一种较为有效的旋转机械零部件故障…

【RabbitMQ | 第四篇】基于RabbitMQ实现延迟队列

文章目录 4.基于RabbitMQ实现延迟队列4.1延迟队列定义4.2基于DLX&#xff08;死信交换机&#xff09;实现延迟队列4.2.1实现思路4.2.2主要流程4.2.3实战&#xff08;1&#xff09;创建两个消息队列&#xff1a;原始消息队列、死信队列 and 为原始消息队列关联私信交换机&#x…

【Ubuntu 22.04 LTS】安装vmware提示没有兼容的gcc

在ubuntu 22.04 上运行wmware时显示找不到兼容的gcc 这里要求的是12.3.0版本&#xff0c;我查看了自己的gcc版本是上面的11.4.0 在ask ubuntu上找到了解决方法 尝试了这一条 三条命令执行完成之后&#xff0c;再次运行vm&#xff0c;没有提示gcc的问题 点击install下载相应模…

vue3+element Plus form 作为子组件,从父组件如何赋值?

刚开始接触vue3时&#xff0c;碰到一个很low的问题&#xff0c;将form作为子组件&#xff0c;在页面中给form表单项输入内容&#xff0c;输入框不显示值&#xff0c;知道问题出在哪&#xff0c;但因为vue3组合式api不熟悉&#xff0c;不知从哪下手... 效果图&#xff1a; 父组…

【力扣TOP100】跳跃游戏ll

题目内容&#xff1a; 分析&#xff1a; 由于确保可以最终到达最后一个位置&#xff0c;所以可以只记录每一次跳跃可以到达的最远位置end&#xff0c;当end>len(nums)-1则结束循环。每次只需要在新可以跳到的位置上再次跳跃即可。 class Solution:def jump(self, nums: Li…

.htaccess全站设置SSL,wordpress全站设置SSL,网站重定向的次数过多”错误最佳解决方法教程

.htaccess全站设置SSL,wordpress全站设置SSL&#xff0c;网站重定向的次数过多”错误最佳解决方法教程 网上找了很多教程网无效**.htacces**设置&#xff0c;访问后台出现重定向次数过多&#xff0c;导致无法访问 找了好久&#xff0c;测试用AI机器人无法解决&#xff0c;参考…

机器学习 - 准备数据

“Data” in machine learning can be almost anything you can imagine. A table of big Excel spreadsheet, images, videos, audio files, text and more. 机器学习其实可以分为两部分 将不管是什么data&#xff0c;都转成numbers.挑选或者建立一个模型来学习这些numbers …

基于VMware虚拟机安装MacOS BigSur系统

这周用VMWare搞了个MacOS虚拟机&#xff0c;也算是完成初中高中时候的梦想了吧~~&#xff08;那时候我的电脑配置还很拉跨&#xff0c;带不动虚拟机&#xff09;~~ 写一篇博客记录一下&#xff0c;当然这也是yonagi04.github.io建站的第一篇新博客 准备工作&#xff08;VMWare…

[GPT概念-02] — 预训练、微调和不同的用例应用

GPT: Generative Pretrained Transformer 一、说明 在之前的博客中&#xff0c;我们研究了生成式预训练转换器的整个概述。现在让我们看看关于预训练、微调和不同用例应用的超级重要主题。 二、预备训练 预训练是关于在没有监督或显式监督的情况下&#xff0c;我们从大型未标记…

海外社交营销为什么用云手机?不用普通手机?

海外社交营销作为企业拓展海外市场的重要手段&#xff0c;正日益受到企业的青睐。云手机以其成本效益和全球性特征&#xff0c;成为海外社交营销领域的得力助手。那么&#xff0c;究竟是什么特性使得越来越多的企业选择利用云手机进行海外社交营销呢&#xff1f;下文将对此进行…

Angular进阶之八: Angular Animation在项目中的实践经验

使用 Angular 进行项目开发的程序员应该都很熟悉 Angular Animation。这是一个 Angular 原生的动画库&#xff0c;它可以替代或者辅助完成原本需要使用 css 的动画功能。 Angular 在国内的运用是很有限的&#xff0c;可借鉴的文档并不很丰富。尤其对于 Angular 动画模块的应用…

如何从零开始拆解uni-app开发的vue项目(一)

uni-app项目分析: 背景:最近接手一个前同事留下的半拉子项目,出拿过来觉得很简单;当我看到app.vue的时候很确定是vue项目,心里不怎么慌,果断安装node.js,然后就去npm ;安装VS code,事实并不是我期盼的那样,或者说根本就不能运行。 报错:应用vs code打开文件,输入命…

智慧城市与数字孪生:科技融合助力城市可持续发展

随着信息技术的迅猛发展&#xff0c;智慧城市和数字孪生作为现代城市发展的重要理念和技术手段&#xff0c;正日益受到广泛关注。智慧城市通过集成应用先进的信息通信技术&#xff0c;实现城市管理、服务、运行的智能化&#xff0c;而数字孪生则是利用数字化手段对物理城市进行…

Stewart并联六自由度摇摆平台计算

六自由度并联Stewart Platform摇摆平台。Matlab GUI界面操作&#xff0c;动画显示河模拟仿真&#xff0c;可以手动设置设备系统参数。 Matlab 程序&#xff0c;源代码包含注释。 程序下载链接&#xff1a; https://download.csdn.net/download/panjinliang066333/88991928 …

GPT-4引领AI新纪元,Claude3、Gemini、Sora能否跟上步伐?

【最新增加Claude3、Gemini、Sora、GPTs讲解及AI领域中的集中大模型的最新技术】 2023年随着OpenAI开发者大会的召开&#xff0c;最重磅更新当属GPTs&#xff0c;多模态API&#xff0c;未来自定义专属的GPT。微软创始人比尔盖茨称ChatGPT的出现有着重大历史意义&#xff0c;不亚…