跟李沐学AI-深度学习课程04数据操作

数据操作

🏷sec_ndarray

为了能够完成各种数据操作,我们需要某种方法来存储和操作数据。
通常,我们需要做两件重要的事:(1)获取数据;(2)将数据读入计算机后对其进行处理。
如果没有某种方法来存储数据,那么获取数据是没有意义的。

首先,我们介绍 n n n维数组,也称为张量(tensor)。
使用过Python中NumPy计算包的读者会对本部分很熟悉。
无论使用哪个深度学习框架,它的张量类(在MXNet中为ndarray
在PyTorch和TensorFlow中为Tensor)都与Numpy的ndarray类似。
但深度学习框架又比Numpy的ndarray多一些重要功能:
首先,GPU很好地支持加速计算,而NumPy仅支持CPU计算;
其次,张量类支持自动微分。
这些功能使得张量类更适合深度学习。
如果没有特殊说明,本书中所说的张量均指的是张量类的实例。

入门

本节的目标是帮助读者了解并运行一些在阅读本书的过程中会用到的基本数值计算工具。
如果你很难理解一些数学概念或库函数,请不要担心。
后面的章节将通过一些实际的例子来回顾这些内容。
如果你已经具有相关经验,想要深入学习数学内容,可以跳过本节。

:begin_tab:mxnet
首先,我们从MXNet导入npnumpy)模块和npxnumpy_extension)模块。
np模块包含NumPy支持的函数;
npx模块包含一组扩展函数,用来在类似NumPy的环境中实现深度学习开发。
当使用张量时,几乎总是会调用set_np函数,这是为了兼容MXNet的其他张量处理组件。
:end_tab:

:begin_tab:pytorch
(首先,我们导入torch。请注意,虽然它被称为PyTorch,但是代码中使用torch而不是pytorch)
:end_tab:

:begin_tab:tensorflow
首先,我们导入tensorflow
由于tensorflow名称有点长,我们经常在导入它后使用短别名tf
:end_tab:

from mxnet import np, npx
npx.set_np()
#@tab pytorch
import torch
#@tab tensorflow
import tensorflow as tf
#@tab paddle
import warnings
warnings.filterwarnings(action='ignore')
import paddle

[张量表示一个由数值组成的数组,这个数组可能有多个维度]。
具有一个轴的张量对应数学上的向量(vector);
具有两个轴的张量对应数学上的矩阵(matrix);
具有两个轴以上的张量没有特殊的数学名称。

:begin_tab:mxnet
首先,我们可以使用 arange 创建一个行向量 x。这个行向量包含以0开始的前12个整数,它们默认创建为浮点数。张量中的每个值都称为张量的 元素(element)。例如,张量 x 中有 12 个元素。除非额外指定,新的张量将存储在内存中,并采用基于CPU的计算。
:end_tab:

:begin_tab:pytorch
首先,我们可以使用 arange 创建一个行向量 x。这个行向量包含以0开始的前12个整数,它们默认创建为整数。也可指定创建类型为浮点数。张量中的每个值都称为张量的 元素(element)。例如,张量 x 中有 12 个元素。除非额外指定,新的张量将存储在内存中,并采用基于CPU的计算。
:end_tab:

:begin_tab:tensorflow
首先,我们可以使用 range 创建一个行向量 x。这个行向量包含以0开始的前12个整数,它们默认创建为整数。也可指定创建类型为浮点数。张量中的每个值都称为张量的 元素(element)。例如,张量 x 中有 12 个元素。除非额外指定,新的张量将存储在内存中,并采用基于CPU的计算。
:end_tab:

x = np.arange(12)
x
#@tab pytorch
x = torch.arange(12)
x
#@tab tensorflow
x = tf.range(12)
x
#@tab paddle
x = paddle.arange(12)
x

[可以通过张量的shape属性来访问张量(沿每个轴的长度)的形状]
(和张量中元素的总数)。

#@tab all
x.shape

如果只想知道张量中元素的总数,即形状的所有元素乘积,可以检查它的大小(size)。
因为这里在处理的是一个向量,所以它的shape与它的size相同。

x.size
#@tab pytorch
x.numel()
#@tab tensorflow
tf.size(x)
#@tab paddle
x.numel()

[要想改变一个张量的形状而不改变元素数量和元素值,可以调用reshape函数。]
例如,可以把张量x从形状为(12,)的行向量转换为形状为(3,4)的矩阵。
这个新的张量包含与转换前相同的值,但是它被看成一个3行4列的矩阵。
要重点说明一下,虽然张量的形状发生了改变,但其元素值并没有变。
注意,通过改变张量的形状,张量的大小不会改变。

#@tab mxnet, pytorch
X = x.reshape(3, 4)
X
#@tab tensorflow
X = tf.reshape(x, (3, 4))
X
#@tab paddle
X = paddle.reshape(x, (3, 4))
X

我们不需要通过手动指定每个维度来改变形状。
也就是说,如果我们的目标形状是(高度,宽度),
那么在知道宽度后,高度会被自动计算得出,不必我们自己做除法。
在上面的例子中,为了获得一个3行的矩阵,我们手动指定了它有3行和4列。
幸运的是,我们可以通过-1来调用此自动计算出维度的功能。
即我们可以用x.reshape(-1,4)x.reshape(3,-1)来取代x.reshape(3,4)

有时,我们希望[使用全0、全1、其他常量,或者从特定分布中随机采样的数字]来初始化矩阵。
我们可以创建一个形状为(2,3,4)的张量,其中所有元素都设置为0。代码如下:

np.zeros((2, 3, 4))
#@tab pytorch
torch.zeros((2, 3, 4))
#@tab tensorflow
tf.zeros((2, 3, 4))
#@tab paddle
paddle.zeros((2, 3, 4))

同样,我们可以创建一个形状为(2,3,4)的张量,其中所有元素都设置为1。代码如下:

np.ones((2, 3, 4))
#@tab pytorch
torch.ones((2, 3, 4))
#@tab tensorflow
tf.ones((2, 3, 4))
#@tab paddle
paddle.ones((2, 3, 4))

有时我们想通过从某个特定的概率分布中随机采样来得到张量中每个元素的值。
例如,当我们构造数组来作为神经网络中的参数时,我们通常会随机初始化参数的值。
以下代码创建一个形状为(3,4)的张量。
其中的每个元素都从均值为0、标准差为1的标准高斯分布(正态分布)中随机采样。

np.random.normal(0, 1, size=(3, 4))
#@tab pytorch
torch.randn(3, 4)
#@tab tensorflow
tf.random.normal(shape=[3, 4])
#@tab paddle
paddle.randn((3, 4),'float32')

我们还可以[通过提供包含数值的Python列表(或嵌套列表),来为所需张量中的每个元素赋予确定值]。
在这里,最外层的列表对应于轴0,内层的列表对应于轴1。

np.array([[2, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
#@tab pytorch
torch.tensor([[2, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
#@tab tensorflow
tf.constant([[2, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
#@tab paddle
paddle.to_tensor([[2, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])

运算符

我们的兴趣不仅限于读取数据和写入数据。
我们想在这些数据上执行数学运算,其中最简单且最有用的操作是按元素(elementwise)运算。
它们将标准标量运算符应用于数组的每个元素。
对于将两个数组作为输入的函数,按元素运算将二元运算符应用于两个数组中的每对位置对应的元素。
我们可以基于任何从标量到标量的函数来创建按元素函数。

在数学表示法中,我们将通过符号 f : R → R f: \mathbb{R} \rightarrow \mathbb{R} f:RR
来表示一元标量运算符(只接收一个输入)。
这意味着该函数从任何实数( R \mathbb{R} R)映射到另一个实数。
同样,我们通过符号 f : R , R → R f: \mathbb{R}, \mathbb{R} \rightarrow \mathbb{R} f:R,RR
表示二元标量运算符,这意味着该函数接收两个输入,并产生一个输出。
给定同一形状的任意两个向量 u \mathbf{u} u v \mathbf{v} v和二元运算符 f f f
我们可以得到向量 c = F ( u , v ) \mathbf{c} = F(\mathbf{u},\mathbf{v}) c=F(u,v)
具体计算方法是 c i ← f ( u i , v i ) c_i \gets f(u_i, v_i) cif(ui,vi)
其中 c i c_i ci u i u_i ui v i v_i vi分别是向量 c \mathbf{c} c u \mathbf{u} u v \mathbf{v} v中的元素。
在这里,我们通过将标量函数升级为按元素向量运算来生成向量值
F : R d , R d → R d F: \mathbb{R}^d, \mathbb{R}^d \rightarrow \mathbb{R}^d F:Rd,RdRd

对于任意具有相同形状的张量,
[常见的标准算术运算符(+-*/**)都可以被升级为按元素运算]。
我们可以在同一形状的任意两个张量上调用按元素操作。
在下面的例子中,我们使用逗号来表示一个具有5个元素的元组,其中每个元素都是按元素操作的结果。

x = np.array([1, 2, 4, 8])
y = np.array([2, 2, 2, 2])
x + y, x - y, x * y, x / y, x ** y  # **运算符是求幂运算
#@tab pytorch
x = torch.tensor([1.0, 2, 4, 8])
y = torch.tensor([2, 2, 2, 2])
x + y, x - y, x * y, x / y, x ** y  # **运算符是求幂运算
#@tab tensorflow
x = tf.constant([1.0, 2, 4, 8])
y = tf.constant([2.0, 2, 2, 2])
x + y, x - y, x * y, x / y, x ** y  # **运算符是求幂运算
#@tab paddle
x = paddle.to_tensor([1.0, 2, 4, 8])
y = paddle.to_tensor([2, 2, 2, 2])
x + y, x - y, x * y, x / y, x**y  # **运算符是求幂运算

(“按元素”方式可以应用更多的计算),包括像求幂这样的一元运算符。

np.exp(x)
#@tab pytorch
torch.exp(x)
#@tab tensorflow
tf.exp(x)
#@tab paddle
paddle.exp(x)

除了按元素计算外,我们还可以执行线性代数运算,包括向量点积和矩阵乘法。
我们将在 :numref:sec_linear-algebra中解释线性代数的重点内容。

[我们也可以把多个张量连结(concatenate)在一起],
把它们端对端地叠起来形成一个更大的张量。
我们只需要提供张量列表,并给出沿哪个轴连结。
下面的例子分别演示了当我们沿行(轴-0,形状的第一个元素)
和按列(轴-1,形状的第二个元素)连结两个矩阵时,会发生什么情况。
我们可以看到,第一个输出张量的轴-0长度( 6 6 6)是两个输入张量轴-0长度的总和( 3 + 3 3 + 3 3+3);
第二个输出张量的轴-1长度( 8 8 8)是两个输入张量轴-1长度的总和( 4 + 4 4 + 4 4+4)。

X = np.arange(12).reshape(3, 4)
Y = np.array([[2, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
np.concatenate([X, Y], axis=0), np.concatenate([X, Y], axis=1)
#@tab pytorch
X = torch.arange(12, dtype=torch.float32).reshape((3,4))
Y = torch.tensor([[2.0, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
torch.cat((X, Y), dim=0), torch.cat((X, Y), dim=1)
#@tab tensorflow
X = tf.reshape(tf.range(12, dtype=tf.float32), (3, 4))
Y = tf.constant([[2.0, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
tf.concat([X, Y], axis=0), tf.concat([X, Y], axis=1)
#@tab paddle
X = paddle.arange(12, dtype='float32').reshape((3, 4))
Y = paddle.to_tensor([[2.0, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
paddle.concat((X, Y), axis=0), paddle.concat((X, Y), axis=1)

有时,我们想[通过逻辑运算符构建二元张量]。
X == Y为例:
对于每个位置,如果XY在该位置相等,则新张量中相应项的值为1。
这意味着逻辑语句X == Y在该位置处为真,否则该位置为0。

#@tab all
X == Y

[对张量中的所有元素进行求和,会产生一个单元素张量。]

#@tab mxnet, pytorch, paddle
X.sum()
#@tab tensorflow
tf.reduce_sum(X)

广播机制

🏷subsec_broadcasting

在上面的部分中,我们看到了如何在相同形状的两个张量上执行按元素操作。
在某些情况下,[即使形状不同,我们仍然可以通过调用
广播机制(broadcasting mechanism)来执行按元素操作
]。
这种机制的工作方式如下:

  1. 通过适当复制元素来扩展一个或两个数组,以便在转换之后,两个张量具有相同的形状;
  2. 对生成的数组执行按元素操作。

在大多数情况下,我们将沿着数组中长度为1的轴进行广播,如下例子:

a = np.arange(3).reshape(3, 1)
b = np.arange(2).reshape(1, 2)
a, b
#@tab pytorch
a = torch.arange(3).reshape((3, 1))
b = torch.arange(2).reshape((1, 2))
a, b
#@tab tensorflow
a = tf.reshape(tf.range(3), (3, 1))
b = tf.reshape(tf.range(2), (1, 2))
a, b
#@tab paddle
a = paddle.reshape(paddle.arange(3), (3, 1))
b = paddle.reshape(paddle.arange(2), (1, 2))
a, b

由于ab分别是 3 × 1 3\times1 3×1 1 × 2 1\times2 1×2矩阵,如果让它们相加,它们的形状不匹配。
我们将两个矩阵广播为一个更大的 3 × 2 3\times2 3×2矩阵,如下所示:矩阵a将复制列,
矩阵b将复制行,然后再按元素相加。

#@tab all
a + b

索引和切片

就像在任何其他Python数组中一样,张量中的元素可以通过索引访问。
与任何Python数组一样:第一个元素的索引是0,最后一个元素索引是-1;
可以指定范围以包含第一个元素和最后一个之前的元素。

如下所示,我们[可以用[-1]选择最后一个元素,可以用[1:3]选择第二个和第三个元素]:

#@tab all
X[-1], X[1:3]

:begin_tab:mxnet, pytorch
[除读取外,我们还可以通过指定索引来将元素写入矩阵。]
:end_tab:

:begin_tab:tensorflow
TensorFlow中的Tensors是不可变的,也不能被赋值。
TensorFlow中的Variables是支持赋值的可变容器。
请记住,TensorFlow中的梯度不会通过Variable反向传播。

除了为整个Variable分配一个值之外,我们还可以通过索引来写入Variable的元素。
:end_tab:

#@tab mxnet, pytorch, paddle
X[1, 2] = 9
X
#@tab tensorflow
X_var = tf.Variable(X)
X_var[1, 2].assign(9)
X_var

如果我们想[为多个元素赋值相同的值,我们只需要索引所有元素,然后为它们赋值。]
例如,[0:2, :]访问第1行和第2行,其中“:”代表沿轴1(列)的所有元素。
虽然我们讨论的是矩阵的索引,但这也适用于向量和超过2个维度的张量。

#@tab mxnet, pytorch, paddle
X[0:2, :] = 12
X
#@tab tensorflow
X_var = tf.Variable(X)
X_var[0:2, :].assign(tf.ones(X_var[0:2,:].shape, dtype = tf.float32) * 12)
X_var

节省内存

[运行一些操作可能会导致为新结果分配内存]。
例如,如果我们用Y = X + Y,我们将取消引用Y指向的张量,而是指向新分配的内存处的张量。

在下面的例子中,我们用Python的id()函数演示了这一点,
它给我们提供了内存中引用对象的确切地址。
运行Y = Y + X后,我们会发现id(Y)指向另一个位置。
这是因为Python首先计算Y + X,为结果分配新的内存,然后使Y指向内存中的这个新位置。

#@tab all
before = id(Y)
Y = Y + X
id(Y) == before

这可能是不可取的,原因有两个:

  1. 首先,我们不想总是不必要地分配内存。在机器学习中,我们可能有数百兆的参数,并且在一秒内多次更新所有参数。通常情况下,我们希望原地执行这些更新;
  2. 如果我们不原地更新,其他引用仍然会指向旧的内存位置,这样我们的某些代码可能会无意中引用旧的参数。

:begin_tab:mxnet, pytorch
幸运的是,(执行原地操作)非常简单。
我们可以使用切片表示法将操作的结果分配给先前分配的数组,例如Y[:] = <expression>
为了说明这一点,我们首先创建一个新的矩阵Z,其形状与另一个Y相同,
使用zeros_like来分配一个全 0 0 0的块。
:end_tab:

:begin_tab:tensorflow
Variables是TensorFlow中的可变容器,它们提供了一种存储模型参数的方法。
我们可以通过assign将一个操作的结果分配给一个Variable
为了说明这一点,我们创建了一个与另一个张量Y相同的形状的Z
使用zeros_like来分配一个全 0 0 0的块。
:end_tab:

Z = np.zeros_like(Y)
print('id(Z):', id(Z))
Z[:] = X + Y
print('id(Z):', id(Z))
#@tab pytorch
Z = torch.zeros_like(Y)
print('id(Z):', id(Z))
Z[:] = X + Y
print('id(Z):', id(Z))
#@tab tensorflow
Z = tf.Variable(tf.zeros_like(Y))
print('id(Z):', id(Z))
Z.assign(X + Y)
print('id(Z):', id(Z))
#@tab paddle
Z = paddle.zeros_like(Y)
print('id(Z):', id(Z))
Z = X + Y
print('id(Z):', id(Z))

:begin_tab:mxnet, pytorch
[如果在后续计算中没有重复使用X
我们也可以使用X[:] = X + YX += Y来减少操作的内存开销。
]
:end_tab:

:begin_tab:tensorflow
即使你将状态持久存储在Variable中,
你也可能希望避免为不是模型参数的张量过度分配内存,从而进一步减少内存使用量。

由于TensorFlow的Tensors是不可变的,而且梯度不会通过Variable流动,
因此TensorFlow没有提供一种明确的方式来原地运行单个操作。

但是,TensorFlow提供了tf.function修饰符,
将计算封装在TensorFlow图中,该图在运行前经过编译和优化。
这允许TensorFlow删除未使用的值,并复用先前分配的且不再需要的值。
这样可以最大限度地减少TensorFlow计算的内存开销。
:end_tab:

#@tab mxnet, pytorch, paddle
before = id(X)
X += Y
id(X) == before
#@tab tensorflow
@tf.function
def computation(X, Y):Z = tf.zeros_like(Y)  # 这个未使用的值将被删除A = X + Y  # 当不再需要时,分配将被复用B = A + YC = B + Yreturn C + Ycomputation(X, Y)

转换为其他Python对象

:begin_tab:mxnet, tensorflow
将深度学习框架定义的张量[转换为NumPy张量(ndarray]很容易,反之也同样容易。
转换后的结果不共享内存。
这个小的不便实际上是非常重要的:当在CPU或GPU上执行操作的时候,
如果Python的NumPy包也希望使用相同的内存块执行其他操作,人们不希望停下计算来等它。
:end_tab:

:begin_tab:pytorch
将深度学习框架定义的张量[转换为NumPy张量(ndarray]很容易,反之也同样容易。
torch张量和numpy数组将共享它们的底层内存,就地操作更改一个张量也会同时更改另一个张量。
:end_tab:

A = X.asnumpy()
B = np.array(A)
type(A), type(B)
#@tab pytorch
A = X.numpy()
B = torch.tensor(A)
type(A), type(B)
#@tab tensorflow
A = X.numpy()
B = tf.constant(A)
type(A), type(B)
#@tab paddle
A = X.numpy()
B = paddle.to_tensor(A)
type(A), type(B)

要(将大小为1的张量转换为Python标量),我们可以调用item函数或Python的内置函数。

a = np.array([3.5])
a, a.item(), float(a), int(a)
#@tab pytorch
a = torch.tensor([3.5])
a, a.item(), float(a), int(a)
#@tab tensorflow
a = tf.constant([3.5]).numpy()
a, a.item(), float(a), int(a)
#@tab paddle
a = paddle.to_tensor([3.5])
a, a.item(), float(a), int(a)

小结

  • 深度学习存储和操作数据的主要接口是张量( n n n维数组)。它提供了各种功能,包括基本数学运算、广播、索引、切片、内存节省和转换其他Python对象。

练习

  1. 运行本节中的代码。将本节中的条件语句X == Y更改为X < YX > Y,然后看看你可以得到什么样的张量。
  2. 用其他形状(例如三维张量)替换广播机制中按元素操作的两个张量。结果是否与预期相同?

:begin_tab:mxnet
Discussions
:end_tab:

:begin_tab:pytorch
Discussions
:end_tab:

:begin_tab:tensorflow
Discussions
:end_tab:

:begin_tab:paddle
Discussions
:end_tab:

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/145439.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

AI视频检索丨历史视频标签化,助力重要事件高效溯源

随着科技的不断发展&#xff0c;安全监控已成为我们生活中不可或缺的一部分。当发生盗窃、人员走失、安全事故等重要事件时&#xff0c;常常需要通过查看视频回放了解事情经过&#xff0c;为解决问题提供证据或指明查找方向。但是&#xff0c;人工查看视频回放往往费时费力&…

npm 全局配置

前言 以 Win 为例&#xff1a; npm 默认在当前路径下&#xff0c;将下载的包存到自动创建的node_modules文件夹里npm i 默认全局安装路径是&#xff1a; C:\Users\你的用户名\AppData\Roaming\npmnpm 如果已经安装了包&#xff0c;修改全局配置并不能迁移过去 需要一个一个地…

Mongodb 副本集名称重命名

副本集重命名 要重命名副本集&#xff0c;您必须关闭副本集的所有成员&#xff0c;然后使用新的副本集名称配置每个成员的数据库。 此过程需要停机。 先决条件 确保您的副本集未分片。重命名过程仅适用于未分片的副本集。 在重命名副本集之前&#xff0c;请 对 MongoDB 部…

IgH Master环境搭建

目标&#xff1a;实时linux内核中运行IgH主站&#xff0c;ethercat的用户态工具能看到主站信息。 一、需要的软件 1&#xff0c;vbox虚拟机 https://www.virtualbox.org/&#xff0c;下载VirtualBox 7.0, 备注&#xff1a;windows中不要用wsl开发&#xff0c;wsl运行unbuntu…

file_put_contents锁的问题

记一次线上生产file_put_contents锁的问题 php项目&#xff0c;很多地方加了日志记录&#xff0c;方法为 function logstr($namelog,$str"",$type"Ymd"){$file date("$type")._.$name..log;$add __DIR__./../runtime/cuslog/.date("Ym&q…

苹果MAC安装绿盾出现问题,安装时没有出现填服务器地址的页面,现在更改不了也卸载不了绿盾 怎么处理?

环境: Mac mini M1 Mac os 11.0 绿盾v6.5 问题描述: 苹果MAC安装绿盾出现问题,安装时没有出现填服务器地址的页面,现在更改不了也卸载不了绿盾 怎么处理? 解决方案: 大部分企业是Windows和Mac终端混合使用,在进行文档加密管理时通常会遇到不兼容的现象,而为了统一…

M系列 Mac使用Homebrew下载配置git和连接GitHub

一、首先我们需要安装Homebrew M系列 Mac安装配置Homebrewhttps://blog.csdn.net/W_Fe5/article/details/134428377?spm1001.2014.3001.5501 二、下载git 1、终端输入一下命令 brew install git 2、这时下载完成 二、配置git 1、创建用户名和邮箱 这里以我自己的邮箱举例…

云骑士数据恢复软件会对硬盘造成伤害吗?

当今时代&#xff0c;数据已经成为我们生活的重要组成部分&#xff0c;而硬盘又是存储数据的主要设备之一。然而&#xff0c;由于各种原因&#xff0c;我们的数据很容易丢失。是的&#xff0c;我们可以通过数据恢复软件来找回丢失的数据&#xff0c;但是这个过程是否会对硬盘造…

如何防止重复提交订单?

文章目录 如何防止重复提交订单?重复提交原因常见解决方案方案一:提交订单按钮置灰幂等性方案二:预生成全局唯一订单号方案三:前端生成全局唯一订单号方案四:从订单业务的本质入手结语如何防止重复提交订单? 重复提交原因 其实原因无外乎两种: 一种是由于用户在短时间…

从哪里下载 Oracle database 11g 软件

登入My Oracle Support&#xff0c;选择Patches & Updates 标签页&#xff0c;点击下方的Latest Patchsets链接&#xff1a; 然后单击Oracle Database&#xff0c;就可以下载11g软件了&#xff1a; 安装单实例数据库需要1和2两个zip文件&#xff0c;安装GI需要第3个zip文…

【word密码】word设置只读方式的四个方法

想要将word文档设置为只读模式&#xff0c;方法有很多&#xff0c;今天小奥超人介绍几个方法给大家。 方法一&#xff1a;文件属性 常见的、简单的设置方法&#xff0c;不用打开word文件&#xff0c;只需要右键选择文件&#xff0c;打开文件属性&#xff0c;勾选上【只读】选…

无线WiFi安全渗透与攻防(N.1)WPA渗透-pyrit:batch-table加速attack_db模块加速_“attack_db”模块加速

WPA渗透-pyrit:batch-table加速attack_db模块加速_“attack_db”模块加速 WPA渗透-pyrit:batch-table加速attack_db模块加速_“attack_db”模块加速1.渗透WIFI1.导入密码字典2.导入essid,破解完成记得删除3.批处理数据库,速度比较慢,耐心等待4.batch-table(批处理数据库)加…

2311vim极语言加高亮

1,在vim的\syntax目录中,新建ji.vim及极关键.vim.ji.vim内容如下. source $VIMRUNTIME/syntax/cpp.vim "把cpp作为基础." source $VIMRUNTIME/syntax/极关键.vim "加上极关键字." set autoindent "自动缩进."2,极关键.vim如下: syn keyword Jj…

全新叙事赛道:诺亚引领不良资产合成潮流,DeFi生态再添“万亿”动力

在全球DeFi领域&#xff0c;一场革命性的变革正在悄然兴起。诺亚项目以其独特的商业模式和前瞻性的愿景成为DeFi 2.0的一股新力量。作为全球首家专注于不良资产合成铸币的平台&#xff0c;诺亚项目凭借其强大的经济模型和全新的叙事赛道&#xff0c;正迅速崭露头角&#xff0c;…

【运维 监控】Grafana + Prometheus,监控Linux

安装和配置Grafana与Prometheus需要一些步骤&#xff0c;下面是一个简单的指南&#xff1a; 安装 Prometheus&#xff1a; 使用包管理器安装 Prometheus。在 Debian/Ubuntu 上&#xff0c;可以使用以下命令&#xff1a; sudo apt-get update sudo apt-get install prometheus在…

思维导图软件 Xmind mac中文版特点介绍

XMind 2022 mac是一款思维导图软件&#xff0c;可以帮助用户创建各种类型的思维导图和概念图。 XMind mac软件特点 - 多样化的导图类型&#xff1a;XMind提供了多种类型的导图&#xff0c;如鱼骨图、树形图、机构图等&#xff0c;可以满足不同用户的需求。 - 强大的功能和工具&…

第二部分:聚合根

目录 定义 最佳实践 不好案例 定义 聚合类是实体的升级&#xff0c;是由一组与生俱来就密切相关实体和值对象组合而成的&#xff0c;这整个组合的最上层实体就是聚合。Aggregate(聚合&#xff09;是一组相关对象的集合&#xff0c;作为一个整体被外界访问&#xff0c;聚合根…

Linux中的进程等待(超详细)

Linux中的进程等待 1. 进程等待必要性2. 进程等待的方法2.1 wait方法2.2 waitpid方法 3. 获取子进程status4. 具体代码实现 1. 进程等待必要性 我们知道&#xff0c;子进程退出&#xff0c;父进程如果不管不顾&#xff0c;就可能造成‘僵尸进程’的问题&#xff0c;进而造成内…

sqli-labs(Less-4) extractvalue闯关

extractvalue() - Xpath类型函数 1. 确认注入点如何闭合的方式 2. 爆出当前数据库的库名 http://127.0.0.1/sqlilabs/Less-4/?id1") and extractvalue(1,concat(~,(select database()))) --3. 爆出当前数据库的表名 http://127.0.0.1/sqlilabs/Less-4/?id1") …

蓝桥杯 vector

vector的定义和特性 注意&#xff1a;vector需要开C11标准 vector的常用函数 push_back():将元素添加到vector末尾 pop_back():删除vector末尾的元素 begin()和end():返回指向vector第一个元素和最后一个元素之后一个位置的迭代器。 示例 vector<int> vec{10,20,30};f…