动手学深度学习PyTorch版

基本的数据操作 

import torch
# 创建一个行向量,默认为从0开始的12个整数
# n维数组也称为张量
x = torch.arange(12)
x
# 张量的形状
x.shape# 张量的大小,张量所有元素的个数
x.numel()#修改张量的形状
x = x.reshape(3,4)#生成形状为3*4的两个向量,向量中数字全为0
torch.zeros(2,3,4)#生成形状为3*4的两个向量,向量中数字全为1
torch.ones(2,3,4)

随机取样

# 创建一个形状为(3,4)的张量,其中每个元素为0,标准差为1的标准高斯分布(正态分布)中随机取样
torch.randn(3,4)

张量的运算操作 

x = torch.tensor([1.0, 2.0, 3.0, 4])
y = torch.tensor([2, 3, 5, 7])
x + y, x - y, x * y, x / y, x ** y

张量的拼接操作

x = torch.arange(12, dtype=torch.float32).reshape((3, 4))
y = torch.tensor([[2.0, 1, 3, 4],[1, 2, 5, 6],[5, 6, 2, 1]])
print(x)
# dim=0时y的每一行都添加到x的每一行下方
torch.cat((x, y),dim=0),torch.cat((x, y),dim=1)

广播机制

# 我们可以在形状不同的两个张量调用广播机制进行按元素操作
# 可以适当复制元素来扩展一个或两个数组
import torch
a = torch.arange(3).reshape(3,1)
b = torch.arange(2).reshape(1,2)
a, b# 矩阵a将复制列,矩阵b将复制行,然后按元素相加
# 复制的都是原本的元素
a + b

索引和切片

# 索引和切片
x = torch.arange(12).reshape(3,4)
# 输出的是行
print(x[-1])
print(x[1:3])# 第2行,第三列的元素改为9
x[1,2] = 9#前两行的所有元素都变为12
x[0:2, : ] = 12

转换为其他python对象

# 转换为其他python对象
a = x.numpy()
b = torch.tensor(a)
type(a), type(b)
# numpy.ndarraya = torch.tensor([3.5])
a, a.item(), float(a), int(a)
# (tensor([3.5000]), 3.5, 3.5, 3)

数据预处理

写入文件

# os模块提供了很多与操作系统交互的功能,如文件路径操作、文件读写
import os# exist_ok=True 表示如果目录已存在,则不会抛出异常,而是继续执行
os.makedirs(os.path.join('..','data'), exist_ok=True)
data_file = os.path.join('..','data','house_tiny.csv')with open(data_file, 'w') as f:f.write('NumRooms,Alley,Price\n')f.write('NA,PAVE,125700\n')f.write('2,NA,106000\n')f.write('4,NA,10000\n')f.write('NA,NA,120000\n')

加载原始数据集

# 要从创建的CSV文件中加载原始数据集,我们导入pandas包并调用read_csv函数
import pandas as pddata = pd.read_csv(data_file)
data

处理缺失值

inputs, outputs = data.iloc[:, 0:2], data.iloc[:, 2]
# 将inputs中的所有NaN值替换为其非空值的平均值,并将结果重新赋值给inputs
inputs = inputs.fillna(inputs.mean())
print(inputs)
# 将分类变量(也称为因子或枚举类型)转换为一种称为独热编码(One-Hot Encoding)的格式
# 当 dummy_na=True 时,该函数还会为缺失值(NaN)创建额外的列
inputs = pd.get_dummies(inputs, dummy_na=True)
print(inputs)

转换为张量格式

# 转换为张量格式
import torchx, y = torch.tensor(inputs.values), torch.tensor(outputs.values)
x, y

张量算法

import torch
x = torch.arange(4, dtype=torch.float32)
x,x.sum()
x = torch.arange(20, dtype=torch.float32).reshape(5, 4)
print(x)
# 张量的每列相加
x_sum_axis0 = x.sum(axis=0)
# 张量的每行相加
x_sum_axis1 = x.sum(axis=1)
print(x_sum_axis0)
print(x_sum_axis1)
print(x_sum_axis0.shape)
print(x_sum_axis1.shape)
x_sum = x.sum(axis=[0, 1])
print(x_sum)
print(x.mean())
print(x.sum() / x.numel())

非降维求和

sum_x = x.sum(axis=1, keepdims=True)
print(sum_x)
print(x / sum_x)
# 每一行的数都加上上面的数字
print(x.cumsum(axis=0))

向量的点积操作

x = torch.arange(4, dtype=torch.float32)
y = torch.ones(4, dtype=torch.float32)
x, y, torch.dot(x, y)
# 两个操作结果是一样的
torch.sum(x * y)# 矩阵向量积
A = torch.arange(20, dtype=torch.float32).reshape(5, 4)
torch.mv(A, y)# 矩阵-矩阵乘法
B = torch.ones(4, 3)
B, torch.mm(A, B)

范数

范数的性质

①:f(\alpha x) =\left | \alpha \right |f(x)

②:f(x+y)\leqslant f(x)+f(y)

③:f(x)\geqslant 0

# L2范数
u = torch.tensor([3.0, -4.0])
print(torch.norm(u))    # tensor(5.)
# L1范数
print(torch.abs(u).sum())    # tensor(7.)# 弗罗贝尼乌斯范数:矩阵元素平方和的平方根
# 矩阵元素为4行9列的1
torch.norm(torch.ones((4,9)))    # tensor(6.)

微积分

导数和微分

# 使 Matplotlib 生成的图形在 Notebook 单元格中直接显示,而不是弹出一个新的窗口
%matplotlib inline
import numpy as np
# 在 Matplotlib 中,后端(backend)是指用于渲染图形和与用户界面交互的软件组件。不同的后端支持不同的输出格式和交互方式。
# 通常使用内联后端(inline backend)来在单元格中直接显示图形。
from matplotlib_inline import backend_inline
from d2l import torch as d2ldef f(x):return 3 * x ** 2 - 4 * xdef numerical_lim(f, x, h):return (f(x+h) - f(x)) / hh = 0.1
for i in range(5):print(f'h={h:.5f}, numerical limit={numerical_lim(f, 1, h):.5f}')h *= 0.1

保存标记 #save

#@save 会将对应的函数,类或语句保存在d2l包中
# 以后无需重新定义就可以直接调用它们
def use_svg_display():  #@save# 使用svg格式在jupyter中显示绘图backend_inline.set_matplotlib_formats('svg')def set_figsize(figsize=(3.5, 2.5)): #@save# 第一个元素是宽度,第二个元素是高度use_svg_display()# 设置图形的默认尺寸d2l.plt.rcParams['figure.figsize'] = figsize

 绘图函数及其切线

#@save
def set_axes(axes, xlabel, ylabel, xlim, ylim, xscale, yscale, legend):# 设置matplotlib的轴axes.set_xlabel(xlabel)axes.set_ylabel(ylabel)axes.set_xscale(xscale)axes.set_yscale(yscale)axes.set_xlim(xlim)axes.set_ylim(ylim)if legend:axes.legend(legend)axes.grid()
#@save
# 一个元组,用于设置X轴的显示范围。例如,xlim=(0, 10)会确保X轴只显示从0到10的值
# legend:一个标签列表,用于表示数据集中的每个系列# fmts:一个字符串元组,用于定义数据系列的绘制格式。
# 例如,'-'表示实线,'m--'表示紫色的虚线,'g-.'表示绿色的点划线,'r:'表示红色的点状线。
# axes这个参数允许用户在一个已存在的图形上绘制,而不是创建一个新的图形。
def plot(X, Y=None, xlabel=None, ylabel=None, legend=None, xlim=None, ylim=None, xscale='linear',yscale='linear', fmts=('-', 'm--', 'g-.', 'r:'), figsize=(3.5, 2.5), axes=None):# 绘制数据点if legend is None:legend = []set_figsize(figsize)# d2l.plt.gca()表示当前的轴对象axes = axes if axes else d2l.plt.gca()# 如果X有一个轴,输出Truedef has_one_axis(X):return (hasattr(X, "ndim") and X.ndim == 1 or isinstance(X, list)and not hasattr(X[0], "__len__"))if has_one_axis(X):X = [X]if Y is None:X, Y = [[]] * len(X), Xelif has_one_axis(Y):Y = [Y]if len(X) != len(Y):X = X * len(Y)axes.cla()for x, y, fmt in zip(X, Y, fmts):if len(x):axes.plot(x, y, fmt)else:axes.plot(y, fmt)set_axes(axes, xlabel, ylabel, xlim, ylim, xscale, yscale, legend)
x = np.arange(0, 3, 0.1)
plot(x, [f(x), 2 * x - 3], 'x', 'f(x)', legend=['f(x)', 'Tangent line (x=1)'])

偏导数和梯度

我们可以连接一个多元函数对其所有变量的偏导数,以得到该函数的梯度向量

函数f(x)相对于x的梯度是一个包含n个偏导数的向量

自动微分

# 自动微分使系统能够随后反向传播梯度
import torch
x = torch.arange(4.0)# 一个标量函数关于向量x的梯度是向量,并且与x有相同的形状
# x.requires_grad 是 True,那么在 x 上进行的所有操作都会被跟踪,
# 这样当你调用 .backward() 方法时,PyTorch可以计算出 x 关于某个标量函数(通常是损失函数)的梯度
x.requires_grad_(True)
print(x.grad)   # 默认值为None
y = 2 * torch.dot(x, x)
print(y)# x是一个长度为4的向量,计算x和x的点积,我们赋值给y的标量输出
# 通过调用反向传播函数来自动计算y关于x的每个分量的梯度  4x
y.backward()
x.grad
# 在默认情况下,PyTorch会累积梯度,我们需要清除之前的值
# 就地操作,直接修改原始张量
# .zero():非就地操作,返回一个新的零张量,原始张量保持不变
x.grad.zero_()
print(x)
print(x.grad)y = x.sum()
print(y)# 代码执行反向传播操作,计算y相对于x的梯度,并将结果存储在x.grad中
# 首先给网络输入一组训练数据,并计算输出结果;然后计算输出结果与实际结果的差异,得到网络的误差;
# 接着计算每个节点对误差的贡献,并将这些贡献反向传播到前一层;
# 最后根据贡献的大小调整每个节点的权重,使得误差减小
y.backward()# 因为 y 是 x 的所有元素的和,所以 y 关于 x 的梯度是一个全为 1 的向量
print(x.grad)
x.grad.zero_()
y = x * x
# 等价于y.backward(torch.ones(len(x)))
y.sum().backward()
x.grad

张量的分离计算操作

x.grad.zero_()
y = x * x
print(y)
# 处理计算图和梯度反向传播时更加灵活地控制哪些张量需要参与梯度计算,哪些张量不需要参与梯度计算
# 从计算图中分离出来的新张量u,它的值与y相同,不再追踪计算历史
u = y.detach()
print(u)# 通过反向传播函数计算z = u * x 关于x的偏导数,同时将u作为常数处理
z = u * x
print(z)z.sum().backward()
x.grad == u

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/730873.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

深度学习与人类的智能交互:迈向自然与高效的人机新纪元

引言 随着科技的飞速发展,深度学习作为人工智能领域的一颗璀璨明珠,正日益展现出其在模拟人类认知和感知过程中的强大能力。本文旨在探讨深度学习如何日益逼近人类智能的边界,并通过模拟人类的感知系统,使机器能更深入地理解和解…

20240308-1-校招前端面试常见问题CSS

校招前端面试常见问题【3】——CSS 1、盒模型 Q:请简述一下 CSS 盒模型? W3C 模式:盒子宽widthpaddingbordermargin 怪异模式:盒子宽widthmargin Q:inline、block、inline-block 元素的区别? inline&am…

设计模式大题做题记录

设计模式大题 09年 上半年: 09年下半年 10年上半年 10年下半年 11年上半年 11年下半年 12年上半年 12年下半年 13年上半年 13年下半年

Springboot教程(六)——异常处理

拦截异常 在Spring Boot中,我们可以将异常统一放在全局处理类来处理,创建一个全局异常处理类需要用到ControllerAdvice和ExceptionHandler注解。 ControllerAdvice类似一个增强版的Controller,用于标注类,表示该类声明了整个项目…

嵌入式学习-FreeRTOS-Day3

嵌入式学习-FreeRTOS-Day3 一、思维导图 二、 1.FreeRTOS任务的调度算法及实现 默认是抢占式调度时间片轮询 1.抢占式调度:任务优先级高的可以打断任务优先级低的执行(适用于不同优先级) 2.时间片轮转:每一个任务拥有相同的时…

使用 Cypress 进行可视化回归测试:一种务实的方法

每次组件库 Picasso 发布新版本时,都会更新所有的前端应用程序,让绝大部分新功能能与整个平台的设计保持一致。上个月,推出了 Toptal Talent Portal 的 Picasso 更新,这是我们的用户用来找工作和与客户互动的平台。 已知了这个版本…

软考70-上午题-【面向对象技术2-UML】-UML中的图1

一、图的定义 图是一组元素的图形表示,大多数情况下把图画成顶点、弧的联通图。 顶点:代表事物; 弧:代表关系。 可以从不同的角度画图,UML提供了13种图:(只看9种) 类图&#xff…

数据结构实现

目录 一、线性表中顺序表的实现: 二、线性表的链式存储(链表-带头节点) 三、习题练习: 四、栈(stack) 五、循环队列 1.数组形式: 2.链表形式: 3.习题练习 六、二叉树 1.…

226. 翻转二叉树

代码实现: 方法1:先序遍历 /*** Definition for a binary tree node.* struct TreeNode {* int val;* struct TreeNode *left;* struct TreeNode *right;* };*/// 交换左右子树 void swap(struct TreeNode *root) {struct TreeNode *l root…

Linux grep

文章目录 1. 基本用法2.字符转义3.二进制文件查找4.打印目标字段的附近行4. 多条件过滤5. 目录中过滤——用于在文件夹中筛选/排除指定后缀文件6.反向过滤——用于筛选7.只输出匹配内容——用于统计8. 筛选出包含字段的文件9.正则匹配10.管道和grep11.grep和wc/uniq/sort的合用…

B端系统优化,可不是换个颜色和图标,看看与大厂系统的差距。

Hi,我是贝格前端工场,优化升级各类管理系统的界面和体验,是我们核心业务之一,欢迎老铁们评论点赞互动,有需求可以私信我们 一、不要被流于表面的需求描述迷惑。 很多人找我们优化系统界面,对需求总是轻描淡…

小白跟做江科大51单片机之AD/DA

1.看原理图找接口 2.看时序图编写读取数据代码 XPT2046.c代码 #include <REGX52.H> //引脚定义 sbit XPY2046_DINP3^4; sbit XPY2046_CSP3^5; sbit XPY2046_DCLKP3^6; sbit XPY2046_DOUTP3^7; unsigned int XPT2046_ReadAD(unsigned char Command) { unsigned char …

sqllab 11-22

11.有回显&#xff0c;单引号 首先判断是字符型还是数字型 通过order by 来获取字段数 方便后续union联合 注意这里mime表明了内容要进行url编码&#xff0c;测试3报错&#xff0c;2正常&#xff0c;所以有2列。 还需要判断显示位&#xff0c;因为只有显示位的数据才能被爆出…

论文笔记:Efficient Bootstrapping for Confidential Transactions

EcoBoost: Efficient Bootstrapping for Confidential Transactions 设计了一种被称为EcoBoost的新方法&#xff0c;以提高支持机密交易的区块链的引导效率。具体来说&#xff0c;利用随机抽样来验证高概率保密交易的正确性。因此&#xff0c;与事务数量相比**&#xff0c;验证…

【FPGA】DDR3学习笔记(一)丨SDRAM原理详解

本篇文章包含的内容 一、DDR3简介1.1 DDR3 SDRAM概述1.2 SDRAM的基础结构 二、 SDRAM操作时序2.1 SDRAM操作指令2.2 模式寄存器&#xff08;LOAD MODE REGISTER&#xff09;2.3 SDRAM操作时序示例2.3.1 SDRAM初始化时序2.3.2 突发读时序2.3.3 随机读时序2.3.4 突发写时序2.3.5 …

Python学习笔记-Flask实现简单的抽奖程序(增加图片显示)

1.创建static文件夹,存放图片文件 2.hero列表数据更改为要抽奖的图片名 3.html中可以编写python语句,遍历hero列表内容渲染到表格中 4.在点击随机抽取后,可以获得名称,然后使用img标签,将获取的名称拼接到路径中 3.初始页面,访问127.0.0.1:5000/index 4.点击随机抽取后 5.py…

【深入理解设计模式】享元设计模式

享元设计模式 概述 享元设计模式&#xff08;Flyweight Design Pattern&#xff09;是一种用于性能优化的设计模式&#xff0c;它通过共享尽可能多的相似对象来减少对象的创建&#xff0c;从而降低内存使用和提高性能。享元模式的核心思想是将对象的共享部分提取出来&#xff…

实用干货:分享4个冷门但非常实用的HTML属性

大家好&#xff0c;我是大澈&#xff01; 本文约1100字&#xff0c;整篇阅读大约需要2分钟。 关注微信公众号&#xff1a;“程序员大澈”&#xff0c;免费加入问答群&#xff0c;一起交流技术难题与未来&#xff01; 现在关注公众号&#xff0c;免费送你 ”前后端入行大礼包…

TensorRT是什么,有什么作用,如何使用

TensorRT 是由 NVIDIA 提供的一个高性能深度学习推理&#xff08;inference&#xff09;引擎。它专为生产环境中的部署而设计&#xff0c;用于提高在 NVIDIA GPU 上运行的深度学习模型的推理速度和效率。以下是关于 TensorRT 的详细介绍&#xff1a; TensorRT 是 NVIDIA 推出的…

freeRTOS20240308

1.总结任务的调度算法&#xff0c;把实现代码再写一下 2.总结任务的状态以及是怎么样进行转换的