deeplearning with pytorch (四)

1.Convolutional Neural Network Model

torch.Tensor.view — PyTorch 2.2 documentation

在神经网络中,使用激活函数(如ReLU)是为了引入非线性,使得网络能够学习和模拟复杂的函数映射。ReLU(Rectified Linear Unit)激活函数因其简单性和效率而广泛使用,特别是在隐藏层中。然而,在网络的最后一层使用激活函数的决策取决于特定任务的需求:

  1. 对于分类任务

    • 如果是多类分类问题,通常在最后一层使用softmax激活函数,因为softmax可以将输出转换为概率分布,每个类别的概率和为1。
    • 对于二分类问题,有时使用sigmoid激活函数将输出压缩到0和1之间,表示为概率。
  2. 对于回归任务

    • 最后一层通常不使用激活函数,因为我们希望预测连续值,而不是将其限制在特定的范围内(例如,ReLU将所有负值设为0,这对于回归任务可能不合适)

LogSoftmax — PyTorch 2.2 documentation

2. Train and Test CNN Model 

import time
start_time = time.time()
# create varibles to track things
epochs = 5
train_losses = []
test_losses = []
train_correct = []
test_correct = []# for loop of epochs
for i in range(epochs):trn_corr = 0tst_corr = 0#Trainfor b, (X_train, y_train) in enumerate(train_loader):b += 1 # start out batches at 1y_pred = model(X_train) # get predicted values from the training set,Not flattened;loss = criterion(y_pred, y_train) #how off we are,compare the predicitons to correct answer to y_trainpredicted =  torch.max(y_pred.data, 1)[1] # add up the number of correct predictions. indexed off the first pointbatch_corr = (predicted == y_train).sum() # how many we got correct from this batchtrn_corr += batch_corr  # keep track as we go along in trainging#update out parametersoptimizer.zero_grad()loss.backward()optimizer.step()#print out some resultsif b%600 == 0:print(f'Epoch: {i} Batch: {b} Loss:{loss.item()}')train_losses.append(loss)train_correct.append(trn_corr)# Testwith torch.no_grad(): #No gradient so we don't update our weight and biases with this testfor b, (X_test, y_test) in enumerate(test_loader):y_val = model(X_test)predicted =  torch.max(y_val.data, 1)[1] # add up the number of correct predictions. indexed off the first pointtst_corr += (predicted == y_test).sum()loss = criterion(y_val, y_test)test_losses.append(loss)test_correct.append(tst_corr)current_time = time.time()
total = current_time - start_time
print(f'Training Took: {total/60} minutes!')

训练和测试过程

ConvolutonalNetaaaWork((conv1): Conv2d(1, 6, kernel_size=(3, 3), stride=(1, 1))(conv2): Conv2d(6, 16, kernel_size=(3, 3), stride=(1, 1))(fc1): Linear(in_features=400, out_features=120, bias=True)(fc2): Linear(in_features=120, out_features=84, bias=True)(fc3): Linear(in_features=84, out_features=10, bias=True)
)
Epoch: 0 Batch: 600 Loss:0.16236098110675812
Epoch: 0 Batch: 1200 Loss:0.16147294640541077
Epoch: 0 Batch: 1800 Loss:0.46548572182655334
Epoch: 0 Batch: 2400 Loss:0.14589160680770874
Epoch: 0 Batch: 3000 Loss:0.006830060388892889
Epoch: 0 Batch: 3600 Loss:0.4129134714603424
Epoch: 0 Batch: 4200 Loss:0.004275710787624121
Epoch: 0 Batch: 4800 Loss:0.002969620516523719
Epoch: 0 Batch: 5400 Loss:0.04636438935995102
Epoch: 0 Batch: 6000 Loss:0.000430782965850085
Epoch: 1 Batch: 600 Loss:0.002715964335948229
Epoch: 1 Batch: 1200 Loss:0.17854242026805878
Epoch: 1 Batch: 1800 Loss:0.0020668990910053253
Epoch: 1 Batch: 2400 Loss:0.0038429438136518
Epoch: 1 Batch: 3000 Loss:0.03475978597998619
Epoch: 1 Batch: 3600 Loss:0.2954908013343811
Epoch: 1 Batch: 4200 Loss:0.02363143488764763
Epoch: 1 Batch: 4800 Loss:0.00022474219440482557
Epoch: 1 Batch: 5400 Loss:0.0005058477981947362
Epoch: 1 Batch: 6000 Loss:0.29113149642944336
Epoch: 2 Batch: 600 Loss:0.11854789406061172
Epoch: 2 Batch: 1200 Loss:0.003075268818065524
Epoch: 2 Batch: 1800 Loss:0.0007867529056966305
Epoch: 2 Batch: 2400 Loss:0.025718092918395996
Epoch: 2 Batch: 3000 Loss:0.020713506266474724
Epoch: 2 Batch: 3600 Loss:0.0005251148249953985
Epoch: 2 Batch: 4200 Loss:0.02623259648680687
Epoch: 2 Batch: 4800 Loss:0.0008421383099630475
Epoch: 2 Batch: 5400 Loss:0.12240316718816757
Epoch: 2 Batch: 6000 Loss:0.1951633244752884
Epoch: 3 Batch: 600 Loss:0.0012102334294468164
Epoch: 3 Batch: 1200 Loss:0.003382322611287236
Epoch: 3 Batch: 1800 Loss:0.002483583288267255
Epoch: 3 Batch: 2400 Loss:8.7084794358816e-05
Epoch: 3 Batch: 3000 Loss:0.0006959225866012275
Epoch: 3 Batch: 3600 Loss:0.0016453089192509651
Epoch: 3 Batch: 4200 Loss:0.04044409096240997
Epoch: 3 Batch: 4800 Loss:4.738060670206323e-05
Epoch: 3 Batch: 5400 Loss:0.1202053427696228
Epoch: 3 Batch: 6000 Loss:0.14659245312213898
Epoch: 4 Batch: 600 Loss:0.018919644877314568
Epoch: 4 Batch: 1200 Loss:0.07315998524427414
Epoch: 4 Batch: 1800 Loss:0.07178398221731186
Epoch: 4 Batch: 2400 Loss:0.0009470336954109371
Epoch: 4 Batch: 3000 Loss:0.0004728620406240225
Epoch: 4 Batch: 3600 Loss:0.24831190705299377
Epoch: 4 Batch: 4200 Loss:0.0003230355796404183
Epoch: 4 Batch: 4800 Loss:0.0002209811209468171
Epoch: 4 Batch: 5400 Loss:0.04399774223566055
Epoch: 4 Batch: 6000 Loss:0.00020674565166700631
Training Took: 1.3477467536926269 minutes!

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/727766.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Python 类的介绍

类class的概念 类是面向对象编程中的一个重要概念,它是一种用于创建对象的模板或蓝图。类定义了对象的属性和行为,并提供了一种封装数据和功能的方式。 类可以看作是对象的抽象,它描述了对象的共同特征和行为。通过类,我们可以创…

如何成为IT产品经理:从入门到精通

如何成为IT产品经理:从入门到精通 在信息爆炸的时代,IT产品经理成为了科技行业的中坚力量。他们不仅要有深厚的技术背景,还需掌握市场动态,对用户需求有着敏锐的洞察力。本文将为您揭示成为IT产品经理的秘诀,带您从入…

布局小技巧

布局小技巧 行内元素、行内块元素,可以被父元素当做文本处理。 即:可以像处理文本对齐一样,去处理:行内、行内块在父元素中的对齐。 例如:text-align、line-height、text-indent等 如何让子元素,在父亲中 …

VM内存结构和垃圾回收机制

引言 在计算机科学中,虚拟机(VM)是一个重要的概念,它允许程序在硬件平台之上运行。虚拟机模拟真实机器的行为,为程序提供了一个独立的运行环境。本文将深入探讨VM的内存结构和垃圾回收机制,以帮助读者更好…

图形系统开发实战课程:进阶篇(上)——10.应用实例:交通路网

图形开发学院|GraphAnyWhere 课程名称:图形系统开发实战课程:进阶篇(上)课程章节:“图形样式”原文地址:https://www.graphanywhere.com/graph/advanced/2-10.html 第十章 应用实例:交通路网 \quad 在前面几…

基于springboot精品在线试题库系统论文

摘 要 使用旧方法对作业管理信息进行系统化管理已经不再让人们信赖了,把现在的网络信息技术运用在作业管理信息的管理上面可以解决许多信息管理上面的难题,比如处理数据时间很长,数据存在错误不能及时纠正等问题。这次开发的精品在线试题库系…

uniapp调用原生android插件传递回调函数

在混合开发中,uniapp调用android原生的方法,原生方法在处理过程中无法同步给js返回数据,异步执行,那么可以使用传递uniapp回调函数实现 一、编写android的方法 public class MyLibraryPlugin extends UniModule {private UniJS…

python爬虫(2)

继上节 查看数组维数 可以使用数组的ndim属性 代码示例如下: import numpy as np c np.random.randint(1,9,5) print(c.ndim) 结果如下: 当然这些也可以结合前面的各种用法来使用 1、选取数组元素 (1)一维数组的元素…

线程池不香了? 结构化并发才是王道!

我们先定义获取用户信息任务: 再定义获取订单信息任务: 然后再构造线程池并执行任务: 输出结果为: 看上去一切都刚刚好,但是,如果获取订单信息时出错了,此时会是什么现象呢?修改获取…

外包干了一周,技术明显倒退。。。。。

先说一下自己的情况,本科生,2019年我通过校招踏入了南京一家软件公司,开始了我的职业生涯。那时的我,满怀热血和憧憬,期待着在这个行业中闯出一片天地。然而,随着时间的推移,我发现自己逐渐陷入…

BUUCTF-Misc2

wireshark1 1.打开附件 发现是流量包,放到Wireshark中分析 2.过滤 根据题目的提示寻找管理员登录的网站,从中获取密码 用http.request.methodPOST,过滤当前的 HTTP 请求为 POST 方法 3.查找 双击过滤后的流量包,查找管理员密码…

TCP/IP模型中网络层和网络接口层的区别 通俗解释

问题 TCP/IP模型中的网络层和网络接口层有什么区别,或者说 ip地址和mac地址有什么区别,通过ip不就能找到要发送的设备了吗 为什么还需要mac地址用简单的语言来解释一下。 TCP/IP模型中的网络层和网络接口层主要的区别在于它们处理的信息和功能不同&…

Self-evolve——基于大语言模型的代码演进框架

导语 本研究提出了一个名为Self-evolve的框架,它旨在通过大型语言模型(LLMs)实现代码生成的进化。这一框架在Text-to-Code任务中引入了一种全新的处理流程,以提高LLMs在代码生成方面的效率和准确性。在之前,尽管LLMs在…

2024【问题解决】Github 2024无法克隆git clone自从签了2F2安全协议之后

项目场景:ping通Github但没法clone–502 问题描述 提示:ping通Github但没法clone--502: 例如:git clone https://gitclone.com/l.git/*** $ git clone https://github.com/darrenpig/Yocto Cloning into Yocto_tutorial... fatal: unable to access https://gitclone.co…

从仓储管理看3C电子行业智慧物流的优势

仓储管理是智慧物流的重要组成部分。通过引入自动化、智能化的仓储管理系统,3C电子企业可以实现库存的精准管理、快速分拣和高效配送。这不仅减少了库存成本,还大大提高了运营效率和市场响应速度。 传统的仓储管理依赖于人工操作和纸质文档记录&#xff…

vcomp140.dll丢失如何修复,5种修复方法轻松搞定vcomp140.dll问题

vcomp140.dll文件的丢失可能会引发一系列系统运行与软件功能上的问题。具体来说,这个动态链接库文件是Visual C Redistributable的一部分,对于许多基于此环境开发的应用程序至关重要。一旦缺失,可能会导致部分应用程序无法正常启动或运行&…

【问题解决】| ControlNet训练为什么这么慢???关于模型量与显卡资源认知关系的建立

我觉得做深度学习相关的开发,要深刻认识到自己的显卡资源有多少,以及对应能做一些什么研究 比如今天的我就对这部分认识不深,终归还是实践代码少~缺乏经验 我觉得之后要多跑代码,多跑工程项目啊。 我今天做了一件什么事情 我企…

Truenas入门级教程

Truenas入门教程 前言:系统相关配置 采用I3 4160,采用了2块500G的硬盘,内存为8G,两个网卡只用了其中一个,系统安装的是core版本 硬件采用DELL3020MT机箱,自带3个SATA网口,后期网口不够&#…

基于cnn卷积神经网络的车辆颜色检测识别-图像去雾-图像去雨(改进yolo目标检测-附代码)

– 引言: 开篇简述图像处理在智能交通监控、自动驾驶等领域的关键作用,并强调随着深度学习尤其是卷积神经网络(CNN)的发展,在复杂环境下的车辆颜色精确识别、图像恢复(如去雾和去雨)等难题得以…

力扣题库第4题:移动零

题目内容: 给定一个数组 nums,编写一个函数将所有 0 移动到数组的末尾,同时保持非零元素的相对顺序。 请注意 ,必须在不复制数组的情况下原地对数组进行操作。 示例 : 输入: nums [0,1,0,3,12] 输出: [1,3,12,0,0] 答案&…