体验paddle2.0rc版本API-Model--实现Mnist数据集模型训练

原文链接:体验paddle2.0rc版本API-Model–实现Mnist数据集模型训练:https://blog.csdn.net/weixin_44604887/article/details/109566281

尝试Mnist训练

  • 导入需要的包
  • 导入Mnist数据集
  • 组网
    • 搭建网络
    • 查看模型参数
    • 查看模型网络(自动命名)
  • 利用Model-API进行训练
    • 模型传入
    • Model-API参数配置
    • fit--训练
    • 模型评估
  • 加载保存的模型
    • 创建相同的网络模型--用于加载保存的模型参数
    • 查看当前运算所在环境是否在GPU
    • 加载模型参数
      • 方法一
      • 方法二
    • Model-API参数配置
    • 保存模型的评估
  • 总结

                         QQ:3020889729                                                                                 小蔡

主要内容:

  1. 利用paddle.vision.datasets加载paddle自带的图像数据集
  2. 利用paddle.nn.Sequntial进行顺序层网络组网–快捷组网
  3. 利用paddle.Model进行paddle自带的模型高级API进行一系列简便的训练,模型保存以及评估等
  4. 利用paddle.Model的load方法,对使用Model下saveAPI保存的模型进行加载

(主体代码源于官方文档,仅对部分知识点进行扩展和说明)

导入需要的包

import paddle
import paddle.nn as nn    # 导入网络模块:包含所需要的模块
from paddle import optimizer # 导入优化器模块
from paddle import Model     # 导入模型高级API,可传入设计好的网络模型,进行一系列的fit训练等操作
from paddle import metric    # 导入度量模块:模型准确率计算等
from paddle.vision import datasets  # 导入数据集接口

print(paddle.version) # 打印paddle版本号

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

导入Mnist数据集

datasets.MNIST的参数为mode

  • mode=‘train’ 为默认值,返回训练集
  • mode=‘test’ 返回验证集
train_datasets = datasets.MNIST(mode='train')  # 加载训练数据
test_datasets = datasets.MNIST(mode='test')
  • 1
  • 2

组网

搭建网络

利用线性层进行组网

mnist = nn.Sequential(nn.Flatten(),     # 平铺层,将多维数据展开为一维数据--将[N, ...] 转化为 [N, x]nn.Linear(784, 512),  # 线性层(全连接层), 将input_size=N*784 -> N*512nn.ReLU(),   # 激活曾(配置激活函数,添加非线性因子), 将上一层Linear的输出通过Relu激活层nn.Dropout(0.2),  # 丢弃层(dropout防过拟合), 使用Dropout层进行随机drop(计算输出时,随机将某些值替换为0)nn.Linear(512, 10)  # 将经过dropout层的输出size=512 -> 10 -> 得到输出类别
)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

查看模型参数


# 查看模型参数--以及命名(字典形式)
for name, value in mnist.named_parameters():  print(name, '->', value)
  • 1
  • 2
  • 3
  • 4

在这里插入图片描述

查看模型网络(自动命名)

# 查看模型中的子层--即顺序层中的子层 --包括命名(字典形式)
for name, value in mnist.named_children():   print(name, '->', value.full_name())

# 一定程度上等价于以下代码
#for name, value in mnist.named_sublayers():
# print(name, ‘->’, value.full_name())

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

顺序层下的网络展示
在这里插入图片描述

利用Model-API进行训练

模型传入


# 利用paddle训练API进行快捷训练
model = paddle.Model(mnist)   # 将创建的网络送入模型API
  • 1
  • 2
  • 3

Model-API参数配置

# 模型API使用前所需传入参数--在训练前需要使用prepare进行训练配置
# 1-> optim(优化方法)
# 2-> loss(损失/目标函数)
# 3-> metric(评价/度量指标)
model.prepare(optimizer.Adam(parameters=mnist.parameters()),  # Adam优化方法nn.CrossEntropyLoss(),    # CE损失metric.Accuracy()   # 准确率
)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

fit–训练

fit参数:

  • 明确常用fit参数 – 前四个
  • train_data:训练数据–必须要有的
  • eval_data: 验证数据–如果没有就不验证
  • batch_size: 批大小–尽量设,默认为1
  • verbose: 训练进度展示模式–0:无;1,每一个轮次展示进度条模式;2:将轮次作为迭代展示对象;
  • eval_freq:评估频率–指间隔多少个eval进行一次评估–默认为1
  • log_freq:同样的,日志输出频率–默认为10
  • save_dir:模型保存路径–默认为None,不保存
  • save_freq: 保存频率–同其他频率
  • drop_last:最后一批数据如果不足batch_size,那么就舍去,不使用为训练数据
  • shuffle: 是否打乱数据
  • num_workers:工作线程–多线程加载数据
  • save内容简单说明: pdparams–模型的参数–weight等 pdopt–优化器的参数–学习率大小等
model.fit(train_datasets,   # 训练数据集epochs=10,   # 轮次batch_size=24,  # 批大小: 一次训练用多少个数据verbose=1, # 进度展示--0为不展示save_dir='./work/mnist'  # 模型保存路径:包含pdparams与pdopt文件
)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

在这里插入图片描述

模型评估

# 模型评估
# 参数:
# eval_data:验证集
# batch_size:批大小--默认为1
# log_freq:日志频率
# verbose:进度条模型--0为不展示
# num_workers:多线程
model.evaluate(test_datasets, verbose=1)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

在这里插入图片描述

加载保存的模型

创建相同的网络模型–用于加载保存的模型参数

# 创建一摸一样的模型
new_model = nn.Sequential(nn.Flatten(),     # 将[N, ...] 转化为 [N, x]nn.Linear(784, 512),  # 将input_size=N*784 -> N*512nn.ReLU(),   # 将上一层Linear的输出通过Relu激活层nn.Dropout(0.2),  # 使用Dropout层进行随机drop(计算输出时,随机将某些值替换为0)nn.Linear(512, 10)  # 将经过dropout层的输出size=512 -> 10
)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

查看当前运算所在环境是否在GPU

paddle.is_compiled_with_cuda()  # 判断当前允许环境--在gpu上返回True
  • 1

加载模型参数

方法一

# 按照paddle.Model.load-API 来加载参数
new_Model = Model(new_model)
new_Model.load('./work/mnist/final')   # 将保存的参数加载到当前的模型中

for value in new_Model.parameters(): # 在ModelAPI下查看模型参数
print(value)

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

方法二

new_model.load_dict(paddle.load('./work/mnist/final.pdparams'))  # 利用原始paddle通用模型加载API加载模型参数后,再传入ModelAPI
new_Model = Model(new_model)
  • 1
  • 2

Model-API参数配置

new_Model.prepare(
# 利用set_state_dict加载优化器对应的参数--比如学习率等    optimizer.Adam(parameters=new_model.parameters()).set_state_dict(paddle.load('./work/mnist/final.pdopt')), nn.CrossEntropyLoss(),metric.Accuracy()
)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

保存模型的评估

new_Model.evaluate(test_datasets, verbose=1)
  • 1

在这里插入图片描述

总结

  1. paddle2.0rc在整体上变化很大,首先是全面支持动态图,方便某火炬的小伙伴转到paddle进行学习
  2. 组网API更加亲近,将相关组网操作都放到了一起–比如Flatten平铺操作与激活函数作为网络层,方便组网时方法的查讯
  3. 高级API–Model的使用,方便了一般的训练过程,简化初始模型训练选型的成本(为后期模型选择后优化精度等节约了时间)
  4. 这次升级,最最最主要的还是API分类更明显,可用性和可读性有了更好的提升,这次简直杠杠的!!!

以下是API分类图(源于官方文档)

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/478511.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

LeetCode 648. 单词替换(Trie树)

1. 题目 在英语中,我们有一个叫做 词根(root)的概念,它可以跟着其他一些词组成另一个较长的单词——我们称这个词为 继承词(successor)。例如,词根an,跟随着单词 other(其他),可以形成新的单词 another(另一个)。 现…

99%算法工程师不知道的if/else优化技巧

文 | IT技术控知乎、灵剑知乎观点一(IT技术控)前期迭代懒得优化,来一个需求,加一个if,久而久之,就串成了一座金字塔。当代码已经复杂到难以维护的程度之后,只能狠下心重构优化。那,有…

人工智能在线特征系统中的生产调度

在上篇博客《人工智能在线特征系统中的数据存取技术》中,我们围绕着在线特征系统存储与读取这两方面话题,针对具体场景介绍了一些通用技术,此外特征系统还有另一个重要话题:特征生产调度。本文将以美团点评酒旅在线特征系统为原型…

LeetCode 211. 添加与搜索单词 - 数据结构设计(Trie树)

1. 题目 设计一个支持以下两种操作的数据结构: void addWord(word) bool search(word) search(word) 可以搜索文字或正则表达式字符串,字符串只包含字母 . 或 a-z 。 . 可以表示任何一个字母。 示例: addWord("bad") addWord("dad&quo…

研究综述 - TKDE2020 | 基于知识图谱的推荐系统

作者 | 郭庆宇转载公众号 | 读芯术TKDE 2020综述:基于知识图谱的推荐系统A Survey on Knowledge Graph-Based Recommender Systems中科院计算所、百度、港科大、中科大、微软原文Qingyu Guo, Fuzhen Zhuang, Chuan Qin, Hengshu Zhu, Xing Xie, Hui Xiong, Qing He…

谢撩,人在斯坦福打SoTA

文 | Jazon编 | 小戏小编注:不知道大家还记不记得卖萌屋之前人在斯坦福,刚上CS224n的Jazon小哥发来的关于斯坦福神课CS224n上半学期的报道?今天,Jazon又在斯坦福前线发来了关于他在CS224n下半学期的经历,那么现在让我们…

前端感官性能的衡量和优化实践

本文已发表在2017年8月《程序员》杂志。 我们为什么需要关注站点的性能,性能为什么如此重要呢?如今任何互联网产品首先重要的都是流量,流量最终会转换为商业价值。所以在互联网产品中,流量、转化率和留存率基本上是产品经理或者业…

LeetCode 421. 数组中两个数的最大异或值(Trie树)

1. 题目 给定一个非空数组&#xff0c;数组中元素为 a0, a1, a2, … , an-1&#xff0c;其中 0 ≤ ai < 231 。 找到 ai 和aj 最大的异或 (XOR) 运算结果&#xff0c;其中0 ≤ i, j < n 。 你能在O(n)的时间解决这个问题吗&#xff1f; 示例:输入: [3, 10, 5, 25, 2,…

论文浅尝 - EMNLP2020 | 基于知识库的多跳关系推理

笔记整理 | 谢辛&#xff0c;浙江大学硕士研究方向 | 自然语言处理&#xff0c;知识图谱Feng Y, Chen X, Lin B Y, et al. Scalable multi-hop relational reasoning for knowledge-aware question answering[J]. 2020.emnlp-main.99链接&#xff1a;https://arxiv.org/pdf/200…

智能工单处理,达观数据助力运营商实现业务流程智能化改造

智能工单处理&#xff0c;达观数据助力运营商实现业务流程智能化改造 https://m.sohu.com/a/466386308_383123 智能工单处理&#xff0c;达观数据助力运营商实现业务流程智能化改造 达观数据 05-14 14:04 订阅 运营商一线业务运营亟待智能化改造 近几年&#xff0c;运营商领域…

CV和NLP中的无监督预训练(生成式BERT/iGPT和判别式SimCLR/SimCSE)

文 | Smarter在之前的文章中讲过unsupervised learning主要分为生成式和判别式&#xff0c;那么unsupervised pretrain自然也分为生成式和判别式。目前CV和NLP都出现了非常强大的无监督预训练&#xff0c;并且在生成式和判别式都各有造诣&#xff0c;本文主要想归纳一下CV和NLP…

Android Binder漏洞挖掘技术与案例分享

本文由作者根据其在KCon 2016黑客大会上的演讲内容整理而成。演讲稿链接&#xff1a;Binder fuzzing based on drozer。 文章开始&#xff0c;先来看几个我在工作生活中发现的Android漏洞。其中包括Android系统锁屏密码绕过&#xff08;影响了所有安全补丁在2016年10月份以前的…

Transformer太深不行?NUS字节发现注意力坍缩,提出重注意机制!

文 | 陈萍、杜伟源 | 机器之心CNN 通过堆叠更多的卷积层来提高性能&#xff0c;而 transformer 在层次更深时会很快进入饱和。基于此&#xff0c;来自新加坡国立大学和字节跳动 AI Lab 的研究者引入了 Re-attention 机制&#xff0c;以很小的计算代价重新生成注意力图以增强各层…

LeetCode 212. 单词搜索 II(Trie树+DFS)

1. 题目 给定一个二维网格 board 和一个字典中的单词列表 words&#xff0c;找出所有同时在二维网格和字典中出现的单词。 单词必须按照字母顺序&#xff0c;通过相邻的单元格内的字母构成&#xff0c;其中“相邻”单元格是那些水平相邻或垂直相邻的单元格。同一个单元格内的…

研究综述 | 多关系知识图谱表示学习综述

作者 | CHEONG转载自公众号 | 机器学习与自然语言处理本文分享一篇多关系知识图谱表示学习汇报ppt&#xff0c;介绍近几年及2020新出的共七篇处理异质图的模型。先列出该汇报ppt中将要介绍的七篇论文&#xff1a;Motivation异质知识图谱研究的对象便是如何处理多关系知识图谱&a…

PaddleHub教程合集

原文链接&#xff1a;https://aistudio.baidu.com/aistudio/projectdetail/2168053 PaddleHub教程合集 PaddleHub是基于PaddlePaddle生态下的预训练模型管理和迁移学习工具&#xff0c;可以结合预训练模型更便捷地开展迁移学习工作。通过PaddleHub&#xff0c;您可以&#xff1…

人物志 | KDD Cup 2017双料冠军燕鹏

2017年数据挖掘领域最有影响力的赛事KDD Cup近日揭晓&#xff0c;Convolution队从全球70个国家的3582支队伍里脱颖而出&#xff0c;包揽两项任务的冠军。这支双料冠军队成员名单里&#xff0c;有一个我们熟悉的名字——美团点评高级技术专家燕鹏。 说燕鹏可能大家并不一定知道&…

论文浅尝 - IJCAI2020 | KGNN:基于知识图谱的图神经网络预测药物与药物相互作用...

转载公众号 | AI TIME 论道药物间相互作用&#xff08;DDI&#xff09;预测是药理学和临床应用中一个具有挑战性的问题&#xff0c;在临床试验期间&#xff0c;有效识别潜在的DDI对患者和社会至关重要。现有的大多数方法采用基于AI的计算模型&#xff0c;通常倾向于集成多个数…

LeetCode 79. 单词搜索(回溯DFS)

1. 题目 给定一个二维网格和一个单词&#xff0c;找出该单词是否存在于网格中。 单词必须按照字母顺序&#xff0c;通过相邻的单元格内的字母构成&#xff0c;其中“相邻”单元格是那些水平相邻或垂直相邻的单元格。同一个单元格内的字母不允许被重复使用。 示例: board [[…

中文BERT上分新技巧,多粒度信息来帮忙

文 | ????????????????自然语言处理实在是太难啦&#xff01;中文尤其难&#xff01;相比于英文&#xff0c;中文是以词作为语义的基本单位的&#xff0c;因此传统的中文 NLP 都需要先进行分词。分词这步就劝退了很多人&#xff0c;比如“研究生活很充实”&…