TensorFlow 2.0 - CNN / 预训练 / RNN

文章目录

    • 1. CNN 卷积神经网络
    • 2. 预训练模型
    • 3. RNN 循环神经网络

学习于:简单粗暴 TensorFlow 2

1. CNN 卷积神经网络

卷积神经网络,卷积后尺寸计算

  • tf.keras.layers.Conv2Dtf.keras.layers.MaxPool2D
# CNN 模型
class myCNN(tf.keras.Model):def __init__(self):super().__init__()self.conv1 = tf.keras.layers.Conv2D(filters=32,kernel_size=[5,5],padding='same',activation='relu')self.pool1 = tf.keras.layers.MaxPool2D(pool_size=[2,2],strides=2)self.conv2 = tf.keras.layers.Conv2D(filters=64,kernel_size=[5,5],padding='same',activation='relu')self.pool2 = tf.keras.layers.MaxPool2D(pool_size=[2,2],strides=2)self.flatten = tf.keras.layers.Reshape(target_shape=(7*7*64,))self.dense1 = tf.keras.layers.Dense(units=1024,activation='relu')self.dense2 = tf.keras.layers.Dense(units=10)def call(self, inputs): # [m, 28 , 28 , 1]# size = (n+2p-f)/s + 1,same 保持尺寸不变x = self.conv1(inputs) # [m, 28 , 28 , 32]# 池化时 p 常为 0x = self.pool1(x) # [m, 14 , 14 , 32]x = self.conv2(x) # [m, 14 , 14 , 64]x = self.pool2(x) # [m, 7 , 7 , 64]x = self.flatten(x) # [m, 7*7*64]x = self.dense1(x) # [m, 1024]x = self.dense2(x) # [m, 10]outputs = tf.nn.softmax(x) # [m, 10]return outputs

2. 预训练模型

  • mymodel = tf.keras.applications.MobileNetV2(),可以调用 VGG16 、 VGG19 、 ResNet 、 MobileNet 等内置模型,使用预训练好的权重初始化网络
import tensorflow as tf
import tensorflow_datasets as tfdsnum_epoch = 2
batch_size = 16
learning_rate = 1e-3version = tf.__version__
gpu_ok = tf.config.list_physical_devices('GPU')
print("tf version:", version, "\nuse GPU", gpu_ok)# 会自动加载数据集,从网络下载
dataset = tfds.load("tf_flowers", split=tfds.Split.TRAIN, as_supervised=True)
# 数据归一化、打乱、分批
dataset = dataset.map(lambda img, label: (tf.image.resize(img, (224, 224)) / 255.0, label)).shuffle(1024).batch(batch_size)# 加载预训练模型
model = tf.keras.applications.MobileNetV2(include_top=True, weights=None, classes=5)
# weights 默认: "imagenet", 也可以不用预训练权值,include_top 有最后的FC层
optimizer = tf.keras.optimizers.Adam(learning_rate=learning_rate)
for e in range(num_epoch):for images, labels in dataset:with tf.GradientTape() as tape:pred = model(images, training=True) # *****设置training模式*****loss = tf.keras.losses.sparse_categorical_crossentropy(y_true=labels, y_pred=pred)loss = tf.reduce_mean(loss)print("loss: {}".format(loss.numpy()))grads = tape.gradient(loss, model.trainable_variables)optimizer.apply_gradients(grads_and_vars=zip(grads, model.trainable_variables))

注:如果数据集下载缓慢,我传到csdn了,免费下载

3. RNN 循环神经网络

  • 数据预处理,字符 与 idx 的相互转换映射, 字符集
  • 获取 batch_size 个样本、每个样本的下一个字符(标签)
import tensorflow as tf
import numpy as npclass Dataloader():def __init__(self):path = tf.keras.utils.get_file('nietzsche.txt',origin='https://s3.amazonaws.com/text-datasets/nietzsche.txt')with open(path, encoding='utf-8') as f:self.raw_text = f.read().lower()self.chars = sorted(list(set(self.raw_text)))self.char_idx = dict((c, i) for i, c in enumerate(self.chars))self.idx_char = dict((i, c) for i, c in enumerate(self.chars))self.text = [self.char_idx[c] for c in self.raw_text]  # 原始文本的 idsdef get_batch(self, seq_len, batch_size):seq = []next_char = []for i in range(batch_size):idx = np.random.randint(0, len(self.text) - seq_len)seq.append(self.text[idx: idx + seq_len])next_char.append(self.text[idx + seq_len])return np.array(seq), np.array(next_char)  # [batch_size, seq_len] [batch_size]
  • 建模,tf.keras.layers.LSTMCell
class myRNN(tf.keras.Model):def __init__(self, num_chars, batch_size, seq_len):super().__init__()self.num_chars = num_charsself.seq_len = seq_lenself.batch_size = batch_sizeself.cell = tf.keras.layers.LSTMCell(units=256)self.dense = tf.keras.layers.Dense(units=self.num_chars)def call(self, inputs, from_logits=False):inputs = tf.one_hot(inputs, depth=self.num_chars)  # [batch_size, seq_len, num_chars]# 获取初始状态state = self.cell.get_initial_state(batch_size=self.batch_size, dtype=tf.float32)  # [batch_size, 256]for t in range(self.seq_len):output, state = self.cell(inputs[:, t, :], state)logits = self.dense(output)  # [batch_size, num_chars]if from_logits: # 控制是否softmax归一化return logitselse:return tf.nn.softmax(logits)def predict(self, inputs, temperature=1.0): # temperature调节词汇的丰富度,对概率进行调整batch_size, _ = tf.shape(inputs)logits = self(inputs, from_logits=True)  # self 调用 __call()__, __call()__ 调用 call()prob = tf.nn.softmax(logits / temperature).numpy()  # [batch_size 64, num_chars]return np.array([np.random.choice(self.num_chars, p=prob[i, :])for i in range(batch_size.numpy())])  # 每个样本,下一个字符 按预测概率随机采样
  • 训练
num_batches = 1000
seq_len = 40 # 输入序列长度
batch_size = 64 
learning_rate = 1e-3data_loader = Dataloader()
model = myRNN(num_chars=len(data_loader.chars),batch_size=batch_size,seq_len=seq_len)# 优化器              
optimizer = tf.keras.optimizers.Adam(learning_rate=learning_rate)# 训练迭代
for i in range(num_batches):# 获取批量数据X, y = data_loader.get_batch(seq_len, batch_size)# 梯度记录器with tf.GradientTape() as tape:# 前向传播y_pred = model(X)# 计算损失loss = tf.keras.losses.sparse_categorical_crossentropy(y, y_pred)loss = tf.reduce_mean(loss)print("batch:{}, loss {}".format(i, loss.numpy()))# 计算梯度grads = tape.gradient(loss, model.variables)# 更新参数optimizer.apply_gradients(zip(grads, model.variables))
  • 预测
# 拿出一个样本
X_, _ = data_loader.get_batch(seq_len, 1)
for diversity in [0.2, 0.5, 1.0, 1.2]: # 词汇丰富度X = X_print('diversity {}'.format(diversity))for t in range(400): # 输出长度 400 y_pred = model.predict(X, diversity) # 预测字符的 idprint(data_loader.idx_char[y_pred[0]], end='', flush=True) # 输出预测的字符X = np.concatenate([X[:, 1:], np.expand_dims(y_pred, axis=1)], axis=-1) # 滑动1位,作为下一次的输入print("\n")

输出:

diversity 0.2the the sere the s and the s and the the sere the the s and in the sere the ches the the sere the the sore the the s and the the s and the serend the seres the the the serely the the the s all the the the s and the the sere the the the sere the ther the the sorece the ninge sore the the the s of sell the pint the s the the the the the the the s of the serere the the s and the sere the s the the tdiversity 0.5
ere---and the ne ous bored bo s the the ande sereng to then hithe the the 
he sesthard on the non there the mores sor the the thit  fus the ches sored the seresit and the the ntithe s at all sent for the  fas theng the d end the ind che the the serangen
the for ole the soll dund, and chered and the
pereropher of the resiged the the s lore not the the s as the s the dethere hor the s mone se soull diversity 1.0
tyrive oop art rrame nd michicosentiun, luind the trourd tho t ts.cseseyreve oud s mhendgcomrools bored ere s oll ow ons, here blprlen, pforzede ntor, in this mis je,iof tore. hon bf cerign then thect nene hfurlilin of fallll devety irtes" the whiy ins puncaliridut drerales alder, as inen waveructache semaltou no aven it yuranty ahd oar in -whe s urofeg to the
serecying
sicoradt-i0nior anetheragl diversity 1.2
y, dpr thoucg,", ind soncrea5sfporcul os_; fac alin th  thel. (owel, thenniv poteer" hithichp-hispin2, ho thas d-lher wrekek---fe l seh rabf ssit afolyicud i iedy, d
chendle-hand-a ne
lef urovut, phetif po'n. wskin ef; phtors eve mdd ali all
an icig  tedt g main aisec cowstixgeof adt vinnd thas phinte
lllivita ou
is
toup tualy as isscppomeofea2y
ieëy ounscded!wheor ome sllat , hhe"se, ouondibis 

丰富度 大一些的时候,预测出来的字符多样一些

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/473048.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

openwrt mt7620 内存大小检测

单独编译内核: make Vs target/linux/install 相调函数调用流程: init/main.c : start_kernel() -> setup_arch(&command_line) arch/mips/kernel/setup.c: setup_arch()-> cpu_probe()-> prom_init()-> arch_mem_init() -> plat_mem_setup() -&…

python获取当前路径的方法_Python获取脚本所在目录的正确方法【转】

原博文 2015-09-24 10:21 − 1.以前的方法如果是要获得程序运行的当前目录所在位置,那么可以使用os模块的os.getcwd()函数。如果是要获得当前执行的脚本的所在目录位置,那么需要使用sys模块的sys.path[0]变量或者sys.argv[0]来获得。实际上sys.path是Pyt…

JAVA NIO 简介(转)

1. 基本 概念IO 是主存和外部设备 ( 硬盘、终端和网络等 ) 拷贝数据的过程。 IO 是操作系统的底层功能实现,底层通过 I/O 指令进行完成。 所有语言运行时系统提供执行 I/O 较高级别的工具。 (c 的 printf scanf,java 的面向对象封装 ) 2. Java 标准 io 回顾Jav…

TensorFlow 2.0 - Keras Pipeline、自定义Layer、Loss、Metric

文章目录1. Keras Sequential / Functional API2. 自定义 layer3. 自定义 loss4. 自定义 评估方法学习于:简单粗暴 TensorFlow 2 1. Keras Sequential / Functional API tf.keras.models.Sequential([layers...]),但是它不能表示更复杂的模型 mymodel…

python去重复元素_Python实现去除列表中重复元素的方法总结【7种方法】

这里首先给出来我很早之前写的一篇博客,Python实现去除列表中重复元素的方法小结【4种方法】,感兴趣的话可以去看看,今天是在实践过程中又积累了一些方法,这里一并总结放在这里。 由于内容很简单,就不再过多说明了&…

oracle取差值集合

Oracle Minus关键字 SQL中的MINUS关键字 SQL中有一个MINUS关键字,它运用在两个SQL语句上,它先找出第一条SQL语句所产生的结果,然后看这些结果有没有在第二个SQL语句的结果中。如果有的话,那这一笔记录就被去除,而不会…

TensorFlow 2.0 - Checkpoint 保存变量、TensorBoard 训练可视化

文章目录1. Checkpoint 保存变量2. TensorBoard 训练过程可视化学习于:简单粗暴 TensorFlow 2 1. Checkpoint 保存变量 tf.train.Checkpoint 可以保存 tf.keras.optimizer 、 tf.Variable 、 tf.keras.Layer 、 tf.keras.Model path "./checkp.ckpt" …

coturn的负载均衡特性_高性能负载均衡

单服务器无论如何优化,无论采用多好的硬件,总会有一个性能天花板,当单服务器的性能无法满足业务需求时,就需要设计高性能集群来提升系统整体的处理性能。高性能集群的本质很简单,通过增加更多的服务器来提升系统整体的…

LintCode MySQL 1928. 网课上课情况分析 I

文章目录1. 题目2. 解题1. 题目 online_class_situation 表展示了一些同学上网课的行为活动。 每行数据记录了一名同学在退出网课之前,当天使用同一台设备登录课程后听过的课程数目(可能是0个)。 写一条 SQL 语句,查询每位同学第…

poj1284:欧拉函数+原根

何为原根?由费马小定理可知 如果a于p互质 则有a^(p-1)≡1(mod p)对于任意的a是不是一定要到p-1次幂才会出现上述情况呢?显然不是,当第一次出现a^k≡1(mod p)时, 记为ep(a)k 当k(p-1)时,称a是p的…

python输入十个数输出最大值_python输入十个数如何输出最大值

python输入十个数输出最大值的方法:1、如果是整数的话,使用函数【a, b, c map(int, input().split())】;2、使用函数【Xinput().split()】。 相关免费学习推荐:python视频教程 python输入十个数输出最大值的方法: 第一…

SQL Server 2005远程连接连不上的解决办法收藏 Microsoft给的方法

SQL Server 2005远程连接连不上的解决办法收藏 Microsoft给的方法http://support.microsoft.com/kb/914277 是可以的,但我怕以后还会遇到这问题,干脆我也写到blog中来. 我的情况是别人怎么连也连不上我本地的DB,我装了2005的sp2也不行,后来发现关了防火墙就可以了,但我总不能什…

LintCode MySQL 1921. 从不充值的玩家(where not in)

文章目录1. 题目2. 解题1. 题目 描述 A game database contains two tables, player table and recharge table. Write a SQL query to find all players who never recharge. 样例 https://www.lintcode.com/problem/players-who-never-recharge/description 2. 解题 -- …

古风一棵桃花树简笔画_广东有个现实版的“桃花源”,藏于秘境之中,最适合情侣来度假!...

上学时,初闻“芳草鲜美,落英缤纷”,并没有多大感触。直到后来长大离家,每每为生活奔波劳累时,为工作琐碎忧心费神时,才骤然明了当年五柳先生所描绘的“桃花源”该是多少人的脑中所想、心中所向……原以为这…

关于NIOS ii烧写的几种方式(转)

源:http://www.cnblogs.com/bingoo/p/3450850.html 1. 方法一:.sof和.elf全部保存在FPGA内,程序加载和运行也是在FPGA内部。 把FPGA的配置文件.sof通过JTAG方式下载(其实是在线运行)进入FPGA本身,此时在NIOS II的界面中&#xff…

clob和blob是不是可以进行模糊查询_你知道什么是 MySQL 的模糊查询?

作者 | luanhz责编 | 郭芮本文对MySQL中几种常用的模糊搜索方式进行了介绍,包括LIKE通配符、RegExp正则匹配、内置字符串函数以及全文索引,最后给出了性能对比。引言MySQL根据不同的应用场景,支持的模糊搜索方式有多种,例如应用最…

一个长文档里,包括封面、不同的章节,如果我想封面不设置页眉页脚,每个章节的页眉都不同,请问应该如何设置页眉页脚?

问:在一个长文档里,包括封面、不同的章节,如果我想封面不设置页眉页脚,每个章节的页眉都不同,请问应该如何设置页眉页脚? 答:如果只需要首页不同,可选择“文件”菜单下的“页面设置”…

LintCode 1917. 切割剩余金属

文章目录1. 题目2. 解题1. 题目 描述 金属棒工厂的厂长拥有 n 根多余的金属棒。 当地的一个承包商提出,只要所有的棒材具有相同的长度(用 saleLength 表示棒材的长度),就将金属棒工厂的剩余棒材全部购买。 厂长可以通过将每根棒…

太原理工电子信焦工程_电气工程及其自动化专业毕业后做什么工作?近几年就业和收入怎样...

本文内容为各大高校往届大学生真实的现身说法内容,但因为是往届,每年该专业的大学情况可能会发生略微变化,所以部分内容较今年,明年甚至以后几年,实际情况可能会略有不同但是对于本专业的相关信息还是非常有参考价值的…

js定时器和linux命令locate

js定时器如果带有参数,应该采用如下方式 setTimeout(function(){function(param)},1000); 匿名函数的方法。 linux locate基于数据库的查找方法。转载于:https://www.cnblogs.com/birdskyws/p/3974556.html