两层卷积网络实现手写字母的识别(基于tensorflow)

可和这篇文章对比,https://blog.csdn.net/fanzonghao/article/details/81489049,数据集来源代码和链接一样。

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
import read_pickle_datasettrain_dataset,train_label,valid_dataset,valid_label,test_dataset,test_label=read_pickle_dataset.pickle_dataset()
print('Training:', train_dataset.shape, train_label.shape)
print('Validing:', valid_dataset.shape, valid_label.shape)
print('Testing:', test_dataset.shape, test_label.shape)
print(valid_label[0])
"""
变化维度
"""
def reformat(dataset):dataset=dataset.reshape(-1,28,28,1).astype(np.float32)return dataset
"""
计算精度
"""
def accuracy(predictions,lables):acc=np.sum(np.argmax(predictions,1)==np.argmax(lables,1))/lables.shape[0]return acc
train_dataset=reformat(train_dataset)
valid_dataset=reformat(valid_dataset)
test_dataset=reformat(test_dataset)
print('Training:', train_dataset.shape, train_label.shape)
print('Validing:', valid_dataset.shape, valid_label.shape)
print('Testing:', test_dataset.shape, test_label.shape)tf_valid_dataset=tf.constant(valid_dataset)
tf_test_dataset=tf.constant(test_dataset)
batch_size=128
def creat_placeholder():X = tf.placeholder(dtype=tf.float32, shape=(None, 28,28,1))Y = tf.placeholder(dtype=tf.float32, shape=(None, 10))return X,Y
"""
初始化权重:两层卷积
"""
def initialize_parameters():# CNN权重初始化W1 = tf.Variable(tf.truncated_normal(shape=[5,5,1,16],stddev=np.sqrt(2.0/(5*5*1))))b1=tf.Variable(tf.zeros(16))W2 = tf.Variable(tf.truncated_normal(shape=[5, 5, 16, 16], stddev=np.sqrt(2.0 / (5 * 5*16))))b2 = tf.Variable(tf.constant(1.0,shape=[16]))parameters={'W1':W1,'b1':b1,'W2':W2,'b2':b2}return parameters
def forward_propagation(X,parameters):W1 = parameters['W1']b1 = parameters['b1']W2 = parameters['W2']b2 = parameters['b2']Z1=tf.nn.conv2d(X,W1,strides=[1,1,1,1],padding='SAME')print('Z1.shape',Z1.shape)A1=tf.nn.relu(Z1+b1)P1 = tf.nn.max_pool(A1, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')print(P1.shape)Z2 = tf.nn.conv2d(P1, W2, strides=[1, 1, 1, 1], padding='SAME')print(Z2.shape)A2 = tf.nn.relu(Z2 + b2)P2 = tf.nn.max_pool(A2, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')print(P2.shape)P_flatten = tf.contrib.layers.flatten(P2)output = tf.contrib.layers.fully_connected(P_flatten, 10, activation_fn=None)return output
def compute_cost(Y,Y_pred):
#计算lossloss=tf.reduce_mean(                              #(10000,10)      (10000,10)tf.nn.softmax_cross_entropy_with_logits_v2(labels=Y,logits=Y_pred))return loss
def model():X,Y=creat_placeholder()parameters=initialize_parameters()Y_pred=forward_propagation(X, parameters)loss=compute_cost(Y, Y_pred)optimizer=tf.train.GradientDescentOptimizer(learning_rate=0.05).minimize(loss)# 预测train_prediction = tf.nn.softmax(Y_pred)init = tf.global_variables_initializer()corect_prediction = tf.equal(tf.argmax(Y_pred, 1), tf.argmax(Y, 1))accuarcy = tf.reduce_mean(tf.cast(corect_prediction, 'float'))with tf.Session() as sess:print('initialize')sess.run(init)costs = []for step in range(1001):offset = (step * batch_size) % (train_label.shape[0] - batch_size)batch_data = train_dataset[offset:(offset + batch_size), :, :, :]#batch_data = train_dataset[offset:(offset + batch_size), :]batch_label = train_label[offset:(offset + batch_size), :]feed = {X: batch_data, Y: batch_label}_, train_predictions, cost = sess.run([optimizer, train_prediction, loss], feed_dict=feed)if step%100==0:costs.append(cost)print('loss ={},at step {}'.format(cost, step))print('train accuracy={}'.format(accuracy(train_predictions, batch_label)))feed = {X: valid_dataset, Y: valid_label}valid_accuarcy = sess.run(accuarcy, feed_dict=feed)print('valid accuracy={}'.format(valid_accuarcy))feed = {X: test_dataset, Y: test_label}test_accuarcy = sess.run(accuarcy, feed_dict=feed)print('Test accuracy={}'.format(test_accuarcy))plt.plot(costs)plt.ylabel('cost')plt.xlabel('iterations ')plt.savefig('ELU.jpg')plt.show()
if __name__ == '__main__':model()

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/493507.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

焦李成教授谈深度神经网络发展历程

来源:西电人工智能学院摘要:焦李成教授谈深度神经网络发展历程2018年11月18日下午,计算机科学与技术学部主任、人工智能学院焦李成教授在成都参加了由中国人工智能学会主办的人工智能大讲堂并做特邀报告,焦李成教授在报告中回顾了…

SGU 187 - Twist and whirl -- want to cheat

原题地址:http://acm.sgu.ru/problem.php?contest0&problem187 太开心啦!!!!这道题从2013年开始困扰我!!今天晚上第四次下定决心把它写一写,之前写了三次(事实上是五…

KNN实现CIFAR-10数据集识别

cs231n链接:http://cs231n.github.io/linear-classify/, 训练集链接:https://download.csdn.net/download/fanzonghao/10592049 KNN缺点:每个测试样本都要循环一遍训练样本。 该数据集由5个data_batch和一个test_batch构成&…

近期苹果、Facebook等科技巨头股价缘何不断下跌?

来源:资本实验室近期,FAANG(Facebook、亚马逊、苹果、Netflix、谷歌)等科技巨头股价都出现了不同程度的下跌,而美国科技股整体的持续大跌,更是引发了全球股市振荡。其中,亚马逊在今年9月初达曾达到1万亿美元市值&#…

ZOJ 3300 Mahjong DFS暴力解决。。

ZJU 3300&#xff1a; 题目描述 就看成1—9的数字&#xff0c;DFS暴力搜索下就过了。。。。。要求输入13 个数字&#xff0c;声明个数组记录数字的个数&#xff0c;DFS 里各种回溯&#xff1b;#include<stdio.h> #include<string.h> int p[12],flag; int dfs(int x…

概率论基础知识各种分布

离散分布&#xff1a;伯努力分布&#xff0c;二项分布&#xff0c;possion分布 一&#xff0c;伯努力分布 #执硬币 x_arrnp.array([0,1]) #x为1的概率 p0.7 #0 1分布 #由PMF生成对应的概率 离散事件 pr_arrstats.bernoulli.pmf(x_arr,p) plt.plot(x_arr,pr_arr,markero,lines…

AI 芯片和传统芯片的区别

来源&#xff1a;内容来自「知乎汪鹏 」所谓的AI芯片&#xff0c;一般是指针对AI算法的ASIC&#xff08;专用芯片&#xff09;。传统的CPU、GPU都可以拿来执行AI算法&#xff0c;但是速度慢&#xff0c;性能低&#xff0c;无法实际商用。比如&#xff0c;自动驾驶需要识别道路行…

三层神经网络实现手写数字的识别(基于tensorflow)

数据集链接&#xff1a;https://download.csdn.net/download/fanzonghao/10598333 from tensorflow.examples.tutorials.mnist import input_data mnist input_data.read_data_sets("./mnist/", one_hotTrue)import tensorflow as tf# Parameters learning_rate 0…

鼠标终将消失,未来我们有哪些人机交互方式?

来源&#xff1a;资本实验室在人类发明史上&#xff0c;诞生了无数的英雄。他们的发明往往从一项前沿技术到家喻户晓、无处不在&#xff0c;但他们自己却又鲜为人知&#xff0c;美国发明家道格拉斯恩格尔巴特就是其中的代表。20世纪60年代&#xff0c;道格拉斯恩格尔巴特发明了…

两层卷积网络实现手写数字的识别(基于tensorflow)

可和这篇文章对比&#xff1a;https://blog.csdn.net/fanzonghao/article/details/81603367 # coding: utf-8 # ## MNIST数据集from __future__ import division, print_function, absolute_importimport tensorflow as tf# Import MNIST data&#xff0c;MNIST数据集导入 fro…

光波导总结资料

1、写出光波导中的麦克斯韦方程&#xff0c;并把光场分解为纵向分量与横向分量&#xff0c;求出混合模式HE与EH模式的横向电场强度与横向磁场强度的点积&#xff08;用纵向分量表示&#xff09;&#xff08;需要有推导过程&#xff09; 解&#xff1a;在线性、各向同性且时不变…

德国再出颠覆性发明,这次要安排我们的快递

来源&#xff1a;最黑科技摘要&#xff1a;如果用一句话来形容德国的工业设计&#xff0c;我能想到的就是&#xff1a;“母牛坐电锯——锯牛逼"&#xff0c;小编已经不止一次把它吹得五光十色斗转星移~但你可能不知道&#xff0c;这个工业强国在2013年还提出了一个著名的发…

跟我一起写 Makefile

跟我一起写 Makefile【转】 陈皓 概述—— 什么是makefile&#xff1f;或许很多Winodws的程序员都不知道这个东西&#xff0c;因为那些Windows的IDE都为你做了这个工作&#xff0c;但我觉得要作一个好的和professional的程序员&#xff0c;makefile还是要懂。这就好像现在有这么…

C++中用frugally-deep调用keras的模型并进行预测

1、背景 Python语言中的Keras库搭建深度学习模型非常便捷&#xff0c;但有时需要在 C 中调用训练好的模型&#xff0c;得到测试集的结果。比如将模型部署于FPGA&#xff0c;中间的一个步骤则需要用C构建模型。但 Keras库没有提供 C API&#xff0c;其中一种解决方法是使用 Ten…

简单的线性回归实现模型的存储和读取

和这篇文章对比https://blog.csdn.net/fanzonghao/article/details/81023730 不希望重复定义图上的运算&#xff0c;也就是在模型恢复过程中&#xff0c;不想sess.run(init)首先看路径 lineRegulation_model.py定义线性回归类&#xff1a; import tensorflow as tf "&qu…

MIT重新发明飞机:无需燃料,每秒万米喷射带你上天 | Nature封面

来源&#xff1a;量子位这不是科幻小说&#xff0c;离子引擎飞机真的被造出来了&#xff01;“曲率引擎”、“离子引擎”等等激动人心的科幻名词&#xff0c;正在走进现实。最近MIT又重新发明了飞机&#xff0c;实验成果登上了《自然》杂志封面。这架飞机翼展5米&#xff0c;总…

union intersect minus

Intersect和Minus的操作和Union基本一致&#xff0c;这里一起总结一下&#xff1a; Union&#xff0c;对两个结果集进行并集操作&#xff0c;不包括重复行&#xff0c;同时进行默认规则的排序&#xff1b; Union All&#xff0c;对两个结果集进行并集操作&#xff0c;包括重复…

unet实现区域分割

https://github.com/zonghaofan/pig-seg/tree/master/disk_segmentation 网络架构&#xff1a; # coding:utf-8 import tensorflow as tf import cv2 import numpy as np import matplotlib.pyplot as pltimg cv2.imread(./data/test.png)# cv2.imshow(1.jpg,img) # cv2.wait…

数字图像处理 实验一 图像的基本运算

实验一 图像的基本运算 一、实验目的 &#xff08;1&#xff09;掌握点运算和代数运算的算法实现和概念 &#xff08;2&#xff09;掌握和几何运算的算法实现和概念 &#xff08;2&#xff09;掌握灰度变换和几何变换的基本方法 &#xff08;3&#xff09;理解图像灰度直方图的…

MongoDB 语法陷阱(转自51CTO)

1. 哈希对象中key的顺序 比如&#xff0c;你要存储一个简单的文字对象&#xff1a;: > db.books.insert({ title: "Woe from Wit", meta: { author: "A. Griboyedov", year: 1823 } }); 太棒了&#xff01;现在我们有了一条书籍记录。再比如&#xff0c…