【caffe-Windows】识别率批量输出——matlab实现

前言

今天看到群里有人问”用matlab输出测试集的精度“,瞎试了一下,好像还成功了。主要还是依据前面所有在matlab中操作caffe的博客。

这里说一下:classification.m是适用单张图片的精度,类似于classification.exe的功能;这里要做的是在matlab中实现caffe.exe test的功能,也就是批量输出精度

分析

根据caffe.exe testclassification.m的流程,很容易想到,直接把训练时候所用的prototxt丢进去,对比classification.m中调用caffe.Net(model,wights,'test')的思路,试试当model为train_test.prototxt而非deploy.prototxt的效果。然后按照前面caffe在matlab中训练的方法,进行一次前向计算,当然此前向计算需要数据已经载入网络中,而非像classification一样挨个输入。z最后按照前面可视化权重的博客,提取最后一层的accuracy就行了。

流程

  • 将数据集,也就是一堆图片,利用convert的那个exe转换为lmdb格式
  • 在prototxt中更改测试部分的输入为你所转换的lmdb路径
  • 细节调整,比如你有没有均值文件,加入到prototxt中
  • 加载模型,命令caffe.Net
  • 前向计算forward_prefilled命令
  • 利用blob取最后一层accuracy的值

代码书写

  • 数据集转换

以mnist为例,测试集的lmdb文件在前面已经制作出来了,如果是你自己的图片,可以看前面转换数据集的博客。

  • 模型结构

直接使用原始的lenet_train_test.prototxt,测试集部分内容为你自己的转换数据集

layer {name: "mnist"type: "Data"top: "data"top: "label"include {phase: TEST}transform_param {scale: 0.00390625}data_param {source: "mnist_test_leveldb"batch_size: 100backend: LEVELDB}
}

其中有一个参数batch_size表示一次性测试多少数据量的准确率, 由于mnist测试集共有一万张图片, 所以测试次数为1000/100=100, 使用批处理方式测试

..\..\Build\x64\Release\caffe.exe test -model=lenet_train_test.prototxt -weights=lenet_iter_10000.caffemodel -iterations=100
pause
  • 写代码
clear
clc
close allif exist('../../+caffe', 'dir')addpath('../..');
elseerror('Please run this demo from caffe/matlab/demo');
end
caffe.reset_all
% Set caffe mode
if exist('use_gpu', 'var') && use_gpucaffe.set_mode_gpu();gpu_id = 0;  % we will use the first gpu in this democaffe.set_device(gpu_id);
elsecaffe.set_mode_cpu();
end% model_dir = '../mnist_data/';
% net_model = [model_dir 'lenet.prototxt'];
model_dir = './';
net_model = [model_dir 'lenet_train_test.prototxt'];
net_weights = [model_dir 'lenet_iter_10000.caffemodel'];if ~exist(net_weights, 'file')error('Please download CaffeNet from Model Zoo before you run this demo');
end% Initialize a network
net = caffe.Net(net_model, net_weights, 'test');
acc=[];
for i=1:100net.forward_prefilledacc=[acc; net.blobs('accuracy').get_data()];
end
acc

看看使用caffe.exe test的命令和我们的输出acc的结果对应与否

这里写图片描述

应该是对应的吧,手动滑稽。

【注】记得刚才说的batchsize吧,看代码倒数第三行,有一个for循环,这里写的100,意思就是图片总数除以batchsize,得到的结果就是这个for循环的上限。

源代码各种文件打包放送

http://download.csdn.net/download/zb1165048017/9994062

直接运行里面的caffe_test.m即可,注意自己caffe的matlab接口一定要配置好。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/246655.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

MKL学习——矩阵向量操作

前言 前面介绍的BLAS Level 1是向量-向量的操作,而这里的BLAS Level 2主要还是对矩阵-向量之间的操作。命名规则与前面的一样,主要记住定义的是数据类型 s实数域,单精度c复数域,单精度d实数域,双精度z复数域&#xf…

MKL学习——矩阵矩阵操作

前言 前面介绍了BLAS Level 1中向量-向量操作,以及BLAS Level 2中矩阵-向量的操作,就剩下这一篇的BLAS Level 3中的矩阵-矩阵的操作了。对稀疏矩阵的操作以后等要用再看看。对基本的矩阵和向量运算的函数有所了解以后,就进行常用参数分析&am…

MKL学习——线性代数概念相关

前言 回顾一下BLAS Level 1 2 3中的运算都有什么类型 BLAS Level 1 在BLAS Level 1中,进行的是向量-向量的操作。其中相关概念有 向量类型: 实数域,复数域,共轭运算操作: 元素求和,向量相加,向量拷贝,点乘…

MKL学习——基本操作C++实现

前言 前面介绍了各种向量-向量,矩阵-向量,矩阵-矩阵的函数简介。根据自身目前状况,主要使用实数域的操作,也就是说关注单精度float类型的s和双精度double类型的d。还有就是用的基本都是全矩阵,没有经过压缩&#xff0…

相机矩阵(Camera Matrix)

前言 最近翻阅关于从2D视频或者图片中重构3D姿态的文章及其源码,发现都有关于摄像机参数的求解,查找了相关资料,做一下笔记。 国际惯例,来一波参考网址 透视变换、透镜畸变及校正模型、相机校正(Camera Calibration)、Matlab相…

损失函数梯度对比-均方差和交叉熵

前言 我们都知道在机器学习中,希望算法或者网络收敛更快,有些是对数据预处理,尤其是Batch Normalization,有些是采用不同的激活函数,尤其是Relu激活函数取得了巨大的成功,还有一种加速收敛方法是更换损失函…

如何选择深度学习优化器

前言 转载地址:如何选择深度学习优化器 作者:不会停的蜗牛 CSDN AI专栏作家 在很多机器学习和深度学习的应用中,我们发现用的最多的优化器是 Adam,为什么呢? 下面是 TensorFlow 中的优化器, https://w…

【caffe-Windows】以mnist为例的hdf5单标签处理——matlab实现

前言 主要是想尝试看一下多标签的caffe是如何进行输入输出的,但是目前还未找到基于原始caffe做多标签输入的代码,大部分都是基于源码做了一部分修改实现多标签分类,caffe官网倒是有一个多标签的Python程序,这个我慢慢研究研究&am…

【caffe-Windows】基于Python多标签方法——VOC2012数据集

前言 按照上一篇博客所遗留的话题:多标签分类,进行初步探索,此篇博客针对caffe官网的多分类进行配置,只不过是Python接口的,不过官网在开头说明可以使用HDF5或者LMDB进行操作,只不过Python更加方便罢了 国…

【theano-windows】学习笔记一——theano中的变量

前言 因为目前需要搭建一些关于RBM或者其他之类的模型,感觉不太会折腾caffe,然而我发现了几个有趣网址,使用theano实现了各种各样的模型,所以,尝试学一下theano。主要以官方教程为主,所以博客会以译文的方…

【theano-windows】学习笔记二——theano中的函数和共享参数

前言 上一篇博客中学到了theano中的变量类型,也就是dscalar、dvector之类的, 然后还有一个theano.function和eval函数, 将我们所定义的操作转换成theano可执行的函数,类似于def, 还有就是简单的线性代数运算操作。 在神经网络(NN)中, 我们声明了权重、…

【theano-windows】学习笔记三——theano中的导数

前言 就一个NN而言,包含梯度、偏置、参数更新,而前面第一篇博客学习了theano中符号变量的定义, 第二篇博客学习了变量的随机初始化, 变量之间的互相操作(类似于sigmoid(w∗xb)), 但是参数更新还应涉及到损失函数的偏导计算,这一章节就是看看…

【theano-windows】学习笔记四——theano中的条件语句

前言 按照官网教程,学习条件语句Switch和ifelse的使用 参考地址: conditions 性能对比 ifElse是将布尔变量和两个变量当做输入 Switch是将张量和两个变量当做输入. 因为Switch是元素级操作,所以比ifElse更具一般性 Switch需要对所有输出变量进行评…

【theano-windows】学习笔记五——theano中张量部分函数

前言 至此感觉应该可以写出一个logistic回归程序了,但是为了达到对theano中张量的更灵活的使用, 还是先看一下thenao.tensor对变量都提供了哪些操作,最全的文档戳这里或者这里, 这里就稍微摘取一点自我感觉以后可能用得多的函数 基本张量函数 创建张量…

【theano-windows】学习笔记六——theano中的循环函数scan

前言 Scan是Theano中最基础的循环函数, 官方教程主要是通过大量的例子来说明用法. 不过在学习的时候我比较习惯先看看用途, 然后是参数说明, 最后再是研究实例. 国际惯例, 参考网址 官网关于Scan的11个例子 官网更全面的介绍 简介 用途 递归的一般形式, 可以被用于循环s…

多标签分类、多任务分类、多输出回归概念

前言 虽然不是搞分类的,但是还是看看多标签和多分类的区别。为了避免自己的错误理解, 当然是选择原谅他啊…….找正规文档看哇. 以下翻译分别来自scikit-learn.org和 维基 喂鸡百科 国际惯例,贴上来源: Multiclass and multilabel algorithms Multi-…

【theano-windows】学习笔记七——logistic回归

前言 前面只是学了最基本的theano操作,但是theano中还有很多其他的东西,比如图结构,自定义函数等,这些暂时没有用到就先不看了,后续学啥用啥,没必要一口气吃个胖子,免得消化不良还把前面吃的东…

【theano-windows】学习笔记八——预备知识

前言 按照上一个博客所说的,直接按照深度学习0.1文档进行学习,当然在此之前我们需要了解这一系列教程所需要的数据集,以及一些概念性的东西 国际惯例,参考博客网址: 深度学习0.1文档 深度学习0.1文档-中文翻译 基…

【theano-windows】学习笔记九——softmax手写数字分类

前言 上一篇博客折腾了数据集的预备知识, 接下来按照官方的Deep learning 0.1 documentation一步步走, 先折腾softmax, 关于softmax和logistic回归分类的联系, 我在之前写过一个小博客 国际惯例, 参考博客走一波: Classifying MNIST digits using Logistic Regression soft…

【theano-windows】学习笔记十——多层感知机手写数字分类

前言 上一篇学习了softmax, 然后更进一步就是学习一下基本的多层感知机(MLP)了. 其实多层感知机同时就是w*xb用某个激活函数激活一下, 得到的结果作为下一层神经元的输入x, 类似于 output⋯f3(f2(f1(x∗w1b2)∗w2b2)∗w3b3)⋯output=\cdots f^3(f^2(f^1(x*w^1+b^2)*w^2+b^2)*…