卷积神经网络(CNN)原理与实现

  • 卷积神经网络(CNN)
    • 卷积神经网络原理
    • 卷积神经网络的数学推导
    • 卷积层反向传播算法数学推导
    • 卷积层实现代码

卷积神经网络(CNN)

卷积神经网络原理

卷积神经网络是一种用于图像、语音、自然语言等数据的深度学习模型,其核心思想是使用卷积操作提取输入数据的特征,从而实现数据分类、目标检测、图像分割等任务。

卷积操作是卷积神经网络的核心操作,它通过卷积核(也称为滤波器)对输入数据进行卷积运算,提取出输入数据的特征。具体来说,卷积操作对于每个位置,将卷积核中的值与输入数据的对应位置相乘,然后将所有乘积相加得到输出数据的对应位置的值。卷积核的大小、步长和填充方式都可以影响卷积操作的输出结果。

卷积神经网络通常包括卷积层、池化层、全连接层等多个层次。卷积层用于提取输入数据的特征,通过多个卷积核进行卷积操作,得到多个特征图(feature map)。池化层用于降低特征图的空间分辨率,减少计算量和参数数量。全连接层用于将特征图映射到目标类别,通常包含多个神经元,并使用softmax函数进行输出。

卷积神经网络在训练过程中通常使用反向传播算法进行梯度下降优化。反向传播算法可以通过将目标函数的梯度反向传递回网络中的每个神经元,计算每个神经元的梯度,并使用梯度下降更新网络参数,从而最小化目标函数。

卷积神经网络的数学推导

卷积神经网络(CNN)的核心操作是卷积(convolution),卷积的本质是信号处理中的一种数学运算,将两个函数进行叠加并积分,得到一个新的函数。

在CNN中,卷积的输入是一个二维矩阵(通常是图像)和一个卷积核(也称为滤波器)。卷积核是一个小的二维矩阵,大小通常为3x3或5x5,其内部的数值是需要通过训练学习得到的。
在这里插入图片描述

下面是卷积的数学推导过程:

设输入矩阵为 X ∈ R H × W X\in R^{H\times W} XRH×W,卷积核为 K ∈ R K h × K w K\in R^{K_h\times K_w} KRKh×Kw,其中 H H H表示矩阵的高度, W W W表示矩阵的宽度, K h K_h Kh表示卷积核的高度, K w K_w Kw表示卷积核的宽度。

在进行卷积操作时,将卷积核沿着输入矩阵的每个位置进行滑动,对应位置的元素相乘并相加,得到输出矩阵 Y ∈ R ( H − K h + 1 ) × ( W − K w + 1 ) Y\in R^{(H-K_h+1)\times(W-K_w+1)} YR(HKh+1)×(WKw+1)。具体来说,输出矩阵 Y Y Y的第 i i i行第 j j j列的元素为:

y i , j = ∑ m = 1 K h ∑ n = 1 K w x i + m − 1 , j + n − 1 k m , n y_{i,j}=\sum\limits_{m=1}^{K_h}\sum\limits_{n=1}^{K_w}x_{i+m-1,j+n-1}k_{m,n} yi,j=m=1Khn=1Kwxi+m1,j+n1km,n

其中, x i + m − 1 , j + n − 1 x_{i+m-1,j+n-1} xi+m1,j+n1表示输入矩阵 X X X的第 i + m − 1 i+m-1 i+m1行第 j + n − 1 j+n-1 j+n1列的元素, k m , n k_{m,n} km,n表示卷积核 K K K的第 m m m行第 n n n列的元素。

需要注意的是,在卷积操作时通常还会进行填充(padding)和步长(stride)的设置。填充是在输入矩阵的边缘添加一些额外的元素,使得卷积操作后输出矩阵的大小与输入矩阵相同;步长是在滑动卷积核时的间隔,可以控制输出矩阵的大小。

卷积神经网络通常会在卷积层后加入激活函数,如ReLU函数,来增加非线性能力。此外,卷积神经网络还可以通过池化(pooling)层来减小特征图的大小,从而减少计算量和参数数量。池化层通常采用最大池化(max pooling)或平均池化(average pooling)操作,对每个特征图的每个小区域进行取最大值或取平均值的操作,从而得到更小的特征图。

卷积神经网络的数学推导主要是通过卷积操作、激活函数和池化操作实现。在卷积神经网络中,每个卷积层通常包含多个卷积核,每个卷积核对应一个特征图(也称为卷积映射)。因此,每个卷积层输出的是多个特征图,这些特征图可以进一步传递到下一层进行计算。

在进行卷积神经网络的训练过程中,通常采用反向传播算法(backpropagation)来求解模型参数。反向传播算法基于梯度下降的思想,通过计算损失函数对模型参数的偏导数(梯度),从而不断更新模型参数,使得模型能够更好地拟合训练数据。

总之,卷积神经网络的数学推导涉及到卷积操作、激活函数和池化操作,这些操作是卷积神经网络的核心。在进行训练时,通常采用反向传播算法来求解模型参数,从而使得模型能够更好地拟合训练数据。

卷积层反向传播算法数学推导

卷积层反向传播算法是卷积神经网络中最为核心的算法之一,其目的是求解每个卷积核的权重参数和偏置项的梯度,从而进行模型参数的更新。

卷积层反向传播算法的数学推导主要分为两个步骤:前向传播和反向传播。前向传播通过卷积操作和激活函数对输入数据进行处理,得到输出数据;反向传播根据误差对输出数据的梯度,利用卷积操作对输入数据的梯度进行计算,进而求解每个卷积核的梯度。

下面是卷积层反向传播算法的数学推导:

假设输入数据为 X X X,卷积核为 W W W,偏置项为 b b b,输出数据为 Y Y Y。其中, X X X W W W 的维度分别为 C i n × H i n × W i n C_{in} \times H_{in} \times W_{in} Cin×Hin×Win C o u t × C i n × K h × K w C_{out} \times C_{in} \times K_h \times K_w Cout×Cin×Kh×Kw Y Y Y 的维度为 C o u t × H o u t × W o u t C_{out} \times H_{out} \times W_{out} Cout×Hout×Wout K h K_h Kh K w K_w Kw 分别表示卷积核的高度和宽度, H o u t H_{out} Hout W o u t W_{out} Wout 分别表示输出数据的高度和宽度。

前向传播的数学表达式为:

Y k , i , j = σ ( ∑ c = 1 C i n ∑ p = 1 K h ∑ q = 1 K w X c , i + p − 1 , j + q − 1 W k , c , p , q + b k ) Y_{k,i,j}=\sigma(\sum_{c=1}^{C_{in}}\sum_{p=1}^{K_h}\sum_{q=1}^{K_w}X_{c,i+p-1,j+q-1}W_{k,c,p,q}+b_k) Yk,i,j=σ(c=1Cinp=1Khq=1KwXc,i+p1,j+q1Wk,c,p,q+bk)

其中, σ \sigma σ 表示激活函数。这里使用了 k k k i i i j j j 分别表示第 k k k 个特征图、第 i i i 行、第 j j j 列的像素点。通过前向传播,我们可以得到输出数据 Y Y Y

反向传播的数学表达式为:

∂ L ∂ X c , i , j = ∑ k = 1 C o u t ∑ p = 1 K h ∑ q = 1 K w W k , c , p , q ∂ L ∂ Y k , i + p − 1 , j + q − 1 \frac{\partial L}{\partial X_{c,i,j}}=\sum_{k=1}^{C_{out}}\sum_{p=1}^{K_h}\sum_{q=1}^{K_w}W_{k,c,p,q}\frac{\partial L}{\partial Y_{k,i+p-1,j+q-1}} Xc,i,jL=k=1Coutp=1Khq=1KwWk,c,p,qYk,i+p1,j+q1L

∂ L ∂ W k , c , p , q = ∑ i = 1 H o u t ∑ j = 1 W o u t X c , i + p − 1 , j + q − 1 ∂ L ∂ Y k , i , j \frac{\partial L}{\partial W_{k,c,p,q}}=\sum_{i=1}^{H_{out}}\sum_{j=1}^{W_{out}}X_{c,i+p-1,j+q-1}\frac{\partial L}{\partial Y_{k,i,j}} Wk,c,p,qL=i=1Houtj=1WoutXc,i+p1,j+q1Yk,i,jL

∂ L ∂ b k = ∑ i = 1 H o u t ∑ j = 1 W o u t ∂ L ∂ Y k , i , j \frac{\partial L}{\partial b_k}=\sum_{i=1}^{H_{out}}\sum_{j=1}^{W_{out}}\frac{\partial L}{\partial Y_{k,i,j}} bkL=i=1Houtj=1WoutYk,i,jL

其中, L L L 表示损失函数。通过反向传播,我们可以求解出每个卷积核的梯度,从而进行模型参数的更新。

解释一下上述公式的含义:

首先,由于卷积操作是可微分的,因此可以通过链式法则来求解输入数据 X X X 的梯度。假设 L L L 表示损失函数,则 Y Y Y L L L 的梯度为 ∂ L ∂ Y k , i , j \frac{\partial L}{\partial Y_{k,i,j}} Yk,i,jL,因此可以通过卷积操作来计算 X X X L L L 的梯度。

反向传播中第一个公式表示, X c , i , j X_{c,i,j} Xc,i,j L L L 的梯度等于所有输出数据 Y k , i + p − 1 , j + q − 1 Y_{k,i+p-1,j+q-1} Yk,i+p1,j+q1 L L L 的梯度乘以对应的权重 W k , c , p , q W_{k,c,p,q} Wk,c,p,q 的和。其中, k k k 取遍所有特征图, p p p q q q 分别表示卷积核在 H H H W W W 方向上的偏移量。

反向传播中第二个公式表示, W k , c , p , q W_{k,c,p,q} Wk,c,p,q L L L 的梯度等于所有输入数据 X c , i + p − 1 , j + q − 1 X_{c,i+p-1,j+q-1} Xc,i+p1,j+q1 L L L 的梯度乘以对应的输出数据 Y k , i , j Y_{k,i,j} Yk,i,j 的和。同样地, k k k 取遍所有特征图, i i i j j j 分别表示输出数据在 H H H W W W 方向上的偏移量。(解释与公式矛盾)

反向传播中第三个公式表示, b k b_k bk L L L 的梯度等于所有输出数据 Y k , i , j Y_{k,i,j} Yk,i,j L L L 的梯度的和。

在实际应用中,通常会采用基于梯度下降的优化算法来进行模型参数的更新。在卷积层反向传播算法中,可以通过上述公式计算出每个卷积核的梯度,然后利用梯度下降算法对模型参数进行更新,从而提高模型的性能。

卷积层实现代码

下面是一个使用 NumPy 实现的简单 Conv2d 类的示例代码:

import numpy as npclass Conv2d:def __init__(self, in_channels, out_channels, kernel_size, stride=1, padding=0, bias=True):self.in_channels = in_channelsself.out_channels = out_channelsself.kernel_size = kernel_sizeself.stride = strideself.padding = paddingself.bias = bias# 初始化卷积核和偏置项self.weights = np.random.randn(out_channels, in_channels, kernel_size, kernel_size)self.bias_values = np.zeros(out_channels)def forward(self, x):# 计算输出大小out_h = int((x.shape[2] + 2*self.padding - self.kernel_size) / self.stride + 1)out_w = int((x.shape[3] + 2*self.padding - self.kernel_size) / self.stride + 1)# 对输入数据进行填充x = np.pad(x, [(0, 0), (0, 0), (self.padding, self.padding), (self.padding, self.padding)], mode='constant')# 初始化输出数据output = np.zeros((x.shape[0], self.out_channels, out_h, out_w))# 对每个通道进行卷积操作for i in range(self.out_channels):# 对每个像素进行卷积操作for h in range(out_h):for w in range(out_w):# 计算卷积结果conv = np.sum(x[:, :, h*self.stride:h*self.stride+self.kernel_size, w*self.stride:w*self.stride+self.kernel_size] * self.weights[i, :, :, :], axis=(1,2,3))# 加上偏置项conv += self.bias_values[i]# 存储卷积结果output[:, i, h, w] = convreturn output

这个示例实现了一个简单的 Conv2d 类,其构造函数接受输入通道数、输出通道数、卷积核大小、步长、填充和偏置项等参数。在构造函数中,我们随机初始化了卷积核和偏置项。

forward 函数接受输入数据 x,并根据卷积核大小、步长和填充对输入数据进行填充。然后,我们对每个通道和每个像素进行卷积操作,并将结果存储在输出数据中。在卷积操作中,我们使用 NumPy 的数组乘法和求和操作实现了卷积运算,并加上了偏置项。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/718891.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

4、通达OA代码审计

一、文件操作 1、文件上传配合文件包含审计 文件上传首先确定存在漏洞的文件。和文件上传相关的函数比如upload。在从上到下分析构造的条件1. 从 POST 请求中提取变量 P 的值。 2. 检查 P 是否已设置且不为空字符串。 3. 如果 P 已设置且非空,进入包含 "inc/…

[NSSCTF 2nd]MyJs

做一题ejs原型链污染 首先是登录界面 源码里面提示了源码的路由 js不熟先审计一下 const express require(express); #导入Express框架,用于构建Web应用程序的服务器和路由 const bodyParser require(body-parser); #导入body-parser中间件,用于解析…

软考证书=职称证书?

官方的回答 根据《计算机技术与软件专业技术资格(水平)考试暂行规定》(国人部发〔2003〕39号)规定,通过考试并获得相应级别计算机专业技术资格(水平)证书的人员,表明其已具备从事相…

使用Javassist 在android运行时生成类

序言 最近在写框架,有一个需求就是动态的生成一个类,然后查阅了相关文献,发现在android中动态生成一个类还挺麻烦。因次把一些内容分享出来,帮助大家少走弯路。 方案一 DexMaker DexMaker 是一个针对 Android 平台的库&#xf…

Myqsort:基于冒泡排序算法的C语言实现

我们将详细介绍一个基于冒泡排序算法的自定义排序函数——Mysqrt。该函数通过使用用户提供的比较函数进行元素间的比较&#xff0c;并结合swap交换函数对任意类型的数据进行排序。下面是对代码的逐行解析。 逻辑导图 代码实现 // 头文件 #include<stdio.h>// 定义比较函…

华为自动驾驶技术详解报告分享

ADS2.0首发搭载问界M5智驾版&#xff0c;城市NCA计划年底全国开通。2023年4月16日华为在智能汽车解决方案发布会上发布了最新的ADS2.0产品&#xff0c;硬件数量减少至27个(11个摄像头12个超声波雷达3个毫米波雷达1个激光雷达,ADS1.0有34个)&#xff0c;车载计算平台改为MDC610&…

python自学2

第一阶段第三章 if&#xff0c;elif&#xff0c;else语句 这个是有顺序的&#xff0c;如果第一个满足下面的就不会执行&#xff0c;else也可以不写&#xff0c;执行的效果等同于三个独立的if。 还可以写的更加简洁一些 直接输入的参数带入到判断里面去 小练习&#xff1a; 做…

打造专属投屏体验:Windows系统投屏到iOS系统

想要将电脑投屏共享给同事或朋友&#xff0c;又担心隐私内容泄露&#xff1f;来来来&#xff0c;这里有妙招&#xff01; AirDroid Cast网页版让电脑投屏变得挑剔&#xff0c;只展示你允许共享的内容。会议资料、个人照片、敏感文件&#xff0c;都将得到严格的筛选&#xff0c;…

云原生之容器编排实践-ruoyi-cloud项目部署到K8S:Nacosv2.2.3

背景 前面搭建好了 Kubernetes 集群与私有镜像仓库&#xff0c;终于要进入服务编排的实践环节了。本系列拿 ruoyi-cloud 项目进行练手&#xff0c;按照 MySQL &#xff0c; Nacos &#xff0c; Redis &#xff0c; Nginx &#xff0c; Gateway &#xff0c; Auth &#xff0c;…

windows环境下Grafana+loki+promtail入门级部署日志系统,收集Springboot(Slf4j+logback)项目日志

&#x1f339;作者主页&#xff1a;青花锁 &#x1f339;简介&#xff1a;Java领域优质创作者&#x1f3c6;、Java微服务架构公号作者&#x1f604; &#x1f339;简历模板、学习资料、面试题库、技术互助 &#x1f339;文末获取联系方式 &#x1f4dd; 往期热门专栏回顾 专栏…

动态规划DP之背包问题4---分组背包问题

目录 DP分析&#xff1a; 例题&#xff1a; 01背包&#xff1a; 一种物品只有一件 动态规划DP之背包问题1---01背包问题-CSDN博客 完全背包&#xff1a;一种物品有无限件 动态规划DP之背包问题2---完全背包问题-CSDN博客 多重背包&#xff1a;一种物品有有限…

【三维重建】【SLAM】SplaTAM:基于3D高斯的密集RGB-D SLAM(CVPR 2024)

题目&#xff1a;SplaTAM: Splat, Track & Map 3D Gaussians for Dense RGB-D SLAM 地址&#xff1a;spla-tam.github.io 机构&#xff1a;CMU&#xff08;卡内基梅隆大学&#xff09;、MIT&#xff08;美国麻省理工&#xff09; 总结&#xff1a;SplaTAM&#xff0c;一个新…

十个勤天生菜原价4.9元被炒到300元,2024新商机!新兴创业项目!

近日&#xff0c;一则关于生菜价格暴涨的新闻引起了广泛关注。原价4.9元的生菜&#xff0c;在短短时间内被炒至300元&#xff0c;令人咋舌。在这背后&#xff0c;除了市场供需失衡、炒作等因素外&#xff0c;我们不禁思考&#xff1a;这样的现象背后是否隐藏着更大的商机&#…

LaTeX插入图片占位符

关于插入图片更多说明&#xff08;多图并排、子标题设置等&#xff09;可参考链接 LaTeX插入图片 插入图片占位符 参考链接&#xff1a;https://blog.csdn.net/yq_forever/article/details/129431799 在论文草稿阶段有的时候想先插入图片占位符拟定大纲或写作思路&#xff0…

张宇30讲学习笔记

初等数学 x \sqrt{x} x ​是算数平方根&#xff0c;一定≥0&#xff1b; x 2 \sqrt{x^2} x2 ​|x| x2|x2||x|2 x3≠|x3||x|3 不等式 a>0&#xff0c;b>0&#xff0c;则ab≥2 a b \sqrt{ab} ab ​ 对数 ln a b \frac{a}{b} ba​lna-lnb 高等数学 单调性 线性代数

Linux CentOS使用Docker部署Apache Superset并实现远程分析数据

文章目录 前言1. 使用Docker部署Apache Superset1.1 第一步安装docker 、docker compose1.2 克隆superset代码到本地并使用docker compose启动 2. 安装cpolar内网穿透&#xff0c;实现公网访问3. 设置固定连接公网地址 前言 Superset是一款由中国知名科技公司开源的“现代化的…

自动化构建平台(一)Linux下搭建私有代码仓库Gitblit的安装和使用详解

文章目录 前言一、Gitblit的安装和使用1、本地安装2、docker下安装3、Gitblit使用简介4、Gitblit仓库权限控制5、Gitblit邮件配置 总结 前言 代码版本管理&#xff0c;git模式应该是目前最流行的代码管理软件。目前支持git的管理软件有很多。 Gitblit是一个小型的代码仓库管理…

《GitHub新手入门指南:从零开始掌握基本用法》

在现代软件开发和技术社区中,GitHub已经成为了一个不可或缺的平台。它不仅是一个代码托管平台,更是一个技术交流、学习分享的社交平台。但对于初学者来说,GitHub可能会有些令人望而却步。本文将详细介绍GitHub的基本用法,帮助新手快速入门并融入这个充满活力的技术社区。 …

Qt/C++音视频开发67-保存裸流加入sps/pps信息/支持264/265裸流/转码保存/拉流推流

一、前言 音视频组件除了支持保存MP4文件外&#xff0c;同时还支持保存裸流即264/265文件&#xff0c;以及解码后最原始的yuv文件。在实际使用过程中&#xff0c;会发现部分视频文件保存的裸流文件&#xff0c;并不能直接用播放器播放&#xff0c;查阅资料得知原来是缺少sps/p…

GitHub登不上:修改hosts文件来解决(GitHub520,window)

参考链接&#xff1a;GitHub520: 本项目无需安装任何程序&#xff0c;通过修改本地 hosts 文件&#xff0c;试图解决&#xff1a; GitHub 访问速度慢的问题 GitHub 项目中的图片显示不出的问题 花 5 分钟时间&#xff0c;让你"爱"上 GitHub。 (gitee.com) GitHub网站…