5-隐藏层:神经网络为什么working

声明

本文章基于哔哩哔哩付费课程《小白也能听懂的人工智能原理》。仅供学习记录、分享,严禁他用!!如有侵权,请联系删除

目录

一、知识引入

(一)隐藏层

(二)泛化

(三)深度神经网络

二、编程实验

(一)输入x与第一层

(二)上一层的输出结果与第二层

(三)计算前向传播

(四)计算反向传播

(五)完整代码


一、知识引入

        小蓝海底的豆豆发生了进化,毒性变得忽大忽小,与豆豆的大小不再有明显的关系,就需要一个有多样单调性的函数来预测,而不是只具有单一不变的单调性。

        将神经元组成一个网络:

        第一个神经元:先通过线性函数计算,再通过激活函数得到最终的输出,利用梯度下降算法,将输出调整为sigmoid式的样子;

        第二个神经元也同样,调整为sigmoid式的样子;

        将两个神经元的最终输出作为第三个神经元的输入,先通过第三个神经元的线性函数计算,再通过激活函数+梯度下降算法

        即,将输入分为两个部分,然后分别对两个部分进行调节,然后再送入最后一个神经元,让整体的神经网络形成一个单调性不唯一的更多变函数。从而具备了解决更加复杂问题的能力

        添加一个神经元后,相当于增加了一个抽象的维度把输入放进不同的维度中,每个维度通过不断地调整权重并进行激活,从而产生对输入的不同理解。最后再把这些抽象维度中的输出合并、降维,得到输出。这个输入数据由于在多个抽象维度中被产生不同的解读,从而让输出得到了更多可能。

        当环境中的豆豆毒性发生更多可能的时候,同样可以采取类似的方法:通过增加对输入更多的抽象维度,产生更多的解读,从而实现更加复杂的分类效果。

(一)隐藏层

        中间新增添加的神经元节点--“隐藏层”。

        正是因为隐藏层的存在,才让神经网络能够在复杂情况下仍旧working。

        显而易见,隐藏层的神经元数量越多,就可以产生越复杂的组合,解决越复杂的问题。当然计算量也随之越来越大。

(二)泛化

        我们采集的训练数据越充足,那么最后训练得到的模型也就能越好的去预测新的问题。因为越充足的训练数据,就在越大程度上蕴藏了问题的规律特征。新的问题数据也就越难以逃脱这些规律的约束。

        所以总说,机器学习神经网络的根基是:海量数据。

        一个训练后,拟合适当的模型,进而在遇到新的问题数据时,也能大概率产生正确预测。成为“模型的泛化”。泛化能力也是神经网络追求的核心问题。

(三)深度神经网络

        隐藏层超过3层的网络。

二、编程实验

(一)输入x与第一层

# 第一层
# 第一个神经元
w11_1 = np.random.rand() # _后表示第几层,11表示第1个输入和第1个神经元
b1_1 = np.random.rand() # _后表示第几层,1表示第一个神经元权重的偏置项# 第二个神经元
w12_1 = np.random.rand() # _后表示第几层,12表示第1个输入和第2个神经元
b2_1 = np.random.rand() # _后表示第几层,2表示第二个神经元权重的偏置项

(二)上一层的输出结果与第二层

# 第二层
w11_2 = np.random.rand() # _后表示第几层,11表示第1个输入和第1个神经元
w21_2 = np.random.rand() # _后表示第几层,21表示第2个输入和第1个神经元
b1_2 = np.random.rand() # _后表示第几层,1表示第一个神经元权重的偏置项

(三)计算前向传播

# 计算前向传播
# 第一层
z1_1 = w11_1 * xs + b1_1
a1_1 = sigmoid(z1_1)
z2_1 = w21_1 * xs + b2_1
a2_1 = sigmoid(z2_1)# 第二层
# 第一层的输出作为输入
z1_2 = w11_2 * a1_1 + w21_2 * a2_1 + b1_2
a1_2 = sigmoid(z1_2)

(四)计算反向传播

# 先来一次前向传播
z1_1, a1_1, z2_1, a2_1, z1_2, a1_2 = forward_propagation(x)
# 反向传播
# 代价函数e
e = (y - a1_2)**2# 代价函数对最终输出求导
deda1_2 = -2 * (y - a1_2)
# 第二层神经元的激活函数求导
da1_2dz1_2 = a1_2 * (1 - a1_2)
# z1_2对两个输入神经元的权重求导,即线性函数的导数
dz1_2dw11_2 = a1_1
dz1_2dw21_2 = a2_1
# 链式法则,得到损失函数e对第二层神经元的两个输入的导数
dedw11_2 = deda1_2 * da1_2dz1_2 * dz1_2dw11_2
dedw21_2 = deda1_2 * da1_2dz1_2 * dz1_2dw21_2
# 第二层神经元的偏置项
dz1_2db1_2 = 1
dedb1_2 = deda1_2 * da1_2dz1_2 *dz1_2db1_2# 对隐藏层的神经元进行操作
# 第一个神经元
# 对权重求导
dz1_2da1_1 = w11_2
# 激活函数求导
da1_1dz1_1 = a1_1 * (1 - a1_1)
# 对权重求导
dz1_1dw11_1 = x
# 链式法则
dedw11_1 = deda1_2 * da1_2dz1_2 * dz1_2da1_1 * da1_1dz1_1 * dz1_1dw11_1
# 对偏置项b求导
dz1_1db1_1 = 1
# 链式求导法则
dedb1_1 = deda1_2 * da1_2dz1_2 * dz1_2da1_1 * da1_1dz1_1 * dz1_1db1_1# 对第二个神经元
# 对权重求导
dz1_2da2_1 = w21_2
# 激活函数求导
da2_1dz2_1 = a2_1 * (1 - a2_1)
# 对权重求导
dz2_1dw12_1 = x
dedw12_1 = deda1_2 * da1_2dz1_2 * dz1_2da1_1 * da2_1dz2_1 * dz2_1dw12_1
# 对偏置项b求导
dz2_1db2_1 = 1
# 链式求导法则
dedb2_1 = deda1_2 * da1_2dz1_2 * dz1_2da1_1 * da2_1dz2_1 * dz2_1db2_1alpha = 0.03
# 更新参数
w11_1 = w11_1 - alpha * dedw11_1
w12_1 = w12_1 - alpha * dedw12_1
b1_1 = b1_1 - alpha * dedb1_1w11_2 = w11_2 - alpha * dedw11_2
w21_2 = w21_2 - alpha * dedw21_2
b1_2 = b1_2 - alpha * dedb1_2

(五)完整代码

import dataset
import matplotlib
import numpy as np
from matplotlib import pyplot as plt
# 首先要知道 matplotlib 的 backend 使用的是默认配置 agg (agg不能显示绘制的图),要想显示绘制的图需要更改 agg 为 TkAgg
matplotlib.use('TkAgg')def sigmoid(x):return 1 / (1 + np.exp(-x))# 生成数据
xs, ys = dataset.get_beans(100)
num = 100# 第一层
# 第一个神经元
w11_1 = np.random.rand() # _后表示第几层,11表示第1个输入和第1个神经元
b1_1 = np.random.rand() # _后表示第几层,1表示第一个神经元权重的偏置项
# 第二个神经元
w12_1 = np.random.rand() # _后表示第几层,12表示第1个输入和第2个神经元
b2_1 = np.random.rand() # _后表示第几层,2表示第二个神经元权重的偏置项# 第二层
w11_2 = np.random.rand() # _后表示第几层,11表示第1个输入和第1个神经元
w21_2 = np.random.rand() # _后表示第几层,21表示第2个输入和第1个神经元
b1_2 = np.random.rand() # _后表示第几层,1表示第一个神经元权重的偏置项# 计算前向传播
def forward_propagation(xs):# 第一层z1_1 = w11_1 * xs + b1_1a1_1 = sigmoid(z1_1)z2_1 = w12_1 * xs + b2_1a2_1 = sigmoid(z2_1)# 第二层# 第一层的输出作为输入z1_2 = w11_2 * a1_1 + w21_2 * a2_1 + b1_2a1_2 = sigmoid(z1_2)return z1_1, a1_1, z2_1, a2_1, z1_2, a1_2# 在全部样本上做了5000次梯度下降
for _ in range(5000):for i in range(100):x = xs[i]y = ys[i]# 先来一次前向传播z1_1, a1_1, z2_1, a2_1, z1_2, a1_2 = forward_propagation(x)# 反向传播# 代价函数ee = (y - a1_2)**2# 代价函数对最终输出求导deda1_2 = -2 * (y - a1_2)# 第二层神经元的激活函数求导da1_2dz1_2 = a1_2 * (1 - a1_2)# z1_2对两个输入神经元的权重求导,即线性函数的导数dz1_2dw11_2 = a1_1dz1_2dw21_2 = a2_1# 链式法则,得到损失函数e对第二层神经元的两个输入的导数dedw11_2 = deda1_2 * da1_2dz1_2 * dz1_2dw11_2dedw21_2 = deda1_2 * da1_2dz1_2 * dz1_2dw21_2# 第二层神经元的偏置项dz1_2db1_2 = 1dedb1_2 = deda1_2 * da1_2dz1_2 *dz1_2db1_2# 对隐藏层的神经元进行操作# 第一个神经元# 对权重求导dz1_2da1_1 = w11_2# 激活函数求导da1_1dz1_1 = a1_1 * (1 - a1_1)# 对权重求导dz1_1dw11_1 = x# 链式法则dedw11_1 = deda1_2 * da1_2dz1_2 * dz1_2da1_1 * da1_1dz1_1 * dz1_1dw11_1# 对偏置项b求导dz1_1db1_1 = 1# 链式求导法则dedb1_1 = deda1_2 * da1_2dz1_2 * dz1_2da1_1 * da1_1dz1_1 * dz1_1db1_1# 对第二个神经元# 对权重求导dz1_2da2_1 = w21_2# 激活函数求导da2_1dz2_1 = a2_1 * (1 - a2_1)# 对权重求导dz2_1dw12_1 = xdedw12_1 = deda1_2 * da1_2dz1_2 * dz1_2da1_1 * da2_1dz2_1 * dz2_1dw12_1# 对偏置项b求导dz2_1db2_1 = 1# 链式求导法则dedb2_1 = deda1_2 * da1_2dz1_2 * dz1_2da1_1 * da2_1dz2_1 * dz2_1db2_1alpha = 0.03w11_1 = w11_1 - alpha * dedw11_1w12_1 = w12_1 - alpha * dedw12_1b1_1 = b1_1 - alpha * dedb1_1w11_2 = w11_2 - alpha * dedw11_2w21_2 = w21_2 - alpha * dedw21_2b1_2 = b1_2 - alpha * dedb1_2# 减少绘图的频率if _ % 50 == 0:# plt.clf()函数清除绘图窗口plt.clf()# 重新绘制散点图和预测曲线plt.scatter(xs, ys)z1_1, a1_1, z2_1, a2_1, z1_2, a1_2 = forward_propagation(xs)plt.plot(xs, a1_2)# 暂停0.01秒plt.pause(0.01)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/754248.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

java算法题每日多道

274. H 指数 题目 给你一个整数数组 citations ,其中 citations[i] 表示研究者的第 i 篇论文被引用的次数。计算并返回该研究者的 h 指数。 根据维基百科上 h 指数的定义:h 代表“高引用次数” ,一名科研人员的 h 指数 是指他(…

鸿蒙Harmony应用开发—ArkTS声明式开发(绘制组件:Ellipse)

椭圆绘制组件。 说明: 该组件从API Version 7开始支持。后续版本如有新增内容,则采用上角标单独标记该内容的起始版本。 子组件 无 接口 Ellipse(options?: {width?: string | number, height?: string | number}) 从API version 9开始&#xff0…

数据结构知识Day1

数据结构是什么? 数据结构是计算机存储、组织数据的方式,它涉及相互之间存在一种或多种特定关系的数据元素的集合。数据结构反映了数据的内部构成,即数据由哪些成分数据构成,以何种方式构成,以及呈现何种结构。这种结…

LeetCode讲解算法1-排序算法(Python版)

文章目录 一、引言问题提出 二、排序算法1.选择排序(Selection Sort)2.冒泡排序3.插入排序(Insertion Sort)4.希尔排序(Shell Sort)5.归并排序(Merge Sort)6.快速排序(Qu…

【Node.js从基础到高级运用】十三、NodeJS中间件高级应用

在现代web开发中,Node.js因其高效和灵活性而备受青睐。其中,中间件的概念是构建高效Node.js应用的关键。在这篇博客文章中,我们将深入探讨Node.js中间件的高级应用,包括创建自定义中间件、使用第三方中间件等。我们将从基础讲起&a…

AJAX-原理XMLHttpRequest

定义 使用 查询参数 定义:浏览器提供给服务器的额外信息,让服务器返回浏览器想要的数据 语法:http://xxxx.com/xxx/xxx?参数名1值1&参数名2值2

ChatGPT编程Python小案例(拿来就用)—解压zip压缩文件

ChatGPT编程Python小案例(拿来就用)—解压zip压缩文件 今天撸一本书,其中书中提供一个zip压缩文件的资料。下载之后,没有解压软件,(也可能该文件可以自解压)。这段时间已经深刻体会到AI编程带来…

爬虫 Day2

resp.close()#关掉resp 一requests入门 (一) 用到的网页:豆瓣电影分类排行榜 - 喜剧片 import requestsurl "https://movie.douban.com/j/chart/top_list" #参数太长,重新封装参数 param {"type": "…

【Unity每日一记】unity中的内置宏和条件编译(Unity内置脚本符号)

👨‍💻个人主页:元宇宙-秩沅 👨‍💻 hallo 欢迎 点赞👍 收藏⭐ 留言📝 加关注✅! 👨‍💻 本文由 秩沅 原创 👨‍💻 收录于专栏:uni…

EDI在汽车主机厂配送流程中的应用

汽车主机厂的汽车配送流程始于汽车 “生产结束 ” ,止于 “交付给经销商 ” 。在这个流程中,企业作为主机厂的下游供应商,与主机厂的物流服务供应商之间的信息交换将会变得十分重要。 配送流程:运输订单以及报告 汽车主机厂提供预…

【linux驱动】定时器的使用

【linux驱动】定时器的使用 文章目录 【linux驱动】定时器的使用1.介绍1.1相关名词1.2配置HZ的方法 2.API3.示例4.调试 1.介绍 1.1相关名词 HZ、jiffies、tick Linux系统启动后,每隔固定周期就会发出timer interrupt(IRQ 0),HZ用来定义每一秒发生多少…

【机器学习】经典目标检测算法:RCNN、Fast RCNN、 Faster RCNN 基本思想和网络结构介绍

文章目录 三者的比较:RCNN、Fast RCNN、 Faster RCNN一、框架的对比1.三者都是二阶算法,网络框架比较:2.三者的优缺点比较: RCNN一、RCNN系列简介二、RCNN算法流程的4个步骤三、RCNN存在的问题四、论文解析补充1.R-CNN提出了两个问…

Odoo17免费开源ERP开发技巧:如何在表单视图中调用JS类

文/Odoo亚太金牌服务开源智造 老杨 在Odoo最新V17新版中,其突出功能之一是能够构建个性化视图,允许用户以独特的方式与数据互动。本文深入探讨了如何使用 JavaScript 类来呈现表单视图来创建自定义视图。通过学习本教程,你将获得关于开发Odo…

放慢音频速度的三个方法 享受慢音乐

如何让音频慢速播放?我们都知道,在观看视频时,我们可以选择快进播放,但是很少有软件支持慢速播放。然而,将音频慢速播放在某些情况下是非常必要的。例如,当我们学习一门新语言时,我们可以将音频…

Pytorch详细应用基础(全)

🔥博客主页: A_SHOWY🎥系列专栏:力扣刷题总结录 数据结构 云计算 数字图像处理 力扣每日一题_ 1.安装pytorch以及anaconda配置 尽量保持默认的通道,每次写指令把镜像地址写上就行。 defaults优先级是最低的&#…

深度学习神经网络相关记录《二》

如何判断模型是一个好模型? 模型预测效果,也就是模型预测的准确率运算速度;能够处理大量数据、短时间内急速学习、可以实时进行预测,是机器学习的重要优势;可解释性;深度学习已经不太关系这一点了&#xf…

基础:TCP三次握手做了什么,为什么要握手?

1. TCP 三次握手在做些什么 1. 第一次握手 : 1)握手作用:客户端发出建立连接请求。 2)数据处理:客户端发送连接请求报文段,将SYN位置为1,Sequence Number为x;然后,客户端进入SYN_S…

基于Matlab的视频人面检测识别,Matalb实现

博主简介: 专注、专一于Matlab图像处理学习、交流,matlab图像代码代做/项目合作可以联系(QQ:3249726188) 个人主页:Matlab_ImagePro-CSDN博客 原则:代码均由本人编写完成,非中介,提供…

分布式(计算机算法)

目录 分布式计算 分布式​编辑 分布式和集群 分布式和集群的应用场景 分布式应用场景 集群应用场景 哪种技术更优、更快、更好呢 性能 稳定性 以下概念来源于百度百科 分布式计算 分布式计算是近年提出的一种新的计算方式。所谓分布式计算就是在两个或多个软件互相共享信息…

【uniapp】uniapp设置改变全局字体大小功能:

文章目录 一、效果:二、文档:三、案例:引用插件,将项目中的字体单位rpx换成rem,结合官网提供的page-meta属性,通过控制根字体大小,达到调节字体大小要求。 一、效果: 二、文档&#…