深度学习之梯度下降算法

梯度下降算法

  • 梯度下降算法
    • 数学公式
      • 结果
  • 梯度下降算法存在的问题
  • 随机梯度下降算法

梯度下降算法

数学公式

在这里插入图片描述
在这里插入图片描述

这里案例是用梯度下降算法,来计算 y = w * x
先计算出梯度,再进行梯度的更新

import numpy as np
import matplotlib.pyplot as pltx_data = [1.0, 2.0, 3.0, 4.0]
y_data = [2.0, 4.0, 6.0, 8.0]mse_list= []
w_list = []w = 1.0 #注意:这里设初始权重为1.0
def forward(x):return w*x
def const(xs, ys):const = 0for x, y in zip(xs, ys):y_pred = forward(x)const += (y_pred - y)**2return const/ len(xs)def gradient(xs, ys):grad  = 0for x, y in zip(xs, ys):grad += 2 * x * (w * x - y)return grad / len(xs)print('Predict (befortraining)',4,forward(4))#100轮
for epoch in range(100):const_val = const(x_data, y_data) #损失值,为了绘图,才算他grad_val = gradient(x_data, y_data) # gradient函数求梯度值w = w - 0.01 * grad_val#这里学习率取的 0.01,要尽量小mse_list.append(const_val)print('Epoch:', epoch, 'w=', w, 'cost=', const_val)
print('Predict(after training)', 4, forward(4))#绘图
w_list = np.arange(0, 100, 1)
plt.plot(w_list, mse_list)
plt.xlabel("epoch")
plt.ylabel("mse")
plt.show()

结果

Predict (befortraining) 4 4.0
Epoch: 0 w= 1.15 cost= 7.5
Epoch: 1 w= 1.2774999999999999 cost= 5.418750000000001
Epoch: 2 w= 1.385875 cost= 3.9150468750000016
Epoch: 3 w= 1.47799375 cost= 2.828621367187501
Epoch: 4 w= 1.5562946874999999 cost= 2.0436789377929685
Epoch: 5 w= 1.6228504843749998 cost= 1.4765580325554204
Epoch: 6 w= 1.6794229117187498 cost= 1.0668131785212922
Epoch: 7 w= 1.7275094749609374 cost= 0.7707725214816338
Epoch: 8 w= 1.7683830537167968 cost= 0.55688314677048
Epoch: 9 w= 1.8031255956592773 cost= 0.40234807354167157
Epoch: 10 w= 1.8326567563103857 cost= 0.29069648313385765
Epoch: 11 w= 1.857758242863828 cost= 0.21002820906421227
Epoch: 12 w= 1.8790945064342537 cost= 0.15174538104889318
Epoch: 13 w= 1.8972303304691156 cost= 0.10963603780782546
Epoch: 14 w= 1.9126457808987483 cost= 0.07921203731615392
Epoch: 15 w= 1.925748913763936 cost= 0.05723069696092115
Epoch: 16 w= 1.9368865766993457 cost= 0.041349178554265495
Epoch: 17 w= 1.9463535901944438 cost= 0.02987478150545676
Epoch: 18 w= 1.9544005516652772 cost= 0.021584529637692605
Epoch: 19 w= 1.9612404689154856 cost= 0.015594822663232907
Epoch: 20 w= 1.9670543985781628 cost= 0.011267259374185785
Epoch: 21 w= 1.9719962387914383 cost= 0.00814059489784921
Epoch: 22 w= 1.9761968029727226 cost= 0.0058815798136960945
Epoch: 23 w= 1.9797672825268142 cost= 0.004249441415395416
Epoch: 24 w= 1.9828021901477921 cost= 0.0030702214226231784
Epoch: 25 w= 1.9853818616256234 cost= 0.0022182349778452353
Epoch: 26 w= 1.9875745823817799 cost= 0.0016026747714931776
Epoch: 27 w= 1.989438395024513 cost= 0.0011579325224038112
Epoch: 28 w= 1.991022635770836 cost= 0.0008366062474367442
Epoch: 29 w= 1.9923692404052107 cost= 0.0006044480137730437
Epoch: 30 w= 1.993513854344429 cost= 0.0004367136899510165
Epoch: 31 w= 1.9944867761927647 cost= 0.00031552564098961234
Epoch: 32 w= 1.99531375976385 cost= 0.00022796727561499308
Epoch: 33 w= 1.9960166957992724 cost= 0.0001647063566318346
Epoch: 34 w= 1.9966141914293816 cost= 0.00011900034266650408
Epoch: 35 w= 1.9971220627149744 cost= 8.597774757655033e-05
Epoch: 36 w= 1.9975537533077283 cost= 6.211892262405537e-05
Epoch: 37 w= 1.9979206903115692 cost= 4.488092159587483e-05
Epoch: 38 w= 1.9982325867648338 cost= 3.242646585301842e-05
Epoch: 39 w= 1.9984976987501089 cost= 2.3428121578803835e-05
Epoch: 40 w= 1.9987230439375925 cost= 1.692681784068377e-05
Epoch: 41 w= 1.9989145873469536 cost= 1.2229625889894448e-05
Epoch: 42 w= 1.9990773992449105 cost= 8.835904705448865e-06
Epoch: 43 w= 1.999215789358174 cost= 6.383941149688757e-06
Epoch: 44 w= 1.9993334209544478 cost= 4.612397480649774e-06
Epoch: 45 w= 1.9994334078112805 cost= 3.33245717977035e-06
Epoch: 46 w= 1.9995183966395884 cost= 2.4077003123843227e-06
Epoch: 47 w= 1.9995906371436503 cost= 1.7395634756983151e-06
Epoch: 48 w= 1.9996520415721026 cost= 1.2568346111911193e-06
Epoch: 49 w= 1.9997042353362873 cost= 9.080630065859313e-07
Epoch: 50 w= 1.9997486000358442 cost= 6.560755222580743e-07
Epoch: 51 w= 1.9997863100304676 cost= 4.7401456483160105e-07
Epoch: 52 w= 1.9998183635258975 cost= 3.4247552309066444e-07
Epoch: 53 w= 1.999845608997013 cost= 2.4743856543302625e-07
Epoch: 54 w= 1.999868767647461 cost= 1.7877436352529204e-07
Epoch: 55 w= 1.9998884525003418 cost= 1.2916447764716773e-07
Epoch: 56 w= 1.9999051846252904 cost= 9.332133510001552e-08
Epoch: 57 w= 1.999919406931497 cost= 6.742466460983543e-08
Epoch: 58 w= 1.9999314958917724 cost= 4.8714320180508126e-08
Epoch: 59 w= 1.9999417715080066 cost= 3.5196096330379474e-08
Epoch: 60 w= 1.9999505057818057 cost= 2.542917959872535e-08
Epoch: 61 w= 1.999957929914535 cost= 1.8372582260029613e-08
Epoch: 62 w= 1.9999642404273548 cost= 1.327419068279643e-08
Epoch: 63 w= 1.9999696043632516 cost= 9.590602768272778e-09
Epoch: 64 w= 1.9999741637087638 cost= 6.929210500056835e-09
Epoch: 65 w= 1.9999780391524493 cost= 5.006354586314298e-09
Epoch: 66 w= 1.999981333279582 cost= 3.617091188568193e-09
Epoch: 67 w= 1.9999841332876447 cost= 2.6133483837386546e-09
Epoch: 68 w= 1.999986513294498 cost= 1.888144207242458e-09
Epoch: 69 w= 1.9999885363003234 cost= 1.3641841897252644e-09
Epoch: 70 w= 1.999990255855275 cost= 9.856230770713489e-10
Epoch: 71 w= 1.9999917174769837 cost= 7.121126731808042e-10
Epoch: 72 w= 1.9999929598554362 cost= 5.145014063749241e-10
Epoch: 73 w= 1.9999940158771208 cost= 3.7172726609486193e-10
Epoch: 74 w= 1.9999949134955526 cost= 2.6857294975413565e-10
Epoch: 75 w= 1.9999956764712197 cost= 1.9404395619846422e-10
Epoch: 76 w= 1.9999963250005368 cost= 1.4019675835727846e-10
Epoch: 77 w= 1.9999968762504563 cost= 1.0129215790946163e-10
Epoch: 78 w= 1.9999973448128878 cost= 7.318358408922187e-11
Epoch: 79 w= 1.9999977430909546 cost= 5.2875139505922e-11
Epoch: 80 w= 1.9999980816273113 cost= 3.820228829502065e-11
Epoch: 81 w= 1.9999983693832146 cost= 2.7601153294430312e-11
Epoch: 82 w= 1.9999986139757324 cost= 1.994183325506297e-11
Epoch: 83 w= 1.9999988218793725 cost= 1.4407974526944569e-11
Epoch: 84 w= 1.9999989985974667 cost= 1.0409761596639575e-11
Epoch: 85 w= 1.9999991488078466 cost= 7.521052753355296e-12
Epoch: 86 w= 1.9999992764866696 cost= 5.43396061571672e-12
Epoch: 87 w= 1.9999993850136693 cost= 3.926036544289031e-12
Epoch: 88 w= 1.999999477261619 cost= 2.8365614029723025e-12
Epoch: 89 w= 1.9999995556723762 cost= 2.0494156128291866e-12
Epoch: 90 w= 1.9999996223215197 cost= 1.480702779721521e-12
Epoch: 91 w= 1.9999996789732917 cost= 1.0698077583047718e-12
Epoch: 92 w= 1.999999727127298 cost= 7.729361059472377e-13
Epoch: 93 w= 1.9999997680582033 cost= 5.584463360924549e-13
Epoch: 94 w= 1.9999998028494728 cost= 4.034774778538369e-13
Epoch: 95 w= 1.9999998324220518 cost= 2.915124779890719e-13
Epoch: 96 w= 1.999999857558744 cost= 2.1061776543919866e-13
Epoch: 97 w= 1.9999998789249325 cost= 1.521713353234463e-13
Epoch: 98 w= 1.9999998970861925 cost= 1.0994378986595627e-13
Epoch: 99 w= 1.9999999125232637 cost= 7.943438830326513e-14
Predict(after training) 4 7.999999650093055

在这里插入图片描述

横坐标表示训练的轮数,纵坐标为损失值,通过图分析,随着训练轮数的增加,损失值逐渐减少,趋于0(可能会不等于0)

梯度下降算法存在的问题

使用梯度下降算法,如果遇到鞍点(总体梯度和为0的点),那么就会导致w = w - 学习率 * w中,w 不会改变就导致w不能够继续更新,为了解决这个问题,就提出了随机梯度下降算法,随机选取一组(x, y)作为梯度下降的依据

随机梯度下降算法

随机梯度下降

#随机梯度算法import numpy as np
import matplotlib.pyplot as pltx_data = [1.0,2.0,3.0]
y_data = [2.0,4.0,6.0]w=1.0def forward(x):return w*x#计算MSE
def cost(xs, ys):cost = 0for x, y in zip(xs, ys):y_pred = forward(x)cost += (y_pred - y)**2return cost / len(xs)def gradient(xs, ys):grad = 0for x, y in zip(xs, ys):grad  += 2*w*(w*x-y)return grad/len(xs)mse_list = []for epoch in range(100):cost_val = cost(x_data, y_data) #绘图才绘制grad_val = gradient(x_data, y_data) #计算梯度w -= 0.01*grad_valmse_list.append(cost_val)print('Epoch:', epoch, 'w=', w, 'cost=', cost_val)
print('Predict(after training)', 4, forward(4))w_list = np.arange(0, 100, 1)
plt.plot(w_list, mse_list)
plt.ylabel('cost')
plt.xlabel('times')
plt.show()

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/684173.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

2024 前端面试题(GPT回答 + 示例代码 + 解释)No.21 - No.40

本文题目来源于全网收集,答案来源于 ChatGPT 和 博主(的小部分……) 格式:题目 h3 回答 text 参考大佬博客补充 text 示例代码 code 解释 quote 补充 quote 上一篇链接:2024 前端面试题(GPT回答 示例…

基于HTML5实现动态烟花秀效果(含音效和文字)实战

目录 前言 一、烟花秀效果功能分解 1、功能分解 2、界面分解 二、HTML功能实现 1、html界面设计 2、背景音乐和燃放触发 3、燃放控制 4、对联展示 5、脚本引用即文本展示 三、脚本调用及实现 1、烟花燃放 2、燃放响应 3、烟花canvas创建 4、燃放声音控制 5、实际…

vue3 之 商城项目—结算模块

路由配置 chekout/index.vue <script setup> const checkInfo {} // 订单对象 const curAddress {} // 地址对象 </script> <template><div class"xtx-pay-checkout-page"><div class"container"><div class"w…

医院三基怎么搜题答案? #学习方法#学习方法#微信

在大学生的学习过程中&#xff0c;遇到难题和疑惑是常有的事情。然而&#xff0c;随着互联网的普及和技术的发展&#xff0c;搜题和学习软件成为了大学生们解决问题的利器。今天&#xff0c;我将向大家推荐几款备受大学生喜爱的搜题和学习软件&#xff0c;帮助我们更好地应对学…

python系统学习Day2

section3 python Foudamentals part one&#xff1a;data types and variables 数据类型&#xff1a;整数、浮点数、字符串、布尔值、空值 #整型&#xff0c;没有大小限制 >>>9 / 3 #3.0 >>>10 // 3 #3 地板除 >>>10 % 3 #1 取余#浮点型&#xff…

Linux实用指令

Linux实用指令 1.指定运行级别 运行级别说明&#xff1a; 0 &#xff1a;关机 1 &#xff1a;单用户【找回丢失密码】 2&#xff1a;多用户状态没有网络服务 3&#xff1a;多用户状态有网络服务 4&#xff1a;系统未使用保留给用户 5&#xff1a;图形界面 6&#xff1a;系统重…

MySQL5.7升级到MySQL8.0的最佳实践分享

一、前言 事出必有因&#xff0c;在这个月的某个项目中&#xff0c;我们面临了一项重要任务&#xff0c;即每年一次的等保测评整改。这次测评的重点是Mysql的一些高危漏洞&#xff0c;客户要求我们无论如何必须解决这些漏洞。尽管我们感到无奈&#xff0c;但为了满足客户的要求…

Apache 神禹(shenyu)源码阅读(三)——被网关路由的后端服务 Client 向 Admin 注册的数据传输(Client端)

前言 在真正测试 Divide 插件时&#xff0c;想要知道后端服务&#xff08;以下称为 Client&#xff09;是如何将自己的信息注册到管理台&#xff08;以下称为 Client&#xff09;。这里后端服务用的是 shenyu 自带的 http 的例子&#xff0c;项目名字为 shenyu-examples-http。…

Android 13.0 SystemUI下拉状态栏定制二 锁屏页面横竖屏解锁图标置顶显示功能实现

1.前言 在13.0的系统rom定制化开发中,在关于systemui的锁屏页面功能定制中,由于在平板横屏锁屏功能中,时钟显示的很大,并且是在左旁边居中显示的, 由于需要和竖屏显示一样,所以就需要用到小时钟显示,然后同样需要居中,所以就来分析下相关的源码,来实现具体的功能 如图…

Imgui(3) | 基于 imgui-SFML 的 mnist 数据集查看器

Imgui(3) | 基于 imgui-SFML 的 mnist 数据集查看器 文章目录 Imgui(3) | 基于 imgui-SFML 的 mnist 数据集查看器0. 介绍1. 处理 mnist 数据集2. 显示单张图像和label2.1 显示单张图像2.2 点选列表后更新显示的图像2.3 显示 label2.4 使用完整的列表 总结 0. 介绍 把mnist数据…

每日一练:LeeCode-98、 验证二叉搜索树【二叉搜索树+DFS】

本文是力扣LeeCode-98、 验证二叉搜索树【二叉搜索树DFS】】 学习与理解过程&#xff0c;本文仅做学习之用&#xff0c;对本题感兴趣的小伙伴可以出门左拐LeeCode。 给你一个二叉树的根节点 root &#xff0c;判断其是否是一个有效的二叉搜索树。 有效 二叉搜索树定义如下&am…

C#,巴都万数列(Padonve Number)的算法与源代码

1 巴都万数列&#xff08;Padovan Sequence&#xff09; 巴都万数列&#xff08;Padovan Sequence&#xff09;是一个整数数列。 首数个值为1, 1, 1, 2, 2, 3, 4, 5, 7, 9, 12, 16, 21, 28, 37 ... 此数列以建筑师理察巴都万命名&#xff0c;他的论文Dom&#xff08;1994年&a…

嵌入式CAN通信协议原理(下)

本篇文章结合实际CAN控制器继续介绍协议相关的内容&#xff0c;还有示例讲解。 好了&#xff0c;继续吧&#xff01; 二. STM32 CAN 控制器介绍 STM32 的芯片中具有 bxCAN 控制器 (Basic Extended CAN)&#xff0c;它支持 CAN 协议 2.0A 和 2.0B 标准。 该 CAN 控制器支持最…

Vi 和 Vim 编辑器

Vi 和 Vim 编辑器 vi 和 vim 的基本介绍 Linux 系统会内置 vi 文本编辑器 Vim 具有程序编辑的能力&#xff0c;可以看做是 Vi 的增强版本&#xff0c;可以主动的以字体颜色辨别语法的正确性&#xff0c;方便程序设计。 代码补完、编译及错误跳转等方便编程的功能特别丰富&…

读十堂极简人工智能课笔记03_遗传算法与进化

1. 寻找正确答案 1.1. 卡尔西姆斯 1.1.1. 计算机图形艺术家和研究者 1.1.2. 演示过数字进化之创造性和新颖性的先驱 1.1.3. 1994年 1.1.3.1. 创造一批能游泳、走路、跳跃&#xff0c;甚至互相竞争的虚拟动物震惊了整个科学界 1.1.3.2. 它们的人工大脑却是个极其复杂的网络…

Json-序列化字符串时间格式问题

序列化字符串时间格式问题 一、项目场景二、问题描述三、解决方案 一、项目场景 最近C#中需要将实体进行json序列化&#xff0c;使用了Newtonsoft.Json public static void TestJson(){DataTable dt new DataTable();dt.Columns.Add("Age", Type.GetType("Sys…

java8使用流

这种处理数据的方式很有用&#xff0c;因为你让Stream API管理如何处理数据。这样StreamAPI就可以在背后进行多种优化。此外&#xff0c;使用内部迭代的话&#xff0c;SteamAPI可以决定并行运行你的代码。这要是用外部迭代的话就办不到了&#xff0c;因为你只能用单一线程挨个迭…

VMwareWorkstation17.0虚拟机安装Windows2.03

VMwareWorkstation17.0虚拟机安装Windows2.03 第一篇 下载Windows2.03第二篇 配置Windows2.03虚拟机机器环境第三篇 启动Windows2.03系统 第一篇 下载Windows2.03 1.Windows2.0原版软盘下载地址是 暂不提供&#xff0c;后续更新 2.Windows2.03虚拟机镜像下载地址是 Windows2…

STM32物联网(ESP-01S模块及STM32和ESP-01S通信方式介绍)

文章目录 前言一、ESP-01S模块介绍二、STM32和ESP-01S通信方式介绍三、什么是AT指令四、创建基础工程总结 前言 本篇文章我们开始正式进入STM32物联网的专栏&#xff0c;在这个专栏中将会带大家学习使用STM32进行联网&#xff0c;联网模块的话主要就是使用到了ESP-01S WIFI模块…

『运维备忘录』之 Zip 命令详解

运维人员不仅要熟悉操作系统、服务器、网络等只是&#xff0c;甚至对于开发相关的也要有所了解。很多运维工作者可能一时半会记不住那么多命令、代码、方法、原理或者用法等等。这里我将结合自身工作&#xff0c;持续给大家更新运维工作所需要接触到的知识点&#xff0c;希望大…