机器学习辅助的乙醇浓度检测

目录

1.为什么要机器学习

2. 神经网络一般组成

3.BP神经网络工作过程

 4.评价指标

5.实操代码


1.为什么要用机器学习

人工分析大量的谐振模式,建立各种WGM的响应与未知目标之间的关系,是一个很大的挑战。机器学习(ML)能够自行识别全谱的全部特征。作为一种数据驱动的分析技术,它可以自动从大型数据集中搜索有效信息,揭示数据背后的机制,从而建立数据之间的映射关系输入数据与未知目标参数。(我的理解是,采集的是乙醇的光谱数据,人眼识别或者记录比较困难,故而借助机器学习。)

2. 神经网络一般组成

(1)输入层:输入层是神经网络的起始部分,它的作用是接收外部输入的数据。输入层的设计直接影响到神经网络的性能,因为它决定了网络能够接收和处理的信息类型和结构。

(2)隐藏层:隐藏层在神经网络中的作用尤为重要,它们负责特征的转换和提取。通过应用非线性变换,隐藏层能够提升模型对复杂数据的表达能力。

(3)输出层:输出层是模型的最后一层,它的任务是生成模型的最终预测结果。这一层的神经元数量与所解决的问题类型密切相关。在回归问题中,通常只需要一个输出神经元来预测连续的数值;而在分类问题中,输出神经元的数量则与目标类别的数量一致。

(4)权重和偏置:这些是网络中的参数,可以在训练过程中进行学习。权重决定了输入特征如何影响隐藏层和输出层,而偏置则用于调整神经元的激活水平。

(5)激活函数:激活函数是神经网络中的关键组件,它负责为网络引入非线性。在神经网络中,每个神经元在接收到输入信号后,会通过一个激活函数来决定是否以及如何激活。

(6)损失函数:损失函数(Loss Function)是神经网络训练过程中用于衡量模型预测值与实际值之间差异的函数。它为网络提供了一个优化的目标,即最小化损失函数的值。损失函数的选择取决于具体的任务和模型的需求。

(7)优化器:优化器在神经网络训练中起着至关重要的作用,它的主要工作是调整网络的权重和偏置,目的是减少损失函数的值。

3.BP神经网络工作过程

(1)初始化:首先,需要初始化网络中的权重和偏置。

(2)输入数据:将输入数据送入网络,进而传递到第一层的神经元,即输入层。

(3)前向传播:数据在网络中逐层向前传递,每一层的神经元接收来自前一层的输出,通过激活函数处理,生成当前层输出。激活函数常使用Sigmoid、Tanh或ReLU等。

(4)计算误差:在网络的最后一层,即输出层,计算预测结果与实际目标值之间的误差。误差通常使用均方误差(Mean Squared Error, MSE)或其他损失函数来衡量。

(5)反向传播:利用计算出的误差,通过反向传播算法调整网络中的权重和偏置。这个过程涉及到梯度的计算,即损失函数对权重的偏导数。

(6)权重更新:根据反向传播得到的梯度信息,使用梯度下降或其变体(如动量法、AdaGrad等)来更新权重和偏置。

(7)迭代训练:重复步骤(3)至(6),直到满足停止条件,如达到预定的迭代次数或误差降低到可接受的水平。

(8)评估和应用:训练完成后,使用测试数据集评估网络的性能,然后可以将训练好的神经网络应用于实际问题。

 4.评价指标

5.实操代码

%% BP神经网络回归预测
%% 1.初始化
clear all
close all
clc
format short %2位小数,format short精确4位,format long精确15位%% 2.读取数据
data=xlsread("D:\Matlab\machine learning\machine learning.xlsx"); %使用xlsread函数读取EXCEL中对应范围的数据即可; xlsread函数报错时,可用Load函数替代 % 设置神经网络的输入和输出
T=data(:,1);   %步长
X=data(:,2);   %第1列至倒数第2列为输入
Y=data(:,3);  %最后1列为输出
N=length(Y);  %计算样本数量
input=X;
output=Y;%% 3.设置训练集和测试集
%(1)随机选取测试样本code5
k=rand(1,N);
[m,n]=sort(k);
testNum=9;              %设定测试集样本数量——修改
trainNum=N-testNum;       %设定训练集样本数量
input_train = input(n(1:trainNum),:)';                   % 训练集输入
output_train =output(n(1:trainNum))';                    % 训练集输出
input_test =input(n(trainNum+1:trainNum+testNum),:)';    % 测试集输入
output_test =output(n(trainNum+1:trainNum+testNum))';    % 测试集输出%% 4.数据归一化
[inputn,inputps]=mapminmax(input_train,0,1);         % 训练集输入归一化到[0,1]之间
%[outputn,outputps]=mapminmax(output_train,0,1);         
[outputn,outputps]=mapminmax(output_train);          % 训练集输出归一化到默认区间[-1, 1]
inputn_test=mapminmax('apply',input_test,inputps);   % 测试集输入采用和训练集输入相同的归一化方式%% 5.求解最佳隐含层
inputnum=size(input,2);   %size用来求取矩阵的行数和列数,1代表行数,2代表列数
outputnum=size(output,2);
disp(['输入层节点数:',num2str(inputnum),',  输出层节点数:',num2str(outputnum)])
disp(['隐含层节点数范围为 ',num2str(fix(sqrt(inputnum+outputnum))+1),' 至 ',num2str(fix(sqrt(inputnum+outputnum))+10)])
disp(' ')
disp('最佳隐含层节点的确定...')%根据hiddennum=sqrt(m+n)+a,m为输入层节点数,n为输出层节点数,a取值[1,10]之间的整数
MSE=1e+5;                             %误差初始化
transform_func={'tansig','purelin'};  %激活函数采用tan-sigmoid和purelin
train_func='trainlm';                 %训练算法
for hiddennum=fix(sqrt(inputnum+outputnum))+1:fix(sqrt(inputnum+outputnum))+10net=newff(inputn,outputn,hiddennum,transform_func,train_func); %构建BP网络% 设置网络参数net.trainParam.epochs=1000;       % 设置训练次数net.trainParam.lr=0.01;           % 设置学习速率net.trainParam.goal=0.000001;     % 设置训练目标最小误差% 进行网络训练net=train(net,inputn,outputn);an0=sim(net,inputn);     %仿真结果mse0=mse(outputn,an0);   %仿真的均方误差disp(['当隐含层节点数为',num2str(hiddennum),'时,训练集均方误差为:',num2str(mse0)])%不断更新最佳隐含层节点if mse0<MSEMSE=mse0;hiddennum_best=hiddennum;end
end
disp(['最佳隐含层节点数为:',num2str(hiddennum_best),',均方误差为:',num2str(MSE)])%% 6.构建最佳隐含层的BP神经网络
net=newff(inputn,outputn,hiddennum_best,transform_func,train_func);% 网络参数
net.trainParam.epochs=1000;         % 训练次数
net.trainParam.lr=0.01;             % 学习速率
net.trainParam.goal=0.000001;       % 训练目标最小误差%% 7.网络训练
net=train(net,inputn,outputn);      % train函数用于训练神经网络,调用蓝色仿真界面%% 8.网络测试
an=sim(net,inputn_test);                     % 训练完成的模型进行仿真测试
test_simu=mapminmax('reverse',an,outputps);  % 测试结果反归一化
error=test_simu-output_test;                 % 测试值和真实值的误差% 权值阈值
W1 = net.iw{1, 1};  %输入层到中间层的权值
B1 = net.b{1};      %中间各层神经元阈值
W2 = net.lw{2,1};   %中间层到输出层的权值
B2 = net.b{2};      %输出层各神经元阈值%% 9.结果输出
% BP预测值和实际值的对比图
figure
plot(output_test,'bo-','linewidth',1.5)
hold on
plot(test_simu,'rs-','linewidth',1.5)
legend('实际值','预测值')
xlabel('测试样本'),ylabel('指标值')
title('BP预测值和实际值的对比')
set(gca,'fontsize',12)% BP测试集的预测误差图
figure
plot(error,'bo-','linewidth',1.5)
xlabel('测试样本'),ylabel('预测误差')
title('BP神经网络测试集的预测误差')
set(gca,'fontsize',12)%计算各项误差参数
[~,len]=size(output_test);            % len获取测试样本个数,数值等于testNum,用于求各指标平均值
SSE1=sum(error.^2);                   % 误差平方和
MAE1=sum(abs(error))/len;             % 平均绝对误差
MSE1=error*error'/len;                % 均方误差
RMSE1=MSE1^(1/2);                     % 均方根误差
MAPE1=mean(abs(error./output_test));  % 平均百分比误差
r=corrcoef(output_test,test_simu);    % corrcoef计算相关系数矩阵,包括自相关和互相关系数
R1=r(1,2);    % 显示各指标结果
disp(' ')
disp('各项误差指标结果:')
disp(['误差平方和SSE:',num2str(SSE1)])
disp(['平均绝对误差MAE:',num2str(MAE1)])
disp(['均方误差MSE:',num2str(MSE1)])
disp(['均方根误差RMSE:',num2str(RMSE1)])
disp(['平均百分比误差MAPE:',num2str(MAPE1*100),'%'])
disp(['预测准确率为:',num2str(100-MAPE1*100),'%'])
disp(['相关系数R: ',num2str(R1)])%%读取待预测数据
kes=xlsread("D:\Matlab\machine learning\self.xlsx");%%数据转置
kes=kes';%%数据归一化
n_test = mapminmax('apply',kes,inputps,0,1);%%仿真测试
t_sim = sim(net,n_test);%%数据反归一化
T_sim = mapminmax('reverse',t_sim,outputps,0,1);%%保存结果
xlswrite('self_product',T_sim')

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/865237.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

如何在Lazada平台快速出单?测评助力商家突破销量瓶颈

Lazada在短短的几年里已经发展成了东南亚地区最大的在线购物网站之一 &#xff0c;很多商家也想要在这样一个大的跨境平台上发展。那么&#xff0c;对于希望在Lazada平台上大展拳脚的商家而言&#xff0c;出单是否容易呢? ​一、Lazada出单容易吗? Lazada出单的难易程度并非…

漫步5G-A City,一份独属于上海的浪漫

作家亨利詹姆斯曾写道&#xff0c;“城市漫步&#xff0c;让我接触到了这个世界上最好的东西”。 用漫无目的地行走&#xff0c;来体验和观察一座城市&#xff0c;上海凭借丰富多元的文化特质&#xff0c;成为citywalk这种浪漫生活方式的流行地。 无论你是漫步在美术馆、画廊林…

数据抓取技术在视频内容监控与快速读取中的应用

引言 在数字化时代&#xff0c;视频内容的快速读取和监控对于内容提供商来说至关重要。思通数科的OPEN-SPIDER抓取技术为这一需求提供了高效的解决方案。 OPEN-SPIDER技术概述 OPEN-SPIDER是思通数科开发的一种先进的数据抓取技术&#xff0c;它能够&#xff1a; - 高效地从各…

Stable Diffusion【基础篇】:降噪强度(denoising strength)

提到降噪强度&#xff08;denoising strength&#xff09;&#xff0c;大家一定不会陌生&#xff0c;这个参数是图生图中最关键的参数之一。今天在Stable Diffusion Art网站看到一篇介绍降噪强度&#xff08;denoising strength&#xff09;的文章&#xff08;地址&#xff1a;…

从hugging face 下模型

支持国内下载hugging face 的东西 下模型权重 model_id 是红色圈复制的 代码 记得设置下载的存储位置 import os from pathlib import Path from huggingface_hub import hf_hub_download from huggingface_hub import snapshot_downloadmodel_id"llava-hf/llava-v1…

【Python机器学习】模型评估与改进——二分类指标

目录 1、错误类型 2、不平衡数据集 3、混淆矩阵 与精度的关系。 准确率、召回率与f-分数 分类报告 4、考虑不确定性 5、准确率-召回率曲线 6、受试者工作特征&#xff08;ROC&#xff09;与AUC 二分类可能是实践中最常见的机器学习应用&#xff0c;也是概念最简单的应…

云原生之容器编排实践-OpenEuler23.09在线安装Kubernetes与KubeSphere

背景 前几篇文章中介绍了如何将 ruoyi-cloud 项目部署到 Kubernetes 集群中&#xff0c;包括网关服务、认证服务和系统服务并且对全部服务采用 YAML 文件的方式来进行部署&#xff0c;这虽然有助于理解 K8S 组织管理资源的风格与底层机制&#xff0c;但是对于团队中不太熟悉命…

代码随想录算法训练营第21天|LeetCode 669. 修剪二叉搜索树、108.将有序数组转换为二叉搜索树、538.把二叉搜索树转换为累加树

1.LeetCode 669. 修剪二叉搜索树 题目链接&#xff1a;https://leetcode.cn/problems/trim-a-binary-search-tree/description/ 文章链接&#xff1a;https://programmercarl.com/0669.修剪二叉搜索树.html 视频链接&#xff1a;https://www.bilibili.com/video/BV17P41177ud?…

【网络】网络基础(一)

网络基础&#xff08;一&#xff09; 文章目录 一、计算机网络背景1.1网络发展1.2认识“协议” 二、网络协议初识2.1OSI七层模型2.2OSI五层模型 三、网络传输基本流程3.1局域网通信3.2网络传输流程不跨子网的网络传输跨子网的网络传输 3.3网络中的地址管理IP地址MAC地址 一、计…

Kotlin中的数据类型

人不走空 &#x1f308;个人主页&#xff1a;人不走空 &#x1f496;系列专栏&#xff1a;算法专题 ⏰诗词歌赋&#xff1a;斯是陋室&#xff0c;惟吾德馨 目录 &#x1f308;个人主页&#xff1a;人不走空 &#x1f496;系列专栏&#xff1a;算法专题 ⏰诗词歌…

冒泡排序写法

正宗的冒泡排序写法&#xff1a; public class BubbleSort {public static void main(String[] args) {int[] a {4,6,5,24,3,7,1};//初始化一个最大角标变量int n a.length-1;//循环轮次for (int i0;i<n;i){//从后向前开始&#xff0c;相邻元素比较大小&#xff0c;小的元…

Batch Size 不同对evaluation performance的影响

目录 问题描述如果是bugbatch size的设置问题尝试使用GroupNorm解决batchsize不同带来的问题归一化的分类 参考文章 问题描述 深度学习网络训练时&#xff0c;使用较小的batch size训练网络后&#xff0c;如果换用较大的batch size进行evaluation&#xff0c;网络的预测能力会…

Python基础001

Python输出语句 print输出字符串 print("中国四大名著&#xff1a;","西游记|","三国演义|","红楼梦|","水浒传") print(6) print(1 1)Python输入语句 input函数 input() input("我的名字是&#xff1a;") p…

RK3568驱动指南|第十五篇 I2C-第182章 使用Linux中默认的模拟I2C驱动程序

瑞芯微RK3568芯片是一款定位中高端的通用型SOC&#xff0c;采用22nm制程工艺&#xff0c;搭载一颗四核Cortex-A55处理器和Mali G52 2EE 图形处理器。RK3568 支持4K 解码和 1080P 编码&#xff0c;支持SATA/PCIE/USB3.0 外围接口。RK3568内置独立NPU&#xff0c;可用于轻量级人工…

线性代数笔记

行列式 求高阶行列式 可以划上三角 上三角 余子式 范德蒙行列式 拉普拉斯公式 行列式行列对换值不变 矩阵 矩阵的运算 同型矩阵加减 对应位置相加减 矩阵的乘法 左边第 i 行 一次 相乘求和 右边 第 j 列 eg 中间相等 两边规模 矩阵的幂运算 解题思路 找规律 数学归纳…

CVE-2024-6387 分析

文章目录 1. 漏洞成因2. 漏洞利用前置知识2.1 相关 SSH 协议报文格式2.2 Glibc 内存分配相关规则 3. POC3.1 堆内存布局3.2 服务端解析数据时间测量3.3 条件竞争3.4 FSOP 4. 相关挑战 原文链接&#xff1a;个人博客 近几天&#xff0c;OpenSSH爆出了一个非常严重的安全漏洞&am…

重生奇迹mu精灵之心怎么搭配

玩家可以通过召唤来召唤多种精灵之心&#xff0c;每种精灵之心增加的属性也不同。精灵之心的作用是为了提升各种各样的属性。我们可以通过召唤获得精灵之心&#xff0c;前面的解锁费用较低&#xff0c;而后面的解锁需要大量的金币来解锁。 召唤精灵之心后&#xff0c;我们可以…

数据结构(JAVA)—代码题

01-数据结构—判断题 02-数据结构—选择题 03 数据结构—多选填空程序填空 ​ 01-顺序表的建立及遍历 import java.util.Iterator; import java.util.LinkedList; import java.util.ListIterator; import java.util.Scanner;public class Main {public static void main(St…

Hadoop-09-HDFS集群 JavaClient 代码上手实战!详细附代码 安装依赖 上传下载文件 扫描列表 PUT GET 进度条显示

章节内容 上一节完成&#xff1a; HDFS的集群启动HDFS的命令行操作HDFS 上传下载移动重命名等操作 背景介绍 这里是三台公网云服务器&#xff0c;每台 2C4G&#xff0c;搭建一个Hadoop的学习环境&#xff0c;供我学习。 之前已经在 VM 虚拟机上搭建过一次&#xff0c;但是没…