运动想象迁移学习系列:EEGNet-Fine tuning
- 0. 引言
- 1. 主要贡献
- 2. 提出的方法
- 2.1 EEGNet框架
- 2.2 微调
- 3. 实验结果
- 3.1 各模型整体分类结果
- 3.2 算法复杂度比较
- 3.3 不同微调方法比较
- 4. 总结
- 欢迎来稿
论文地址:https://www.nature.com/articles/s41598-021-99114-1#citeas
论文题目:A transfer learning framework based on motor imagery rehabilitation for stroke
论文代码:无
0. 引言
深度学习网络已成功应用于传递函数,使模型可以从源域适应到不同的目标域。本研究利用多个卷积神经网络对脑卒中患者的脑电图(EEG)进行解码,设计有效的运动意象(MI)脑机接口(BCI)系统。这项研究引入了 “微调” 来传输模型参数并减少训练时间。所提出的框架的性能是通过模型的两类MI识别能力来评估的。
总得来说:这是一篇较老的文章,进一步说明了EEGNet模型的普适性与优越性(效果好且稳定
)。
1. 主要贡献
- 比较多个模型的实验结果,可以推断
EEGNet
是所有框架中迁移学习的最佳网络模型
。 - 实验表明,迁移学习可以有效提高脑机接口系统对脑卒中患者康复的性能,也证明了所提框架的有效性和鲁棒性。
2. 提出的方法
2.1 EEGNet框架
2.2 微调
迁移学习的有效性取决于许多因素。其中,最重要的因素是原始数据与目标数据的相似性。相似度越高,“微调”效果越好。EEGNet的前几层获得的特征是基本的常规特征(例如,从前几层中提取特定的频率空间滤波器)。后几层提取特定特征(例如,模型可以分别汇总每个特征图的内核,并找到特征图的最佳组合)。
为了避免过度拟合,所提出的神经网络的 “微调” 分为以下几个步骤:
- 修改最后一层的输出参数。所提出的方法是冻结或重新训练前几层的参数,然后修改softmax层的类别参数。
调整模型的配置参数
,适当降低学习率、步长和纪元。模型的学习率相对较低,因为有效的模型权重用于“微调”。如果学习率太高,模型可以快速更新并破坏原有的良好权重信息。在“微调”后,本研究选择打开所有图层并更新步长参数。EEGNet模型之前是在大规模数据集上进行的,无形中扩展了训练后的脑电数据,其处理性能对数据集非常有利。因此,“微调”可以改进模型,在相对较少的时期后获得更好的结果。- 开始训练并加载预训练模型的参数。
3. 实验结果
3.1 各模型整体分类结果
模型参数:
3.2 算法复杂度比较
3.3 不同微调方法比较
在EEGNet模型上执行了三种处理方法。
第一种方法
是随机初始化整个网络的权重
,然后放入一个新的训练数据集进行重新训练。(处理后的模型称为 EEGNet_0)。
第二种方法
是在预训练模型中冻结块 1 的权重
,并重新训练以下层的其余部分,以便获得新的权重(处理后的模型称为 EEGNet_1)。
第三种方法
与第二种方法类似,只是冻结了块 1 和块 2 的层权重
,其余相同(处理后的模型称为 EEGNet_2)。
4. 总结
到此,使用 EEGNet-Fine tuning 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。
如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦😄。
欢迎来稿
欢迎投稿合作,投稿请遵循科学严谨、内容清晰明了的原则!!!! 有意者可以后台私信!!