激活函数大汇总(三十七)(PLU附代码和详细公式)
更多激活函数见激活函数大汇总列表
一、引言
欢迎来到我们深入探索神经网络核心组成部分——激活函数的系列博客。在人工智能的世界里,激活函数扮演着不可或缺的角色,它们决定着神经元的输出,并且影响着网络的学习能力与表现力。鉴于激活函数的重要性和多样性,我们将通过几篇文章的形式,本篇详细介绍两种激活函数,旨在帮助读者深入了解各种激活函数的特点、应用场景及其对模型性能的影响。
在接下来的文章中,我们将逐一探讨各种激活函数,从经典到最新的研究成果。
限于笔者水平,对于本博客存在的纰漏和错误,欢迎大家留言指正,我将不断更新。
二、PLU
PLU(Piecewise Linear Unit )激活函数是一种参数化的线性单元,旨在提供ReLU(Rectified Linear Unit)的一种改进形式,通过引入可学习的参数来增加模型的灵活性和适应性。
1. 数学定义
PLU激活函数定义为:
P L U ( x ) = max ( α ( x + c ) − c , min ( α ( x + c ) + c , x ) ) P L U(x)=\max (\alpha(x+c)-c, \min (\alpha(x+c)+c, x)) PLU(x