激活函数总结(三十二):激活函数补充
- 1 引言
- 2 激活函数
- 2.1 Serf激活函数
- 2.2 FReLU激活函数
- 3. 总结
1 引言
在前面的文章中已经介绍了介绍了一系列激活函数 (Sigmoid
、Tanh
、ReLU
、Leaky ReLU
、PReLU
、Swish
、ELU
、SELU
、GELU
、Softmax
、Softplus
、Mish
、Maxout
、HardSigmoid
、HardTanh
、Hardswish
、HardShrink
、SoftShrink
、TanhShrink
、RReLU
、CELU
、ReLU6
、GLU
、SwiGLU
、GTU
、Bilinear
、ReGLU
、GEGLU
、Softmin
、Softmax2d
、Logsoftmax
、Identity
、LogSigmoid
、Bent Identity
、Absolute
、Bipolar
、Bipolar Sigmoid
、Sinusoid
、Cosine
、Arcsinh
、Arccosh
、Arctanh
、LeCun Tanh
、TanhExp
、Gaussian
、GCU
、ASU
、SQU
、NCU
、DSU
、SSU
、SReLU
、BReLU
、PELU
、Phish
、RBF
、SQ-RBF
、ISRU
、ISRLU
、SQNL
、PLU
、APL
、Inverse Cubic
、Soft Exponential
、ParametricLinear
、Piecewise Linear Unit
、CLL
、SquaredReLU
、ModReLU
、CosReLU
、SinReLU
、Probit
、Smish
、Multiquadratic
、InvMultiquadratic
、PSmish
、ESwish
、CoLU
、ShiftedSoftPlus
、Logit
、Softsign
、ELiSH
、Hard ELiSH
)。在这篇文章中,会接着上文提到的众多激活函数继续进行介绍,给大家带来更多不常见的激活函数的介绍。这里放一张激活函数的机理图:
2 激活函数
2.1 Serf激活函数
论文链接:Nag, Sayan, and Mayukh Bhattacharyya. “SERF: Towards better training of deep neural networks using log-Softplus ERror activation Function.” arXiv preprint arXiv:2108.09598 (2021).
Serf (或称 Log-Softplus ERror)激活函数是一种属于 Swish
家族的激活函数,具有自正则化
和非单调性
的特点。其数学表达式和数学图像分别如下所示:
f
(
x
)
=
x
e
r
f
(
l
n
(
1
+
e
x
)
)
f(x)=x erf(ln(1+e^x))
f(x)=xerf(ln(1+ex))
其中,erf
表示误差函数。
特点:
- 无上界:避免
饱和
问题 - 有下界:以便提供强的
正则化
效果 - 可微性:避免了基于梯度的优化过程中的
奇点
和任何伴随
的不良影响 - 预调节器:使得梯度更
平滑
且优化更快
,如下公式所示,我们可以将Serf的一阶导数
表示为swish的函数,p(x)
是一个预调节器
,可以使得梯度更加平滑
f ′ ( x ) = 2 π e − l n ( ( 1 + e x ) ) 2 x σ ( x ) + f ( x ) x = p ( x ) s w i s h ( x ) + f ( x ) x f'(x)=\frac{2}{\sqrt{\pi}}e^{-ln((1+e^x))^2}x \sigma (x) + \frac{f(x)}{x} \\ =p(x)swish(x)+ \frac{f(x)}{x} f′(x)=π2e−ln((1+ex))2xσ(x)+xf(x)=p(x)swish(x)+xf(x) - 平滑性:平滑的损失曲线表明更容易的
优化
并具有较少
的局部最优
。因此更好的泛化
,最小化初始化和学习率的影响
作为Swish
家族的一员,Serf 具有极其优异的性质,在各个领域
都有所应用,但是应用不多。有需要的人可以进行尝试。。。
2.2 FReLU激活函数
论文链接:Qiu, Suo, Xiangmin Xu, and Bolun Cai. “FReLU: flexible rectified linear units for improving convolutional neural networks.” In 2018 24th international conference on pattern recognition (icpr), pp. 1223-1228. IEEE, 2018.
FReLU (Flexible Rectified Linear Units,灵活的整流线性单元)是一种为了捕获负信息
并提供 zero-like
属性的激活函数。其数学表达式和数学图像分别如下所示:
F
R
e
L
U
(
x
)
=
{
x
+
b
,
if
x
>
0
b
,
if
x
≤
0
FReLU(x) = \begin{cases} x+b, & \text{if } x > 0 \\ b, & \text{if } x \leq 0 \\ \end{cases}
FReLU(x)={x+b,b,if x>0if x≤0
特点:
- 收敛速度快,性能更高;
- 计算成本低,无指数运算;
- 与批量归一化兼容;
- 弱假设和自适应
该激活函数较为简单,但是也因其简单的性质无法捕获复杂数据中的信息
。现在很少使用。。。。
3. 总结
到此,使用 激活函数总结(三十二) 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。如果存在没有提及的激活函数
也可以在评论区提出,后续会对其进行添加!!!!
如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦😄。