激活函数总结(三十四):激活函数补充
- 1 引言
- 2 激活函数
- 2.1 FReLU激活函数
- 2.2 CReLU激活函数
- 3. 总结
1 引言
在前面的文章中已经介绍了介绍了一系列激活函数 (Sigmoid
、Tanh
、ReLU
、Leaky ReLU
、PReLU
、Swish
、ELU
、SELU
、GELU
、Softmax
、Softplus
、Mish
、Maxout
、HardSigmoid
、HardTanh
、Hardswish
、HardShrink
、SoftShrink
、TanhShrink
、RReLU
、CELU
、ReLU6
、GLU
、SwiGLU
、GTU
、Bilinear
、ReGLU
、GEGLU
、Softmin
、Softmax2d
、Logsoftmax
、Identity
、LogSigmoid
、Bent Identity
、Absolute
、Bipolar
、Bipolar Sigmoid
、Sinusoid
、Cosine
、Arcsinh
、Arccosh
、Arctanh
、LeCun Tanh
、TanhExp
、Gaussian
、GCU
、ASU
、SQU
、NCU
、DSU
、SSU
、SReLU
、BReLU
、PELU
、Phish
、RBF
、SQ-RBF
、ISRU
、ISRLU
、SQNL
、PLU
、APL
、Inverse Cubic
、Soft Exponential
、ParametricLinear
、Piecewise Linear Unit
、CLL
、SquaredReLU
、ModReLU
、CosReLU
、SinReLU
、Probit
、Smish
、Multiquadratic
、InvMultiquadratic
、PSmish
、ESwish
、CoLU
、ShiftedSoftPlus
、Logit
、Softsign
、ELiSH
、Hard ELiSH
、Serf
、FReLU
、QReLU
、m-QReLU
)。在这篇文章中,会接着上文提到的众多激活函数继续进行介绍,给大家带来更多不常见的激活函数的介绍。这里放一张激活函数的机理图:
2 激活函数
2.1 FReLU激活函数
论文链接:Funnel Activation for Visual Recognition
FReLU(Funnel activation)是一种概念简单
但有效
的漏斗激活函数。它通过添加可忽略不计的空间条件开销
将ReLU和PReLU扩展到2D激活。其数学表达式和数学图像分别如下所示:
F
R
e
L
U
=
m
a
x
(
x
,
T
(
x
)
)
FReLU = max(x,T(x))
FReLU=max(x,T(x))
其中,
T
(
x
)
T(x)
T(x) 是 2D 空间条件,代表简单高效的空间上下文特征
提取器。
FReLU是专门为视觉任务
而设计的,概念上很简单:ReLU的条件是一个手工设计的零值,PReLU的条件是一个参数化的px,对此FReLU将其修改为一个依赖于空间上下文
的二维漏斗状条件
,视觉条件有助于提取物体的精细空间布局。
特点:
- 漏斗条件funnel condition:FReLU函数采用与简单非线性函数相同的max(·)。对于
条件部分
,FReLU将其扩展为二维条件
,具体取决于每个像素的空间上下文
。这与其他最近的方法不同,其他方法的条件通常取决于像素本身
或通道上下文
。然后,使用max(·)获得x和条件之间的最大值。作者将funnel condition
定义为T(x)。为了实现空间条件spatial condition
,使用参数化池窗口
(Parametric Pooling Window)来创建空间依赖性
(使用高度优化的深度可分离卷积算符和BN层来实现) - 像素化建模能力:
funnel条件
的定义使得网络可以在每个像素的非线性激活
中产生空间条件
。该网络同时进行非线性变换
并产生空间依赖性
,而通常的做法是在卷积层
创建空间依赖性
,并分别进行非线性变换
。在通常做法
下,激活过程不明确地依赖
于空间条件
;而在funnel条件
的情况下,它们依赖
于空间条件。因此,pixel-wise condition
使得网络具有像素化的建模能力,函数max(·)
给每个像素提供了一个看空间背景
或不看空间背景
的选择。
在图像方面具有极好
的效果,在图像方面广泛
使用。甚至,当前较多的Yolo系列
的更新算法都使用的是该激活函数。。。
2.2 CReLU激活函数
论文链接:Understanding and Improving Convolutional Neural Networks via Concatenated Rectified Linear Units
CReLU(Concatenated Rectified Linear Units)是Shang et al.
在2016年提出的一种激活函数,可保留正相位
和负相位
信息,同时强制执行非饱和非线性
。其数学表达式和数学图像分别如下所示:
C
R
e
L
U
(
x
)
=
[
ReLU
(
x
)
,
ReLU
(
−
x
)
]
CReLU(x) = \left[\text{ReLU}\left(x\right), \text{ReLU}\left(-x\right)\right]
CReLU(x)=[ReLU(x),ReLU(−x)]
特点:
- 减少CNN中的冗余:CNN 中
底层
的卷积层的一些滤波器之间存在着负相关
, 也就是说滤波器存在冗余。为了减少这种冗余,提出了使用CReLU激活函数。
CReLU激活函数在PVANET
中有所应用,别的地方几乎没有出现。。。。
3. 总结
到此,使用 激活函数总结(三十四) 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。如果存在没有提及的激活函数
也可以在评论区提出,后续会对其进行添加!!!!
如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦😄。