一:spline概念介绍
在数学学科数值分析中,样条(spline)是一种特殊的函数,由多项式分段定义。样条的英语单词spline来源于可变形的样条工具,那是一种在造船和工程制图时用来画出光滑形状的工具
样条有两个特点:
一段样条是弹性形变产生的“光滑的”曲线
样条的首位可以用角尺控制,因此可以拼接多段样条
这两个特点翻译成数学语言,可以如下描述:
样条曲线的各阶导数连续:一方面使样条有光滑特性,一方面提供了参数之间的等式关系
样条曲线便于构造:在追加始末状态等约束后,如果等式数量达到了参数数量,就可以确定一条唯一的曲线,如果小于,就可以构造优化问题
以上两个特点让我们可以用样条构造出理想形状的曲线。
在数值分析中,样条曲线可以实现点之间的差值;
在计算机图形学中,样条曲线可以用作构建光滑的曲线,比如很多软件的曲线作图功能;
在机器人学或者自动驾驶中,样条曲线可以用作参考线生成和路径规划。
1.1 数学描述
样条曲线的本质是满足一定约束的分段多项式。
设【a.b】为 R上的区间,给定k+1个点 ti,称为节点(knot),可以将【a.b】分为k段。要求满足以下条件:a = t0 < t1 < t2 < …… < tk-1< tk = b
定义:S:[a,b]->R为参数曲线,如果满足以下2个条件
S(ti)称为节点值而 (ti, s(ti))称为内部控制点(internal control point)。
(t0,t1,……, tk)称为节点向量(knot vector)。如果节点等距分布在区间 上,我们称样条均匀(uniform),否则为非均匀(non-uniform)。
样条曲线是分段多项式曲线,因此也是参数化曲线。常用的样条类型包括:
三次样条(Cubic Spline)
四次样条(Quatric Spline)
五次样条(Quintic Spline)
n次多项式曲线的数学表达式如下所示:
式中包含了n+1个参数[a0,a1, ……,an] 。k段样条曲线是k段分段多项式,因此包含 kn+k个参数。
由式(3)中 k-1个分段点的n-1阶连续性,可以得到 nk-n个方程;从起始状态以及曲线n-1阶导数的初始值,可以得到 n 个方程。
1.2 MLP与Spline的优缺点
多层感知器 (MLP)是深度学习的基础理论模块,是目前可用于逼近非线性函数的默认模型,其表征能力已由通用逼近定理证明。但MLP也有明显的缺点,例如在 Transformer中,MLP 的参数量巨大,且通常不具备可解释性。
为了提升表征能力,MIT提出了KAN。KAN本质上是样条(Spline)曲线和 MLP 的组合,吸收了两者的优点。即
KAN = MLP + Spline
在数学中,样条曲线是由多项式分段定义的函数。一般的Spline可以是特定区间的3阶多项式。在插值问题中,样条插值通常优于多项式插值,因为即使使用低次多项式,也能产生类似的精度结果,同时避免了高次多项式的Runge’s phenomenon(在一组等距插值点上使用高次多项式进行多项式插值时出现的区间边缘振荡问题)。
1.3 Kolmogorov-Arnold表示定理
Kolmogorov-Arnold表示定理是由苏联数学家安德烈·科尔莫戈洛夫和大卫·希尔伯特提出的,用于探讨多元函数可以如何被一组更简单的函数表示。 该定理最初由科尔莫戈洛夫提出,并在1957年由他的学生弗拉基米尔·阿诺尔德进一步发展。这个定理是数学和理论计算机科学中的一个基本问题,部分解答了希尔伯特著名的23个问题中的第13个问题的一个更受约束但更一般的形式。
Vladimir Arnold与 Andrey Kolmogorov证明了实分析中的如下表示定理:
如果f是多元连续函数,则f可以写成有限数量的单变量连续函数的两层嵌套叠加。其数学表达式就是
定义域(多变量连续函数):函数 f 的定义域是一个n维的闭区间[0, 1]的笛卡尔积,值域是实数集合R。简单来讲,函数 f 接受一个n维向量作为输入,并将其映射到实数集合R中的一个数。每个维度的取值范围都是[0, 1],所以输入向量的每个分量都是在[0, 1]内取值的。
函数表示(两层嵌套函数):Φq 是外部函数(outer functions),Φq,p 是内部函数(inner functions)。对于内部函数,定义域是闭区间[0, 1],值域是实数集合R;对于外部函数,定义域是实数集合R,值域也是实数集合R。
完整表示(完整函数表示):直观看到函数 f,由两个嵌套的求和函数构成;外部函数Φq的参数是n个内部函数Φq,p的和!;整体来看 函数 f 是 (2n+1)个外部函数Φq的和。
Kolmogorov-Arnold表示定理的主要内容是:对于任何定义在闭区间上的连续函数,存在一系列的一维连续函数,使得该多变量函数可以表示为这些一维函数的有限组合。 这意味着,任何复杂的多元函数都可以通过一系列简单的一维函数来表示,这为理解和近似复杂函数提供了新的数学结构。
这表明在实数域上,唯一真正的多元函数是求和,因为所有其他函数都可以使用单变量函数求和来表征。
换个形象的说法,就是你家里做个复杂的事(包含多个任务),你爸你妈和你可以分别干活然后汇总,并不需要三个人同时忙一个任务。
顺带八卦下,Vladimir 是位前苏联神童, Andrey则是他的导师。
二:KAN
2.1 MLP与KAN对比
与传统的MLP 相比,KAN 有4个主要特点:
1)激活函数位于“边”而不是节点(Node)上;
2)激活函数是可学习的而不是固定的;
3)可以使用非线性核函数来替代MLP“边”(Edge)上的线性函数;
4)可以设定细粒度的结点(Knot)来提高逼近精度。
就我们来看,由于可以设置单独的激活层来替代“边”上激活的结构(相当于每个“边”上插入一个节点),因此特点1并非KAN的核心特征。特点4在实际使用时需要做大量的查表插值,对存储带宽的要求非常高,可能并不一定适合常规的AI芯片进行计算,估计在未来也不是KAN的核心特征。
2.2 KAN架构
KAN的架构设计来自一个数学问题:对一个由输入输出对 {xi, yi} 组成的有监督学习任务,寻找函数f 使得所有数据点的 yi≈ f (xi)。其核心在于找到合适的单变量函数 Φq,p(外部函数)和 Φq(内部函数)。
在KAN中,使用B-spline(B样条)来构建。B-spline是基础样条(Basic Spline)的缩写。
对于B-spline,函数在其定义域内、在结点(Knot)都具有相同的连续性。其多项式表达可由Cox-de Boor 递推公式表达:
例如KA定理的内部函数可以定义为带有参数的矩阵计算。矩阵中的每个元素事实上是一个函数或算子。
那么根据KA定理,理论上只要2个KAN层就可以充分表征实数域的各类有监督学习任务。2层的KAN中,激活函数放置在边缘而不是节点上(在节点上进行简单求和),并且2层中间有2n+1个变量。当然为了保证数值逼近的精度,实际设计中可以构建2层以上或者任意层数的KAN。
其中KAN层可以定义为
更为一般的的KAN表征形式是:
最简的KAN可以写为:
由于B-spline函数具备很好的可导性,因此在这里可以使用大家习惯的反向传播(BP)方法来进行KAN的训练。
2.3 KAN细节优化
1)残差激活函数
使用一个基础(basis)函数 b(x)(类似于残差连接),使激活函数 Φ (x) 是基础函数 b(x) 和样条函数的和。
2)初始化方式
每个激活函数都被初始化为 spline(x) ≈ 0^2。而w根据MLP 中的线性层的初始化方式进行。
3)Spline网格的更新
据输入激活动态更新每个网格,以解决Spline在有界区域上定义但激活值在训练期间可能超出出固定区域的问题。
2.4 KAN的逼近与神经缩放
关于KAN缩放的基本观点浓缩为以下2点:
1)2层的KAN表征可能是非平滑的,更深的KAN表征可以获得更平滑的逼近。
2)有限维度的KAN就可以很好的逼近样本函数。
下面我们来看看缩放定律:
神经缩放定律是测试损失(Loss)随着模型参数的增加而减小的现象,即 ℓ ∝ N_−α_,其中 ℓ 是测试 RMSE(均方根差),N 是参数数量,α 是缩放指数。也就是说,参数量越大,误差越小(精度越高)。
由于数据域的网格可以以任意的刻度进行细粒度化。因此B-spline曲线可以任意精确的达到(逼近)目标函数,而且这一优势被KAN继承了。
相比之下,MLP 没有“细粒度”的概念。(MLP一般不按数据分区进行训练)
对于 KAN,可以先训练一个参数较少的 KAN,然后通过使Spline网格粒度更细,使其扩展到参数较多的 KAN,这一方式降低了复杂度。
当然这一点可能也有一些问题,因为实际的AI芯片中并未对粒度计算提供太多的设计,激活函数个数越多,区间越细事实上会造成更大的存储带宽瓶颈。
2.5 KAN的可解释性
在解释之前,先通过稀疏正则化对KAN进行训练,然后剪枝。剪枝后的 KAN更容易解释。
MIT团队给出了解释KAN的基本流程:
KAN的解释流程
1)稀疏化(Sparsification)(预处理)
对于KAN来说,
a) 线性权重被可学习的激活函数取代,因此需定义这些激活函数的 L1 范数,激活函数的 L1 范数定义为其 Np个输入的平均幅度;
b) 单独 L1范数 不足以实现 KAN 的稀疏化;还需要额外的熵正则化。
2)可视化(Visualization)
将激活函数 Φl,i,j的透明度设置为与 tanh(βAl,i,j) 成正比,其中 β = 3 。小幅度的函数被忽略以聚焦重要函数。
3)剪枝(Pruning)
经过稀疏化惩罚训练后,一般还需要将网络修剪成更小的子网。在节点级别对 KAN 进行稀疏化,所有不重要的神经元都被修剪。
4)符号化(Symbolification)
如果猜测某些激活函数实际上是符号函数(例如 cos 或 log),则提供一个接口将其设置为指定的符号形式,例如fix_symbolic(l,i,j,f) 可以设置 (l , i, j) 激活为 f 。从样本中获得预激活(Preactivation) x 和后激活(Postactivation) y,并拟合仿射参数 (a, b, c, d),使得 y ≈ cf (ax + b) + d。这里的拟合可通过 a、b 的迭代搜索和线性回归来完成。