KAN卷积:将非线性激活函数引入卷积层的创新架构

原文标题:替代MLP的KAN,被开源项目扩展到卷积了

原文作者:机器之心

冷月清谈:

- KAN 卷积是一种新的卷积神经网络架构,它不是在内核和图像中相应像素之间应用点积,而是对每个元素应用可学习的非线性激活函数,然后将它们相加。 - 与传统卷积相比,KAN 卷积具有更高的参数效率,但需要更多的参数来实现更多的 KAN 卷积层。 - 在初步实验中,KAN 卷积在 MNIST 数据集上达到了可接受的准确度,但其参数数量是标准 ConvNet 的 7 倍。 - 研究人员认为,随着模型和数据集复杂度的增加,KAN 卷积网络的性能应该会有所提高,尤其是在参数数量受到限制的情况下。

怜星夜思:

1、KAN卷积的优势和劣势是什么?
2、KAN卷积在哪些应用场景中可能具有潜力?
3、除了在卷积神经网络中,KAN 架构还有哪些潜在应用?

原文内容

机器之心报道

机器之心编辑部


本月初,来自 MIT 等机构的研究者提出了一种非常有潜力的 MLP 替代方法 ——KAN。


KAN 在准确性和可解释性方面表现优于 MLP,而且它能以非常少的参数量胜过以更大参数量运行的 MLP。比如,作者表示,他们用 KAN 以更小的网络和更高的自动化程度重现了 DeepMind 的结果。具体来说,DeepMind 的 MLP 有大约 300000 个参数,而 KAN 只有大约 200 个参数。


KAN 与 MLP 一样具有强大的数学基础,MLP 基于通用逼近定理,而 KAN 基于 Kolmogorov-Arnold 表示定理。


如下图所示,KAN 在边上具有激活函数,而 MLP 在节点上具有激活函数。KAN 似乎比 MLP 的参数效率更高,但每个 KAN 层比 MLP 层拥有更多的参数。



最近,有研究者将 KAN 创新架构的理念扩展到卷积神经网络,将卷积的经典线性变换更改为每个像素中可学习的非线性激活函数,提出并开源 KAN 卷积(CKAN)。


项目地址:https://github.com/AntonioTepsich/Convolutional-KANs



KAN 卷积


KAN 卷积与卷积非常相似,但不是在内核和图像中相应像素之间应用点积,而是对每个元素应用可学习的非线性激活函数,然后将它们相加。KAN 卷积的内核相当于 4 个输入和 1 个输出神经元的 KAN 线性层。对于每个输入 i,应用 ϕ_i 可学习函数,该卷积步骤的结果像素是 ϕ_i (x_i) 的总和。



KAN 卷积中的参数


假设有一个 KxK 内核,对于该矩阵的每个元素,都有一个 ϕ,其参数计数为:gridsize + 1,ϕ 定义为:


图片


这为激活函数 b 提供了更多的可表达性,线性层的参数计数为 gridsize + 2。因此,KAN 卷积总共有 K^2(gridsize + 2) 个参数,而普通卷积只有 K^2。


初步评估


作者测试过的不同架构有:


  • 连接到 KAN 线性层的 KAN 卷积层(KKAN)

  • 与 MLP 相连的 KAN 卷积层(CKAN)

  • 在卷积之间进行批量归一化的 CKAN (CKAN_BN)

  • ConvNet(连接到 MLP 的经典卷积)(ConvNet)

  • 简单 MLP



作者表示,KAN 卷积的实现是一个很有前景的想法,尽管它仍处于早期阶段。他们进行了一些初步实验,以评估 KAN 卷积的性能。


值得注意的是,之所以公布这些「初步」结果,是因为他们希望尽快向外界介绍这一想法,推动社区更广泛的研究。


卷积层中列表每个元素都包含卷积数和相应的内核大小。


基于 28x28 MNIST 数据集,可以观察到 KANConv & MLP 模型与 ConvNet(大)相比达到了可接受的准确度。然而,不同之处在于 KANConv & MLP 所需的参数数量是标准 ConvNet 所需的参数数量的 7 倍。此外,KKAN 的准确率比 ConvNet Medium 低 0.04,而参数数量(94k 对 157k)几乎只有 ConvNet Medium 的一半,这显示了该架构的潜力。我们还需要在更多的数据集上进行实验,才能对此得出结论。


在接下来的几天和几周里,作者还将彻底调整模型和用于比较的模型的超参数。虽然已经尝试了一些超参数和架构的变化,但这只是启发式的,并没有采用任何精确的方法。由于计算能力和时间的原因,他们还没有使用大型或更复杂的数据集,并正在努力解决这个问题。


未来,作者将在更复杂的数据集上进行实验,这意味着 KANS 的参数量将会增加,因为需要实现更多的 KAN 卷积层。


结论


目前,与传统卷积网络相比,作者表示并没有看到 KAN 卷积网络的性能有显著提高。他们分析认为,这是由于使用的是简单数据集和模型,与尝试过的最佳架构(ConvNet Big,基于规模因素,这种比较是不公平的)相比,该架构的优势在于它对参数的要求要少得多。


在 2 个相同的卷积层和 KAN 卷积层与最后连接的相同 MLP 之间进行的比较显示,经典方法略胜一筹,准确率提高了 0.06,而 KAN 卷积层和 KAN 线性层的参数数量几乎只有经典方法的一半,准确率却降低了 0.04。


作者表示,随着模型和数据集复杂度的增加,KAN 卷积网络的性能应该会有所提高。同时,随着输入维数的增加,模型的参数数量也会增长得更快。





© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

KAN 架构还可以应用于其他领域,例如:

  • 金融预测:KAN 可以用于构建金融预测模型,因为它可以学习金融数据的复杂动态。
  • 医疗诊断:KAN 可以用于构建医疗诊断模型,因为它可以学习复杂生物医学数据模式。

KAN 卷积的优势在于它的参数效率,它比传统的卷积神经网络需要更少的参数来达到相似的性能。此外,KAN 卷积具有更强大的数学基础,基于 Kolmogorov-Arnold 表示定理,这表明它具有较强的理论基础。
然而,KAN 卷积也有一些劣势。首先,它需要更多的参数来实现更多的 KAN 卷积层,这可能会限制其在复杂模型中的使用。其次,目前的实验结果表明,KAN 卷积在性能上还没有显著提高,需要在更复杂的数据集和模型上进行进一步的实验。

KAN 卷积在以下应用场景中可能具有潜力:

  • 资源受限的设备,例如移动设备和嵌入式系统,因为它的参数效率更高。
  • 需要解释性的模型,因为它的数学基础使得它更容易理解和解释。
  • 对噪声或失真鲁棒性要求高的应用,因为它的非线性激活函数可以帮助抑制噪声和失真。

KAN架构在自然语言处理领域也具有潜在的应用,例如:

  • 机器翻译:KAN可以用于构建机器翻译模型,因为它可以学习不同语言之间的复杂映射。
  • 文本摘要:KAN可以用于构建文本摘要模型,因为它可以学习从长文本中提取重要信息。
  • 情感分析:KAN可以用于构建情感分析模型,因为它可以学习文本中表达的情感。

KAN卷积在以下应用场景中可能具有潜力:

  • 图像分类:由于其参数效率,KAN卷积可以用于构建轻量级且高效的图像分类模型。
  • 自然语言处理:KAN卷积可以用于处理序列数据,例如文本和语音,因为它可以捕获序列中的非线性模式。
  • 采样和生成:KAN卷积可以用于生成逼真的图像、音频和其他类型的数据,因为它可以学习复杂的数据分布。

优势:

  • 参数效率更高,在参数数量有限的情况下可以达到较好的性能。
  • 具有强大的数学基础,基于 Kolmogorov-Arnold 表示定理。
    劣势:
  • 在需要实现更多 KAN 卷积层的复杂模型中,参数数量会增长得更快。
  • 目前在性能上还没有显著提高,可能需要在更复杂的数据集和模型上进行进一步的实验。

除了在卷积神经网络中,KAN 架构还有以下潜在应用:

  • 循环神经网络:KAN 可以用于构建循环神经网络,因为它可以学习序列数据中的长期依赖关系。
  • 生成对抗网络:KAN 可以用于构建生成对抗网络,因为它可以生成逼真的数据。
  • 强化学习:KAN 可以用于构建强化学习算法,因为它可以学习复杂的环境模型。

KAN 卷积在图像处理和计算机视觉领域可能具有潜力,例如:

  • 图像增强:KAN 卷积可以用于增强图像,例如去噪、锐化和对比度调整。
  • 目标检测:KAN 卷积可以用于检测图像中的对象,因为它可以学习复杂的空间模式。
  • 图像分割:KAN 卷积可以用于分割图像中的对象,因为它可以学习像素之间的非线性关系。

KAN卷积是一种很有前途的新型卷积神经网络架构,但它也有一些需要解决的缺点。一个缺点是它需要更多的参数来实现更多的KAN卷积层,这可能会限制它在复杂模型中的使用。另一个缺点是,目前的实验结果表明KAN卷积在性能上还没有显著提高,需要在更复杂的数据集和模型上进行进一步的实验。