加州理工大学数学系

编辑:桃子 LRS

【新智元导读】无需怀念MLP,新网络KAN基于柯尔莫哥洛夫-阿诺德定理,带着更少的参数、更强的性能、更好的可解释性来了,深度学习架构革新进入新时代!

一夜之间,机器学习范式要变天了!

当今,统治深度学习领域的基础架构便是,多层感知器(MLP)——将激活函数放置在神经元上。

那么,除此之外,我们是否还有新的路线可走?

就在今天,来自MIT、加州理工、东北大学等机构的团队重磅发布了,全新的神经网络结构——Kolmogorov–Arnold Networks(KAN)。

研究人员对MLP做了一个简单的改变,即将可学习的激活函数从节点(神经元)移到边(权重)上!

论文地址:https://arxiv.org/pdf/2404.19756

这个改变乍一听似乎毫无根据,但它与数学中的「逼近理论」(approximation theories)有着相当深刻的联系。

事实证明,Kolmogorov-Arnold表示对应两层网络,在边上,而非节点上,有可学习的激活函数。

正是从表示定理得到启发,研究人员用神经网络显式地,将Kolmogorov-Arnold表示参数化。

值得一提的是,KAN名字的由来,是为了纪念两位伟大的已故数学家Andrey Kolmogorov和Vladimir Arnold。

实验结果显示,KAN比传统的MLP有更加优越的性能,提升了神经网络的准确性和可解释性。

而最令人意想不到的是,KAN的可视化和交互性,让其在科学研究中具有潜在的应用价值,能够帮助科学家发现新的数学和物理规律。

研究中,作者用KAN重新发现了纽结理论(knot theory)中的数学定律!

而且,KAN以更小的网络和自动化方式,复现了DeepMind在2021年的结果。

在物理方面,KAN可以帮助物理学家研究Anderson局域化(这是凝聚态物理中的一种相变)。

对了,顺便提一句,研究中KAN的所有示例(除了参数扫描),在单个CPU上不到10分钟就可以复现。

KAN的横空出世,直接挑战了一直以来统治机器学习领域的MLP架构,在全网掀起轩然大波。

机器学习新纪元开启

有人直呼,机器学习的新纪元开始了!

谷歌DeepMind研究科学家称,「Kolmogorov-Arnold再次出击!一个鲜为人知的事实是:这个定理出现在一篇关于置换不变神经网络(深度集)的开创性论文中,展示了这种表示与集合/GNN聚合器构建方式(作为特例)之间的复杂联系」。

一个全新的神经网络架构诞生了!KAN将极大地改变人工智能的训练和微调方式。

难道是AI进入了2.0时代?

还有网友用通俗的语言,将KAN和MLP的区别,做了一个形象的比喻:

Kolmogorov-Arnold网络(KAN)就像一个可以烤任何蛋糕的三层蛋糕配方,而多层感知器(MLP)是一个有不同层数的定制蛋糕。MLP更复杂但更通用,而KAN是静态的,但针对一项任务更简单、更快速。

论文作者,MIT教授Max Tegmark表示,最新论文表明,一种与标准神经网络完全不同的架构,在处理有趣的物理和数学问题时,以更少的参数实现了更高的精度。

接下来,一起来看看代表深度学习未来的KAN,是如何实现的?

重回牌桌上的KAN

KAN的理论基础

柯尔莫哥洛夫-阿诺德定理(Kolmogorov–Arnold representation theorem)指出,如果f是一个定义在有界域上的多变量连续函数,那么该函数就可以表示为多个单变量、加法连续函数的有限组合。

对于机器学习来说,该问题可以描述为:学习高维函数的过程可以简化成学习多项式数量的一维函数。

但这些一维函数可能是非光滑的,甚至是分形的(fractal),在实践中可能无法学习,也正是由于这种「病态行为」,柯尔莫哥洛夫-阿诺德表示定理在机器学习领域基本上被判了「死刑」,即理论正确,但实际无用。

在这篇文章中,研究人员仍然对该定理在机器学习领域的应用持乐观态度,并提出了两点改进:

1、原始方程中,只有两层非线性和一个隐藏层(2n+1),可以将网络泛化到任意宽度和深度;

2、科学和日常生活中的大多数函数大多是光滑的,并且具有稀疏的组合结构,可能有助于形成平滑的柯尔莫哥洛夫-阿诺德表示。类似于物理学家和数学家的区别,物理学家更关注典型场景,而数学家更关心最坏情况。

KAN架构

柯尔莫哥洛夫-阿诺德网络(KAN)设计的核心思想是将多变量函数的逼近问题转化为学习一组单变量函数的问题。在这个框架下,每个单变量函数可以用B样条曲线来参数化,其中B样条是一种局部的、分段的多项式曲线,其系数是可学习的。

为了把原始定理中的两层网络扩展到更深、更宽,研究人员提出了一个更「泛化」的定理版本来支持设计KAN:

受MLPs层叠结构来提升网络深度的启发,文中同样引入了一个类似的概念,KAN层,由一个一维函数矩阵组成,每个函数都有可训练的参数。

根据柯尔莫哥洛夫-阿诺德定理,原始的KAN层由内部函数和外部函数组成,分别对应于不同的输入和输出维度,这种堆叠KAN层的设计方法不仅扩展了KANs的深度,而且保持了网络的可解释性和表达能力,其中每个层都是由单变量函数组成的,可以对函数进行单独学习和理解。

下式中的f就等价于KAN

实现细节

虽然KAN的设计理念看起来简单,纯靠堆叠,但优化起来也并不容易,研究人员在训练过程中也摸索到了一些技巧。

1、残差激活函数:通过引入基函数b(x)和样条函数的组合,使用残差连接的概念来构建激活函数ϕ(x),有助于训练过程的稳定性。

2、初始化尺度(scales):激活函数的初始化设置为接近零的样条函数,权重w使用Xavier初始化方法,有助于在训练初期保持梯度的稳定。

3、更新样条网格:由于样条函数定义在有界区间内,而神经网络训练过程中激活值可能会超出这个区间,因此动态更新样条网格可以确保样条函数始终在合适的区间内运行。

参数量

1、网络深度:L

2、每层的宽度:N

3、每个样条函数是基于G个区间(G+1个网格点)定义的,k阶(通常k=3)

所以KANs的参数量约为

作为对比,MLP的参数量为O(L*N^2),看起来比KAN效率更高,但KANs可以使用更小的层宽度(N),不仅可以提升泛化性能,还能提升可解释性。

KAN比MLP,胜在了哪?

性能更强

作为合理性检验,研究人员构造了五个已知具有平滑KA(柯尔莫哥洛夫-阿诺德)表示的例子作为验证数据集,通过每200步增加网格点的方式对KANs进行训练,覆盖G的范围为{3,5,10,20,50,100,200,500,1000}

使用不同深度和宽度的MLPs作为基线模型,并且KANs和MLPs都使用LBFGS算法总共训练1800步,再用RMSE作为指标进行对比。

从结果中可以看到,KAN的曲线更抖,能够快速收敛,达到平稳状态;并且比MLP的缩放曲线更好,尤其是在高维的情况下。

还可以看到,三层KAN的性能要远远强于两层,表明更深的KANs具有更强的表达能力,符合预期。

交互解释KAN

研究人员设计了一个简单的回归实验,以展现用户可以在与KAN的交互过程中,获得可解释性最强的结果。

假设用户对于找出符号公式感兴趣,总共需要经过5个交互步骤。

步骤 1:带有稀疏化的训练。

从全连接的KAN开始,通过带有稀疏化正则化的训练可以使网络变得更稀疏,从而可以发现隐藏层中,5个神经元中的4个都看起来没什么作用。

步骤 2:剪枝

自动剪枝后,丢弃掉所有无用的隐藏神经元,只留下一个KAN,把激活函数匹配到已知的符号函数上。

步骤 3:设置符号函数

假设用户可以正确地从盯着KAN图表猜测出这些符号公式,就可以直接设置

如果用户没有领域知识或不知道这些激活函数可能是哪些符号函数,研究人员提供了一个函数suggest_symbolic来建议符号候选项。

步骤 4:进一步训练

在网络中所有的激活函数都符号化之后,唯一剩下的参数就是仿射参数;继续训练仿射参数,当看到损失降到机器精度(machine precision)时,就能意识到模型已经找到了正确的符号表达式。

步骤 5:输出符号公式

使用Sympy计算输出节点的符号公式,验证正确答案。

可解释性验证

研究人员首先在一个有监督的玩具数据集中,设计了六个样本,展现KAN网络在符号公式下的组合结构能力。

可以看到,KAN成功学习到了正确的单变量函数,并通过可视化的方式,可解释地展现出KAN的思考过程。

在无监督的设置下,数据集中只包含输入特征x,通过设计某些变量(x1, x2, x3)之间的联系,可以测试出KAN模型寻找变量之间依赖关系的能力。

从结果来看,KAN模型成功找到了变量之间的函数依赖性,但作者也指出,目前仍然只是在合成数据上进行实验,还需要一种更系统、更可控的方法来发现完整的关系。

帕累托最优

通过拟合特殊函数,作者展示了KAN和MLP在由模型参数数量和RMSE损失跨越的平面中的帕累托前沿(Pareto Frontier)。

在所有特殊函数中,KAN始终比MLP具有更好的帕累托前沿。

求解偏微方程

在求解偏微方程任务中, 研究人员绘制了预测解和真实解之间的L2平方和H1平方损失。

下图中,前两个是损失的训练动态,第三和第四是损失函数数量的扩展定律(Sacling Law)。

如下结果所示,与MLP相比,KAN的收敛速度更快,损失更低,并且具有更陡峭的扩展定律。

持续学习,不会发生灾难性遗忘

我们都知道,灾难性遗忘是机器学习中,一个严重的问题。

人工神经网络和大脑之间的区别在于,大脑具有放置在空间局部功能的不同模块。当学习新任务时,结构重组仅发生在负责相关技能的局部区域,而其他区域保持不变。

然而,大多数人工神经网络,包括MLP,却没有这种局部性概念,这可能是灾难性遗忘的原因。

而研究证明了,KAN具有局部可塑性,并且可以利用样条(splines)局部性,来避免灾难性遗忘。

这个想法非常简单,由于样条是局部的,样本只会影响一些附近的样条系数,而远处的系数保持不变。

相比之下,由于MLP通常使用全局激活(如ReLU/Tanh/SiLU),因此,任何局部变化都可能不受控制地传播到远处的区域,从而破坏存储在那里的信息。

研究人员采用了一维回归任务(由5个高斯峰组成)。每个峰值周围的数据按顺序(而不是一次全部)呈现给KAN和MLP。

结果如下图所示,KAN仅重构当前阶段存在数据的区域,而使之前的区域保持不变。

而MLP在看到新的数据样本后会重塑整个区域,从而导致灾难性的遗忘。

发现纽结理论,结果超越DeepMind

KAN的诞生对于机器学习未来应用,意味着什么?

纽结理论(Knot theory)是低维拓扑学中的一门学科,它揭示了三流形和四流形的拓扑学问题,并在生物学和拓扑量子计算等领域有着广泛的应用。

2021年,DeepMind团队曾首次用AI证明了纽结理论(knot theory)登上了Nature。

论文地址:https://www.nature.com/articles/s41586-021-04086-x

这项研究中,通过监督学习和人类领域专家,得出了一个与代数和几何结不变量相关的新定理。

即梯度显著性识别出了监督问题的关键不变量,这使得领域专家提出了一个猜想,该猜想随后得到了完善和证明。

对此,作者研究KAN是否可以在同一问题上取得良好的可解释结果,从而预测纽结的签名。

在DeepMind实验中,他们研究纽结理论数据集的主要结果是:

1 利用网络归因法发现,签名

主要取决于中间距离

和纵向距离λ。

2 人类领域专家后来发现

与斜率有很高的相关性

并得出

为了研究问题(1),作者将17个纽结不变量视为输入,将签名视为输出。

与DeepMind中的设置类似,签名(偶数)被编码为一热向量,并且网络通过交叉熵损失进行训练。

结果发现,一个极小的KAN能够达到81.6%的测试精度,而DeepMind的4层宽度300MLP,仅达到78%的测试精度。

如下表所示,KAN (G = 3, k = 3) 有约200参数,而MLP约有300000参数量。

值得注意的是,KAN不仅更准确,而且更准确。同时比MLP的参数效率更高。

在可解释性方面,研究人员根据每个激活的大小来缩放其透明度,因此无需特征归因即可立即清楚,哪些输入变量是重要的。

然后,在三个重要变量上训练KAN,获得78.2%的测试准确率。

如下是,通过KAN,作者重新发现了纽结数据集中的三个数学关系。

物理Anderson局域化有解了

而在物理应用中,KAN也发挥了巨大的价值。

Anderson是一种基本现象,其中量子系统中的无序会导致电子波函数的局域化,从而使所有传输停止。

在一维和二维中,尺度论证表明,对于任何微小的随机无序,所有的电子本征态都呈指数级局域化。

相比之下,在三维中,一个临界能量形成了一个相分界,将扩展态和局域态分开,这被称为移动性边缘。

理解这些移动性边缘对于解释固体中的金属-绝缘体转变等各种基本现象至关重要,以及在光子设备中光的局域化效应。

作者通过研究发现,KANs使得提取移动性边缘变得非常容易,无论是数值上的,还是符号上的。

显然,KAN已然成为科学家的得力助手、重要的合作者。

总而言之,得益于准确性、参数效率和可解释性的优势,KAN将是AI+Science一个有用的模型/工具。

未来,KAN的进一步在科学领域中的应用,还待挖掘。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/34729.html

(0)
上一篇 2024年10月30日
下一篇 2024年10月30日

相关推荐

  • 小摩报喜:AI工具已开始创收 未来预计收益会更多!

    美国最大的银行——摩根大通表示,人工智能(AI)工具已开始为该行带来收入,未来人工智能领域的进步可能会带来更多收益。 该行首席数据和分析官Teresa Heitsenrether周三表示,“除了提高效率和潜在的成本规避,我们还看到了创造收入的活动,这真的令人鼓舞。” 摩根大通去年设定了2023年人工智能创造10亿美元“商业价值”的目标,并在5月的投资者日将这…

    2023年12月1日
  • 伍斯特理工学院usnews排名

    美本选校时,在排名、地理位置、食宿、奖学金等参考因素外,一所大学的毕业生就职情况也会成为部分留学家庭关注的重点。为此,一些跟企业签订合作协议,设立有 Internships/Co-ops 项目的美国大学,会受到不少学生、家长的欢迎。 在 U.S.News 上,官方就调查了诸多提供 Internships/Co-ops 项目的学校,发现了有20多所美国大学实习…

    2024年12月21日
  • 大学生留学需要具备哪些条件

    去国外留学的条件因国家、学校、专业以及具体项目的不同而有所不同,但一般来说,以下是留学的基本条件和要求。下面通过几个具体的例子,说明去国外留学需要的主要条件: 1.学术背景与成绩要求本科留学:大部分国家的本科院校对申请者的学术背景有一定要求,通常需要高中毕业并提供高中成绩单。举例:美国的大学通常要求申请者提供高中阶段的成绩单(如中国的高考成绩或三年高中的平均…

    2025年2月20日
  • 筑波大学sgu本科

    前言:“以科研为目标”的筑波大学长年保持着强劲的科研水平,是诸多研究者梦寐以求的大学,在这里学生可以以最快的速度将理论成果转化为实际生产力。 筑波大学(University of Tsukuba)位于茨城县筑波市,其前身可追溯到1872年创立的东京师范学校,基于新教育理念于1973年正式改名“筑波大学”。筑波大学秉承“开放性大学”、“教育研究的新计划”、“新…

    2025年1月23日
  • 加州大学河滨分校排名qs_加州大学河滨分校排名相等于一本吗

    美国加州大学河滨分校在2020年《美国新闻与世界报道》美国全国性大学排名中排名第91名,在2020年QS世界大学排名中排名454名。 加州大学河滨分校专业排名 QS世界大学生命科学与医学专业排名 2020年 第401名 QS世界大学农业与林业专业排名 2020年 第51名 QS世界大学工程与技术专业排名 2020年 第451名 QS世界大学自然科学专业排名 …

    2024年2月21日
  • 澳大利亚签证_澳大利亚签证办理流程

    在一个温暖的春日,澳洲的留学政策迎来了一场重大变革,这个消息不仅在留学生群体中掀起了一阵轰动,也让世界各地对澳洲留学的看法发生了微妙的改变。 过去,申请澳洲留学签证时,一项重要的要求就是表明自己不想留在澳洲,否则签证可能会被拒绝。这一政策曾让许多有志于留学澳洲的学子感到困惑和焦虑。然而,好消息在3月份传来,澳洲决定放宽签证限制,不再禁止以移民为目的的留学生。…

    2024年3月11日
  • 为什么去加拿大留学

    文章转载至【武汉申友留学】公众号 根据 UCL 全球高等教育中心的研究数据,在过去 10 年中,赴加拿大留学的学生猛涨。而在一项来自20多个国家/地区的4000多名留学生的调查中,加拿大获得认可最多。 相对于英美港澳,加拿大听着挺小众,但为什么会有那么多人选择去加拿大留学? 加拿大留学优势 1、教学和科研水平世界顶尖 加拿大是世界上少数几个教育体系最完整、教…

    2024年5月14日
  • 麻省理工学院排名及分数线_麻省理工学院排名及分数线是多少

    美通社消息,AcademicInfluence.com发布最新文章《美国15所技术最先进的大学》(America’s 15 Most Technologically Advanced Colleges)。在数字时代,这些技术先进的大学处于进步的前沿,创造了令人难以置信的研究和在线学习机会。 通过使用AcademicInfluence.com专有的…

    2024年3月2日
  • 剑桥学院录取率

    视频加载中… 最新!剑桥大学公布2024中国学生录取数据:自然科学专业申请人数第一 今年,剑桥大学共收到2308份中国学生的申请,自然科学专业申请人数第一。除自然科学外,经济、工程、数学和土地经济亦为热门专业。 计算机科学依旧是offer率最低的专业,仅9%,已连续三年维持在这个低水平。 编辑: 顾佳文 责编: 袁宏云

    2025年1月15日
  • 亚拉巴马州有什么大学_亚拉巴马州有什么大学和大学

    2024年的美高申请季即将开启,诸位同学和家长你们做好美高申请规划了吗? 美高择校时美高申请规划中尤为关键的一环,除了学校的综合实力,地理位置和气候条件也是美高择校需要考虑的重要因素。 留美网整理了亚拉巴马州的六所顶尖私立高中,希望对诸位同学在美高申请规划和美高择校方面有帮助! 亚拉巴马州(又译阿拉巴马州,State of Alabama)是美国东南部的一个…

    2024年2月21日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信