加州理工大学数学系

编辑:桃子 LRS

【新智元导读】无需怀念MLP,新网络KAN基于柯尔莫哥洛夫-阿诺德定理,带着更少的参数、更强的性能、更好的可解释性来了,深度学习架构革新进入新时代!

一夜之间,机器学习范式要变天了!

当今,统治深度学习领域的基础架构便是,多层感知器(MLP)——将激活函数放置在神经元上。

那么,除此之外,我们是否还有新的路线可走?

就在今天,来自MIT、加州理工、东北大学等机构的团队重磅发布了,全新的神经网络结构——Kolmogorov–Arnold Networks(KAN)。

研究人员对MLP做了一个简单的改变,即将可学习的激活函数从节点(神经元)移到边(权重)上!

论文地址:https://arxiv.org/pdf/2404.19756

这个改变乍一听似乎毫无根据,但它与数学中的「逼近理论」(approximation theories)有着相当深刻的联系。

事实证明,Kolmogorov-Arnold表示对应两层网络,在边上,而非节点上,有可学习的激活函数。

正是从表示定理得到启发,研究人员用神经网络显式地,将Kolmogorov-Arnold表示参数化。

值得一提的是,KAN名字的由来,是为了纪念两位伟大的已故数学家Andrey Kolmogorov和Vladimir Arnold。

实验结果显示,KAN比传统的MLP有更加优越的性能,提升了神经网络的准确性和可解释性。

而最令人意想不到的是,KAN的可视化和交互性,让其在科学研究中具有潜在的应用价值,能够帮助科学家发现新的数学和物理规律。

研究中,作者用KAN重新发现了纽结理论(knot theory)中的数学定律!

而且,KAN以更小的网络和自动化方式,复现了DeepMind在2021年的结果。

在物理方面,KAN可以帮助物理学家研究Anderson局域化(这是凝聚态物理中的一种相变)。

对了,顺便提一句,研究中KAN的所有示例(除了参数扫描),在单个CPU上不到10分钟就可以复现。

KAN的横空出世,直接挑战了一直以来统治机器学习领域的MLP架构,在全网掀起轩然大波。

机器学习新纪元开启

有人直呼,机器学习的新纪元开始了!

谷歌DeepMind研究科学家称,「Kolmogorov-Arnold再次出击!一个鲜为人知的事实是:这个定理出现在一篇关于置换不变神经网络(深度集)的开创性论文中,展示了这种表示与集合/GNN聚合器构建方式(作为特例)之间的复杂联系」。

一个全新的神经网络架构诞生了!KAN将极大地改变人工智能的训练和微调方式。

难道是AI进入了2.0时代?

还有网友用通俗的语言,将KAN和MLP的区别,做了一个形象的比喻:

Kolmogorov-Arnold网络(KAN)就像一个可以烤任何蛋糕的三层蛋糕配方,而多层感知器(MLP)是一个有不同层数的定制蛋糕。MLP更复杂但更通用,而KAN是静态的,但针对一项任务更简单、更快速。

论文作者,MIT教授Max Tegmark表示,最新论文表明,一种与标准神经网络完全不同的架构,在处理有趣的物理和数学问题时,以更少的参数实现了更高的精度。

接下来,一起来看看代表深度学习未来的KAN,是如何实现的?

重回牌桌上的KAN

KAN的理论基础

柯尔莫哥洛夫-阿诺德定理(Kolmogorov–Arnold representation theorem)指出,如果f是一个定义在有界域上的多变量连续函数,那么该函数就可以表示为多个单变量、加法连续函数的有限组合。

对于机器学习来说,该问题可以描述为:学习高维函数的过程可以简化成学习多项式数量的一维函数。

但这些一维函数可能是非光滑的,甚至是分形的(fractal),在实践中可能无法学习,也正是由于这种「病态行为」,柯尔莫哥洛夫-阿诺德表示定理在机器学习领域基本上被判了「死刑」,即理论正确,但实际无用。

在这篇文章中,研究人员仍然对该定理在机器学习领域的应用持乐观态度,并提出了两点改进:

1、原始方程中,只有两层非线性和一个隐藏层(2n+1),可以将网络泛化到任意宽度和深度;

2、科学和日常生活中的大多数函数大多是光滑的,并且具有稀疏的组合结构,可能有助于形成平滑的柯尔莫哥洛夫-阿诺德表示。类似于物理学家和数学家的区别,物理学家更关注典型场景,而数学家更关心最坏情况。

KAN架构

柯尔莫哥洛夫-阿诺德网络(KAN)设计的核心思想是将多变量函数的逼近问题转化为学习一组单变量函数的问题。在这个框架下,每个单变量函数可以用B样条曲线来参数化,其中B样条是一种局部的、分段的多项式曲线,其系数是可学习的。

为了把原始定理中的两层网络扩展到更深、更宽,研究人员提出了一个更「泛化」的定理版本来支持设计KAN:

受MLPs层叠结构来提升网络深度的启发,文中同样引入了一个类似的概念,KAN层,由一个一维函数矩阵组成,每个函数都有可训练的参数。

根据柯尔莫哥洛夫-阿诺德定理,原始的KAN层由内部函数和外部函数组成,分别对应于不同的输入和输出维度,这种堆叠KAN层的设计方法不仅扩展了KANs的深度,而且保持了网络的可解释性和表达能力,其中每个层都是由单变量函数组成的,可以对函数进行单独学习和理解。

下式中的f就等价于KAN

实现细节

虽然KAN的设计理念看起来简单,纯靠堆叠,但优化起来也并不容易,研究人员在训练过程中也摸索到了一些技巧。

1、残差激活函数:通过引入基函数b(x)和样条函数的组合,使用残差连接的概念来构建激活函数ϕ(x),有助于训练过程的稳定性。

2、初始化尺度(scales):激活函数的初始化设置为接近零的样条函数,权重w使用Xavier初始化方法,有助于在训练初期保持梯度的稳定。

3、更新样条网格:由于样条函数定义在有界区间内,而神经网络训练过程中激活值可能会超出这个区间,因此动态更新样条网格可以确保样条函数始终在合适的区间内运行。

参数量

1、网络深度:L

2、每层的宽度:N

3、每个样条函数是基于G个区间(G+1个网格点)定义的,k阶(通常k=3)

所以KANs的参数量约为

作为对比,MLP的参数量为O(L*N^2),看起来比KAN效率更高,但KANs可以使用更小的层宽度(N),不仅可以提升泛化性能,还能提升可解释性。

KAN比MLP,胜在了哪?

性能更强

作为合理性检验,研究人员构造了五个已知具有平滑KA(柯尔莫哥洛夫-阿诺德)表示的例子作为验证数据集,通过每200步增加网格点的方式对KANs进行训练,覆盖G的范围为{3,5,10,20,50,100,200,500,1000}

使用不同深度和宽度的MLPs作为基线模型,并且KANs和MLPs都使用LBFGS算法总共训练1800步,再用RMSE作为指标进行对比。

从结果中可以看到,KAN的曲线更抖,能够快速收敛,达到平稳状态;并且比MLP的缩放曲线更好,尤其是在高维的情况下。

还可以看到,三层KAN的性能要远远强于两层,表明更深的KANs具有更强的表达能力,符合预期。

交互解释KAN

研究人员设计了一个简单的回归实验,以展现用户可以在与KAN的交互过程中,获得可解释性最强的结果。

假设用户对于找出符号公式感兴趣,总共需要经过5个交互步骤。

步骤 1:带有稀疏化的训练。

从全连接的KAN开始,通过带有稀疏化正则化的训练可以使网络变得更稀疏,从而可以发现隐藏层中,5个神经元中的4个都看起来没什么作用。

步骤 2:剪枝

自动剪枝后,丢弃掉所有无用的隐藏神经元,只留下一个KAN,把激活函数匹配到已知的符号函数上。

步骤 3:设置符号函数

假设用户可以正确地从盯着KAN图表猜测出这些符号公式,就可以直接设置

如果用户没有领域知识或不知道这些激活函数可能是哪些符号函数,研究人员提供了一个函数suggest_symbolic来建议符号候选项。

步骤 4:进一步训练

在网络中所有的激活函数都符号化之后,唯一剩下的参数就是仿射参数;继续训练仿射参数,当看到损失降到机器精度(machine precision)时,就能意识到模型已经找到了正确的符号表达式。

步骤 5:输出符号公式

使用Sympy计算输出节点的符号公式,验证正确答案。

可解释性验证

研究人员首先在一个有监督的玩具数据集中,设计了六个样本,展现KAN网络在符号公式下的组合结构能力。

可以看到,KAN成功学习到了正确的单变量函数,并通过可视化的方式,可解释地展现出KAN的思考过程。

在无监督的设置下,数据集中只包含输入特征x,通过设计某些变量(x1, x2, x3)之间的联系,可以测试出KAN模型寻找变量之间依赖关系的能力。

从结果来看,KAN模型成功找到了变量之间的函数依赖性,但作者也指出,目前仍然只是在合成数据上进行实验,还需要一种更系统、更可控的方法来发现完整的关系。

帕累托最优

通过拟合特殊函数,作者展示了KAN和MLP在由模型参数数量和RMSE损失跨越的平面中的帕累托前沿(Pareto Frontier)。

在所有特殊函数中,KAN始终比MLP具有更好的帕累托前沿。

求解偏微方程

在求解偏微方程任务中, 研究人员绘制了预测解和真实解之间的L2平方和H1平方损失。

下图中,前两个是损失的训练动态,第三和第四是损失函数数量的扩展定律(Sacling Law)。

如下结果所示,与MLP相比,KAN的收敛速度更快,损失更低,并且具有更陡峭的扩展定律。

持续学习,不会发生灾难性遗忘

我们都知道,灾难性遗忘是机器学习中,一个严重的问题。

人工神经网络和大脑之间的区别在于,大脑具有放置在空间局部功能的不同模块。当学习新任务时,结构重组仅发生在负责相关技能的局部区域,而其他区域保持不变。

然而,大多数人工神经网络,包括MLP,却没有这种局部性概念,这可能是灾难性遗忘的原因。

而研究证明了,KAN具有局部可塑性,并且可以利用样条(splines)局部性,来避免灾难性遗忘。

这个想法非常简单,由于样条是局部的,样本只会影响一些附近的样条系数,而远处的系数保持不变。

相比之下,由于MLP通常使用全局激活(如ReLU/Tanh/SiLU),因此,任何局部变化都可能不受控制地传播到远处的区域,从而破坏存储在那里的信息。

研究人员采用了一维回归任务(由5个高斯峰组成)。每个峰值周围的数据按顺序(而不是一次全部)呈现给KAN和MLP。

结果如下图所示,KAN仅重构当前阶段存在数据的区域,而使之前的区域保持不变。

而MLP在看到新的数据样本后会重塑整个区域,从而导致灾难性的遗忘。

发现纽结理论,结果超越DeepMind

KAN的诞生对于机器学习未来应用,意味着什么?

纽结理论(Knot theory)是低维拓扑学中的一门学科,它揭示了三流形和四流形的拓扑学问题,并在生物学和拓扑量子计算等领域有着广泛的应用。

2021年,DeepMind团队曾首次用AI证明了纽结理论(knot theory)登上了Nature。

论文地址:https://www.nature.com/articles/s41586-021-04086-x

这项研究中,通过监督学习和人类领域专家,得出了一个与代数和几何结不变量相关的新定理。

即梯度显著性识别出了监督问题的关键不变量,这使得领域专家提出了一个猜想,该猜想随后得到了完善和证明。

对此,作者研究KAN是否可以在同一问题上取得良好的可解释结果,从而预测纽结的签名。

在DeepMind实验中,他们研究纽结理论数据集的主要结果是:

1 利用网络归因法发现,签名

主要取决于中间距离

和纵向距离λ。

2 人类领域专家后来发现

与斜率有很高的相关性

并得出

为了研究问题(1),作者将17个纽结不变量视为输入,将签名视为输出。

与DeepMind中的设置类似,签名(偶数)被编码为一热向量,并且网络通过交叉熵损失进行训练。

结果发现,一个极小的KAN能够达到81.6%的测试精度,而DeepMind的4层宽度300MLP,仅达到78%的测试精度。

如下表所示,KAN (G = 3, k = 3) 有约200参数,而MLP约有300000参数量。

值得注意的是,KAN不仅更准确,而且更准确。同时比MLP的参数效率更高。

在可解释性方面,研究人员根据每个激活的大小来缩放其透明度,因此无需特征归因即可立即清楚,哪些输入变量是重要的。

然后,在三个重要变量上训练KAN,获得78.2%的测试准确率。

如下是,通过KAN,作者重新发现了纽结数据集中的三个数学关系。

物理Anderson局域化有解了

而在物理应用中,KAN也发挥了巨大的价值。

Anderson是一种基本现象,其中量子系统中的无序会导致电子波函数的局域化,从而使所有传输停止。

在一维和二维中,尺度论证表明,对于任何微小的随机无序,所有的电子本征态都呈指数级局域化。

相比之下,在三维中,一个临界能量形成了一个相分界,将扩展态和局域态分开,这被称为移动性边缘。

理解这些移动性边缘对于解释固体中的金属-绝缘体转变等各种基本现象至关重要,以及在光子设备中光的局域化效应。

作者通过研究发现,KANs使得提取移动性边缘变得非常容易,无论是数值上的,还是符号上的。

显然,KAN已然成为科学家的得力助手、重要的合作者。

总而言之,得益于准确性、参数效率和可解释性的优势,KAN将是AI+Science一个有用的模型/工具。

未来,KAN的进一步在科学领域中的应用,还待挖掘。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/34729.html

(0)
上一篇 2024年10月30日
下一篇 2024年10月30日

相关推荐

  • 格拉斯哥大学地址邮编

    图虫创意 图 图虫创意 图 近日,国家邮政局发展研究中心与北京大学时空大数据创新中心提出“新型邮编”建设,希望能让我国的邮政编码得到更有效的发挥。 专项组联合国家邮政局发展研究中心目前正在研究将这一技术应用到快递行业,初步构想是基于现在的六位邮编,结合全球统一的位置框架和编码模型,创新邮政编码的编码规则,形成全球统一、精细到户、人机通用的快递物流统一位置标识…

    2024年11月1日
  • 常春藤大学(常春藤大学有哪几所)

    华盛顿大学(University of Washington) ,简称 UWashington 或 UW,始建于1861年,位于美国西海岸华盛顿州西雅图市,是美国西海岸最古老的大学之一,也是世界上最早开设医学院的学校之一。华盛顿大学被誉为“公立常春藤”,是美国大学协会、环太平洋大学联盟和国际大学气候联盟成员。 华盛顿大学地处西雅图市University Di…

    2023年11月22日
  • 苏州杜克大学好吗

    中国最牛大学毕业即巅峰。 中国最牛的大学,去年234名本科毕业生,90%都是选择读研深造。其中170个中国学生,有130个都获得了哈佛跟耶鲁等世界顶尖大学的offer,剩余的30多个学生依次去新加坡国立大学等知名大学。而10%选择直接就业的同学,去的也都是腾讯等科技公司。D尖咨询公司麦肯血,跟D尖的银行高薪。要知道作为本科生,进这些企业有多难?高S每一年收到…

    2024年7月9日
  • 日语能力考试准考证(日语能力考试准考证号查询)

    #日语# 日本语能力测试(JLPT) 日本语能力测试是日本国际交流基金会主办的,面向母语为非日语的日语学习者的日语语言能力测试。考试设有五个级别,以纸笔方式作答。 经批准,教育部考试中心负责在中国举办考试。目前每年举办两次考试。教育部考试中心中国教育考试网独家提供有关报名、考试时间安排、考点分布、考试规定、考试咨询等信息和服务。 大家都知道,能力考试在国内日…

    2023年11月19日
  • 东京大学世界排名(东京大学世界排名第几位)

    人民网东京4月2日电 据日本《朝日新闻》报道,根据英国教育专业杂志《泰晤士高等教育》(THE)近日发布的“世界大学排名2019日本版”,日本大学的综合排名中,位居第1的是京都大学,排在第2名是东京大学,第3名是东北大学,三大国立大学均在上榜。公立大学的排序方面,排在最前面的是国际教养大学,位居第10名;私立大学排在最前面的则是国际基督教大学,位居第11名。 …

    2023年11月12日
  • 斯坦福大学简介_斯坦福大学简介中文

    斯坦福大学是位于美国加州的一所顶尖私立研究型大学,创立于1885年。它是全球最著名的大学之一,被誉为“世界大学之王”。该校2023年QS世界大学排名第三。这一期我们就来走进这所世界名校,有志就读斯坦福大学的同学,2023年秋季入学的学费标准我已经整理出来并放在了最后,请自行查阅。下面我们先来看关于这所大学的介绍。 斯坦福大学有七个学院,包括人文科学、社会科学…

    2024年3月17日
  • 美国沃顿商学院简介

    宾夕法尼亚大学沃顿商学院成立于1881年,是世界上最古老的商学院。因为是由费城企业家约瑟夫·沃顿出资成立的,所以被取名为沃顿商学院,研究生录取率为18.2%。沃顿商学院是毕业生里亿万富翁最多的美国商学院,其中著名人物有美国总统唐纳德·特朗普、特斯拉创始人埃隆·马斯克等。 沃顿商学院提供经济学学士学位、MBA学位和博士学位,一共有20多个本科学术领域,19个M…

    2024年9月8日
  • 佐治亚理工学院地址

    佐治亚理工学院申请条件本科明确规定无需TOEFL与IELTS成绩,但建议母语非英语的申请者提交,并建议TOEFL高于95分,或IELTS高于7.0,可以将该成绩随申请材料递交给学校,不要通过官方机构送分。佐治亚理工通过乔治亚理工官网申请,申请时可以选定自己专业,也可以不选择——乔治亚理工不将专业选择列为录取参考因素。一般8月初开放申请,第二年1月初截止申请,…

    2024年7月23日
  • 波士顿大学橄榄球队

    今年之前,凯尔特人历史上22次进入总决赛,历史第二,仅次于老对手湖人的32次。 17次拿下总冠军,与湖人并列历史第一,第三名的勇士(7次),仅仅是两队的零头。 但比湖人和勇士都曾经换过地盘不同,自1946年nba前身BAA启动,绿凯就已经存在。他们和纽约尼克斯是如今仅存的两支“创世十一元老”。 78年来,“体育之城”波士顿的厚重,北岸花园的神奇,都一直在庇佑…

    1天前
  • 曼彻斯特大学留学排名

    曼城是除伦敦以外,留学生最想去的城市,自然它的代表学府曼大就成了大家眼里的香馍馍。曼大位于曼城中心南部,有两个校区。位于OxfordRoad的曼彻斯特维多利亚大学(推荐阅读:维多利亚大学)校区,和位于SackvilleStreet的曼彻斯特理工大学校区。04年以前,据立思辰留学介绍:两个校区是两所独立院校;04年之后合并为同一所大学——曼彻斯特大学,据立思辰…

    2024年11月10日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信