查看“WikiEdge:ArXiv-2407.16674/background”的源代码
←
WikiEdge:ArXiv-2407.16674/background
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2407.16674/background|action=edit}} 编辑]</div> 这篇文献的背景主要集中在以下几个方面: # '''多层感知器([[Multi-Layer Perceptrons]],MLP)的基础性作用''': #* MLP是深度学习中的基础组件,由多个节点层组成,每个节点对输入应用固定激活函数,能够逼近广泛的非线性函数。 #* MLP因其通用逼近定理而被广泛应用于分类、回归和特征提取等任务,但也存在诸如学习表示的可解释性差和扩展网络规模的灵活性有限等限制。 # '''[[Kolmogorov–Arnold Networks]](KAN)的创新性''': #* KAN是MLP的创新替代方案,利用[[Kolmogorov-Arnold]]表示定理,其特征在于边缘上的可学习激活函数,用参数化为样条的单变量函数替代线性权重参数。 #* KAN预期成为MLP的有前景的替代品,这激发了对KAN的细致考察。 # '''KAN与MLP的公平比较的必要性''': #* 当前KAN与MLP之间的比较实验并不公平,因为它们在不同的参数或浮点运算([[FLOPs]])下进行比较。 #* 为了探究KAN的潜力,有必要在公平的设置下全面比较KAN和MLP。 # '''不同激活函数对KAN和MLP性能影响的探究''': #* KAN和MLP之间的主要区别在于激活函数的不同,KAN使用的是具有可学习参数的样条函数,而MLP通常使用无学习参数的统一激活函数,如[[ReLU]]和[[GELU]]。 #* 作者假设激活函数的变化是KAN和MLP在不同任务中表现不同的主要因素,并验证了这一假设。 # '''持续学习([[Continual Learning]])中KAN和MLP性能的对比''': #* KAN论文中验证了KAN在一维函数持续学习中表现更好,但作者在更标准的类增量持续学习设置中进一步验证了这一点。 #* 在固定的训练迭代下,发现KAN的遗忘问题比MLP更严重,这与KAN论文中的发现不同。 综上所述,这篇文献的背景强调了在不同任务中对KAN和MLP进行全面比较的重要性,以及激活函数对模型性能影响的深入分析,特别是在持续学习环境下的性能对比。
返回
WikiEdge:ArXiv-2407.16674/background
。
导航菜单
个人工具
创建账号
登录
命名空间
项目页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
工具
链入页面
相关更改
特殊页面
页面信息