查看“WikiEdge:ArXiv-2404.19756/terms”的源代码
←
WikiEdge:ArXiv-2404.19756/terms
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2404.19756/terms|action=edit}} 编辑]</div> * [[多层感知器]](Multi-Layer Perceptron, MLP):一种前馈人工神经网络,由多个层组成,每层由多个神经元组成,是深度学习模型的基础。 * [[科尔莫哥洛夫-阿诺德网络]](Kolmogorov-Arnold Network, KAN):一种受[[科尔莫哥洛夫-阿诺德表示定理]]启发的神经网络,其特点是在网络的边缘(而非节点)上具有可学习的激活函数。 * [[科尔莫哥洛夫-阿诺德表示定理]](Kolmogorov-Arnold Representation Theorem):一个数学定理,表明任何多变量连续函数都可以表示为单变量连续函数的有限组合和加法运算。 * [[激活函数]](Activation Function):在人工神经网络中,用于增加非线性特性的函数,使得网络能够学习和执行更复杂的任务。 * [[可学习激活函数]](Learnable Activation Functions):在神经网络中,其参数可以通过训练过程进行学习和优化的激活函数。 * [[B-样条]](B-Spline):一种参数化的分段多项式曲线,常用于计算机图形学和数值分析中,作为激活函数的参数化形式。 * [[网格扩展技术]](Grid Extension Technique):一种通过增加网格点的数量来提高样条函数精度的技术,用于提高[[科尔莫哥洛夫-阿诺德网络]]的准确性。 * [[稀疏正则化]](Sparsity Regularization):一种正则化技术,通过惩罚大的权重值来鼓励模型学习更稀疏的表示。 * [[熵正则化]](Entropy Regularization):一种正则化技术,通过最大化激活函数的熵来鼓励模型学习更多样化的表示。 * [[符号化]](Symbolification):将神经网络中的激活函数转换为特定的符号函数,以提高模型的可解释性。
返回
WikiEdge:ArXiv-2404.19756/terms
。
导航菜单
个人工具
创建账号
登录
命名空间
项目页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
工具
链入页面
相关更改
特殊页面
页面信息