查看“WikiEdge:ArXiv-2407.16674/terms”的源代码
←
WikiEdge:ArXiv-2407.16674/terms
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2407.16674/terms|action=edit}} 编辑]</div> 这篇文章的术语表如下: * [[多层感知器]]([[Multi-Layer Perceptrons]], MLP):多层感知器是现代深度学习模型中的基础构建块,由多个节点层组成,每层的节点(或神经元)对其输入应用固定激活函数。 * [[Kolmogorov–Arnold 网络]]([[Kolmogorov–Arnold Networks]], KAN):[[Kolmogorov–Arnold 网络]]是传统 [[多层感知器]] 的创新替代品,利用 [[Kolmogorov-Arnold 表示定理]],具有可学习的边缘激活函数,用参数化为样条的单变量函数替代线性权重参数。 * [[B-样条]]([[B-spline]]):[[B-样条]]是一种非线性函数,用于 [[Kolmogorov–Arnold 网络]] 中的激活函数,具有可学习的参数,并且每个输入元素的激活函数可以不同。 * [[符号公式表示]]([[Symbolic Formula Representing]]):[[符号公式表示]]是机器学习中的一项任务,涉及将数学公式以符号形式表示出来,通常用于测试模型的函数逼近能力。 * [[FLOPs]]([[Floating Point Operations]]):[[FLOPs]] 指的是浮点运算次数,用于衡量算法或者硬件执行浮点运算的能力。 * [[遗忘问题]]([[Forgetting Issue]]):在持续学习或增量学习中,模型在学到新任务的同时遗忘先前任务的现象。 * [[反向传播]]([[Backpropagation]]):一种在神经网络中用于训练的监督学习算法,通过计算损失函数关于网络参数的梯度来更新网络权重。 * [[ReLU]]([[Rectified Linear Unit]]):[[修正线性单元]]是一种常用的激活函数,定义为输入的正部分。 * [[GELU]]([[Gaussian Error Linear Unit]]):[[高斯误差线性单元]]是一种激活函数,其输出是输入值经过高斯分布概率加权的结果。 * [[Adam 优化器]]([[Adam Optimizer]]):一种用于训练深度学习模型的随机梯度下降优化算法,结合了动量和自适应学习率的特点。
返回
WikiEdge:ArXiv-2407.16674/terms
。
导航菜单
个人工具
创建账号
登录
命名空间
项目页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
工具
链入页面
相关更改
特殊页面
页面信息