WikiEdge:ArXiv-2408.17171v1/conclusion:修订间差异

来自WikiEdge
跳转到导航 跳转到搜索
David留言 | 贡献
Saved page by David
 
David留言 | 贡献
Saved page by David
第1行: 第1行:
<!-- 不要移除下面第如果有编辑错,请直接修改第二行以后内容 -->
本文介绍了种基于[[忆阻器]]的计算存储硬件加速器,用于片上训练和推理重点关注其在设备变化、导电差和输入噪声下准确性和效率。
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17171v1/conclusion|action=edit}} 编辑]</div>
利用商业可用的基于[[银]]的金属自定向通道(M-SDC)[[忆阻器]]的真实SPICE模型研究将固有设备非想性纳入电路仿真中。
== 主要结论与贡献 ==
硬件由30忆阻和4个[[神经元]]组成[[钨]]、[[铬]]和[[碳]]介质的三种不同的M-SDC结构执行二进制[[图像分类]]任务
这篇论文主要结论与贡献包括:
片上训练算法精确调整忆阻器导电性以目标权重。结果表明,训练期间加入适噪声(<15%)可增强对设备变和噪声输入数据的[[鲁棒性]],
1. 提出了SafeTail框架这是一个基于奖励深度学习框架,旨在通过自适应冗余管优化边缘计算的尾部延迟
即使在导电变化和输入噪声下也能现高达97%[[准确率]]。网络可以在显著损失准确率的情况下容忍10%的导电误差。值得注意
2. SafeTail通过选择性地在多边缘服务上复制服务来满足目标延迟同时通过奖励机制平衡目标延迟的实现与最小化额外资源使
在训练期间省略初始忆阻器重置脉冲可以显著减少训练时间能量消耗使基于铬的忆阻器设计表现出的性能,
3. 通过追踪驱动模拟实验,展示了SafeTail在三种不同服务(对象检测、图像实例割和音频去噪)上接近最优的性能,并在大多数基线策略上表现更好
实现了2.4秒训练时间和18.9毫焦耳能量消耗。这项研究为开发用于[[边缘应]]的[[片上学习]]的鲁棒和能效高的基于忆阻器的[[神经网络]]提供了见解。
4. 论文还提出了一种奖励函数,该函数基于际延迟与目标延迟之间的差异来计算用于训练学习模型服务放置策略。
5. 论文的贡献还包括开发了一个真世界测试平台,并从三种应用程序中收集了执行跟踪使用这些跟踪进行模拟,证明了所提出的奖励基础深度学习框架显著优化了中位数尾部延迟
6. 论文还讨论了SafeTail在不同例下性能,包括对象检测、图像实例分割和音频文去噪,并展示了SafeTail在化延迟和资源使用方面有效
7. 论文指出了SafeTail局限性,并提出了未来的研究方向,包括在异构环境中评估SafeTail、考虑所有户在网络中的需求来优化尾部延迟,以及决服务器等待时间的建模问题

2024年9月3日 (二) 07:34的版本

本文介绍了一种基于忆阻器的计算存储硬件加速器,用于片上训练和推理,重点关注其在设备变化、导电误差和输入噪声下的准确性和效率。 利用商业可用的基于的金属自定向通道(M-SDC)忆阻器的真实SPICE模型,研究将固有的设备非理想性纳入电路仿真中。 硬件由30个忆阻器和4个神经元组成,利用介质的三种不同的M-SDC结构执行二进制图像分类任务。 片上训练算法精确调整忆阻器导电性以实现目标权重。结果表明,训练期间加入适度噪声(<15%)可以增强对设备变化和噪声输入数据的鲁棒性, 即使在导电变化和输入噪声下也能实现高达97%的准确率。网络可以在不显著损失准确率的情况下容忍10%的导电误差。值得注意的是, 在训练期间省略初始忆阻器重置脉冲可以显著减少训练时间和能量消耗。使用基于铬的忆阻器设计的硬件表现出优越的性能, 实现了2.4秒的训练时间和18.9毫焦耳的能量消耗。这项研究为开发用于边缘应用片上学习的鲁棒和能效高的基于忆阻器的神经网络提供了见解。