WikiEdge:ArXiv-2408.17171v1/methods:修订间差异

来自WikiEdge
跳转到导航 跳转到搜索
David留言 | 贡献
Saved page by David
 
David留言 | 贡献
Saved page by David
第1行: 第1行:
<!-- 不要移除下面第一行,如果有编辑错误,请直接修改第二行以后的内容 -->
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17171v1/methods|action=edit}} 编辑]</div>
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17171v1/methods|action=edit}} 编辑]</div>
== 工作方法 ==
这篇论文的工作部分详细介绍了如何开发和评估提出的[[SafeTail]]框架,旨在优化[[边缘计算]]中的[[尾部延迟]]。以下是这部分的主要内容:
这篇论文的工作方法是提出了SafeTail框架,这是一个基于奖励的深度学习框架,旨在通过计算冗余管理来优化边缘服务调度中的尾部延迟。SafeTail通过选择性地在多个边缘服务器上复制服务来满足目标延迟,使基于奖励的深度学习框架来学习最优的服务放置策略,平衡实现目标延迟和最小化额外资源使用的需要。通过追踪驱动的模拟,SafeTail展示了在三种不同服务中接近最优的性能,并在大多数基线策略上表现更好
# '''问题定义''':
#* 定义了在边缘计算环境中优化尾部延迟的挑战,特别在[[网络]]和[[计算延迟]]不确定性较高的情况下。
#  '''SafeTail框架''':
#* 提出了SafeTail,这是一个基于[[奖励]][[深度学习]]框架,通过选择性地在多个[[边缘服务器]]上复制服务来满足目标延迟
#  '''奖励驱动的深度学习''':
#* 利用奖励驱动的深度学习框架来学习最优的[[服务放置策略]],平衡实现目标延迟和最小化额外资源使用的需要。
#  '''实验设计''':
#* 通过追踪驱动的模拟,评估了SafeTail在三种不同服务([[对象检测]]、[[图像实例分割]]和[[音频去噪]])上的性能,并与基线策略进行了比较。
#  '''性能评估''':
#* 使用了包括[[访问率]]、延迟偏差和奖励绝对值等性能指标来衡量SafeTail与基线方法的比较结果。
#  '''实验结果''':
#* 发现SafeTail减少中位和尾部延迟方面均优于基线方法,同时有效管理了资源使用

2024年9月3日 (二) 07:33的版本

编辑

这篇论文的工作部分详细介绍了如何开发和评估提出的SafeTail框架,旨在优化边缘计算中的尾部延迟。以下是这部分的主要内容:

  1. 问题定义
    • 定义了在边缘计算环境中优化尾部延迟的挑战,特别是在网络计算延迟不确定性较高的情况下。
  2. SafeTail框架
  3. 奖励驱动的深度学习
    • 利用奖励驱动的深度学习框架来学习最优的服务放置策略,平衡实现目标延迟和最小化额外资源使用的需要。
  4. 实验设计
  5. 性能评估
    • 使用了包括访问率、延迟偏差和奖励绝对值等性能指标来衡量SafeTail与基线方法的比较结果。
  6. 实验结果
    • 发现SafeTail在减少中位数和尾部延迟方面均优于基线方法,同时有效管理了资源使用。