WikiEdge:ArXiv-2408.17171v1/methods:修订间差异

来自WikiEdge
跳转到导航 跳转到搜索
David留言 | 贡献
Saved page by David
David留言 | 贡献
Saved page by David
 
第1行: 第1行:
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17171v1/methods|action=edit}} 编辑]</div>
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17171v1/methods|action=edit}} 编辑]</div>
这篇论文的工作部分详细介绍了如何开发和评估提出的[[SafeTail]]框架,旨在优化[[边缘计算]]中的[[尾部延迟]]。以下是这部分的主要内容:
这篇论文的工作部分详细介绍了如何开发和评估提出的[[SafeTail]]框架,旨在优化[[边缘计算]]中的[[尾部延迟]]。以下是这部分的主要内容:
# '''问题定义''':
# '''尾部延迟优化([[Tail Latency Optimization]])''':
#* 定义了在边缘计算环境中优化尾部延迟的挑战特别是[[网络]]和[[计算延迟]]不确定性较高的情况下
#* 定义了尾部延迟的概念即超过90百分位阈值的延迟。该研究旨在通过多个边缘服务器上选择性地复制服务来满足目标延迟。
# '''SafeTail框架''':
# '''SafeTail框架''':
#* 提出了SafeTail,这是一个基于[[奖励]]的[[深度学习]]框架,通过选择性地在多个[[边缘服务器]]上复制服务来满足目标延迟。
#* 提出了SafeTail,这是一个基于奖励的[[深度学习]]框架,通过学习优化的服务放置策略,在实现目标延迟和最小化额外资源使用之间取得平衡
# '''奖励驱动的深度学习''':
# '''深度学习模型([[Deep Learning Model]])''':
#* 利用奖励驱动的深度学习框架来学习最优的[[服务放置策略]],平衡实现目标延迟最小化额外资源使用需要
#* 利用[[深度强化学习]]([[DRL]])来减少任务完成时间通过奖励低延迟的调度来实现。SafeTail框架结合了冗余调度基于奖励深度学习方法
# '''实验设''':
# '''实验设置和模拟([[Experimental Setup and Simulation]])''':
#* 通过追踪驱动的模拟,评估了SafeTail在三种不同服务[[对象检测]][[图像实例分割]]和[[音频去噪]])上的性能,并线策略进行了比较
#* 通过追踪驱动的模拟,SafeTail在三种不同服务上展示了接近最优的性能,并在大多数基线策略上表现更好。实验依赖于收集的[[WiFi]]网络和计算追踪。
# '''性能评估''':
# '''问题公式化([[Problem Formulation]])''':
#* 使用包括[[访问率]]、延迟偏差奖励绝对值等性能指标来衡量SafeTail与基线方法的比较结果。
#* 数学上定义了框架的输入,包括一组同质的边缘服务器、每个服务器的动态状态、用户的位置设备要求、服务的特征等。
#  '''实验结果''':
# '''冗余调度([[Redundant Scheduling]])''':
#* 发现SafeTail减少位数和尾部延迟方面均优于基线方法,同时有效管理了资源使用
#* 冗余调度的目标是在多个边缘服务器复制服务执行以最小化延迟变异实现最快的响应。
# '''奖励函数([[Reward Function]])''':
#* 动优化尾部延迟和资源利用的有效性来给予奖励。定义目标延迟,并根据实现的延迟与目标延迟的相对关系来计算奖励
# '''性能评估([[Performance Evaluation]])''':
#* 使用不同的性能指标来衡量SafeTail与基线方法的比较,包括访问率、延迟偏差奖励绝对值以及与基线方法在中和尾部延迟方面的比较

2024年9月3日 (二) 09:12的最新版本

编辑

这篇论文的工作部分详细介绍了如何开发和评估提出的SafeTail框架,旨在优化边缘计算中的尾部延迟。以下是这部分的主要内容:

  1. 尾部延迟优化(Tail Latency Optimization
    • 定义了尾部延迟的概念,即超过90百分位阈值的延迟。该研究旨在通过在多个边缘服务器上选择性地复制服务来满足目标延迟。
  2. SafeTail框架
    • 提出了SafeTail,这是一个基于奖励的深度学习框架,通过学习优化的服务放置策略,在实现目标延迟和最小化额外资源使用之间取得平衡。
  3. 深度学习模型(Deep Learning Model
    • 利用深度强化学习DRL)来减少任务完成时间,通过奖励低延迟的调度来实现。SafeTail框架结合了冗余调度和基于奖励的深度学习方法。
  4. 实验设置和模拟(Experimental Setup and Simulation
    • 通过追踪驱动的模拟,SafeTail在三种不同的服务上展示了接近最优的性能,并在大多数基线策略上表现更好。实验依赖于收集的WiFi网络和计算追踪。
  5. 问题公式化(Problem Formulation
    • 数学上定义了框架的输入,包括一组同质的边缘服务器、每个服务器的动态状态、用户的位置和设备要求、服务的特征等。
  6. 冗余调度(Redundant Scheduling
    • 冗余调度的目标是在多个边缘服务器上复制服务的执行,以最小化延迟变异并实现最快的响应。
  7. 奖励函数(Reward Function
    • 基于行动优化尾部延迟和资源利用的有效性来给予奖励。定义了目标延迟,并根据实现的延迟与目标延迟的相对关系来计算奖励。
  8. 性能评估(Performance Evaluation
    • 使用不同的性能指标来衡量SafeTail与基线方法的比较,包括访问率、延迟偏差、奖励的绝对值以及与基线方法在中值和尾部延迟方面的比较。