WikiEdge:ArXiv-2408.17171v1/methods

来自WikiEdge
David留言 | 贡献2024年9月3日 (二) 09:12的版本 (Saved page by David)
(差异) ←上一版本 | 最后版本 (差异) | 下一版本→ (差异)
跳转到导航 跳转到搜索
编辑

这篇论文的工作部分详细介绍了如何开发和评估提出的SafeTail框架,旨在优化边缘计算中的尾部延迟。以下是这部分的主要内容:

  1. 尾部延迟优化(Tail Latency Optimization
    • 定义了尾部延迟的概念,即超过90百分位阈值的延迟。该研究旨在通过在多个边缘服务器上选择性地复制服务来满足目标延迟。
  2. SafeTail框架
    • 提出了SafeTail,这是一个基于奖励的深度学习框架,通过学习优化的服务放置策略,在实现目标延迟和最小化额外资源使用之间取得平衡。
  3. 深度学习模型(Deep Learning Model
    • 利用深度强化学习DRL)来减少任务完成时间,通过奖励低延迟的调度来实现。SafeTail框架结合了冗余调度和基于奖励的深度学习方法。
  4. 实验设置和模拟(Experimental Setup and Simulation
    • 通过追踪驱动的模拟,SafeTail在三种不同的服务上展示了接近最优的性能,并在大多数基线策略上表现更好。实验依赖于收集的WiFi网络和计算追踪。
  5. 问题公式化(Problem Formulation
    • 数学上定义了框架的输入,包括一组同质的边缘服务器、每个服务器的动态状态、用户的位置和设备要求、服务的特征等。
  6. 冗余调度(Redundant Scheduling
    • 冗余调度的目标是在多个边缘服务器上复制服务的执行,以最小化延迟变异并实现最快的响应。
  7. 奖励函数(Reward Function
    • 基于行动优化尾部延迟和资源利用的有效性来给予奖励。定义了目标延迟,并根据实现的延迟与目标延迟的相对关系来计算奖励。
  8. 性能评估(Performance Evaluation
    • 使用不同的性能指标来衡量SafeTail与基线方法的比较,包括访问率、延迟偏差、奖励的绝对值以及与基线方法在中值和尾部延迟方面的比较。