WikiEdge:ArXiv-2408.17171v1/methods

来自WikiEdge
David留言 | 贡献2024年9月3日 (二) 03:49的版本 (Saved page by David)
(差异) ←上一版本 | 最后版本 (差异) | 下一版本→ (差异)
跳转到导航 跳转到搜索
编辑

工作方法

这篇论文的工作方法是提出了SafeTail框架,这是一个基于奖励的深度学习框架,旨在通过计算冗余管理来优化边缘服务调度中的尾部延迟。SafeTail通过选择性地在多个边缘服务器上复制服务来满足目标延迟,使用基于奖励的深度学习框架来学习最优的服务放置策略,平衡实现目标延迟和最小化额外资源使用的需要。通过追踪驱动的模拟,SafeTail展示了在三种不同服务中接近最优的性能,并在大多数基线策略上表现更好。