查看“WikiEdge:ArXiv-2408.17171v1/methods”的源代码
←
WikiEdge:ArXiv-2408.17171v1/methods
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17171v1/methods|action=edit}} 编辑]</div> 这篇论文的工作部分详细介绍了如何开发和评估提出的[[SafeTail]]框架,旨在优化[[边缘计算]]中的[[尾部延迟]]。以下是这部分的主要内容: # '''尾部延迟优化([[Tail Latency Optimization]])''': #* 定义了尾部延迟的概念,即超过90百分位阈值的延迟。该研究旨在通过在多个边缘服务器上选择性地复制服务来满足目标延迟。 # '''SafeTail框架''': #* 提出了SafeTail,这是一个基于奖励的[[深度学习]]框架,通过学习优化的服务放置策略,在实现目标延迟和最小化额外资源使用之间取得平衡。 # '''深度学习模型([[Deep Learning Model]])''': #* 利用[[深度强化学习]]([[DRL]])来减少任务完成时间,通过奖励低延迟的调度来实现。SafeTail框架结合了冗余调度和基于奖励的深度学习方法。 # '''实验设置和模拟([[Experimental Setup and Simulation]])''': #* 通过追踪驱动的模拟,SafeTail在三种不同的服务上展示了接近最优的性能,并在大多数基线策略上表现更好。实验依赖于收集的[[WiFi]]网络和计算追踪。 # '''问题公式化([[Problem Formulation]])''': #* 数学上定义了框架的输入,包括一组同质的边缘服务器、每个服务器的动态状态、用户的位置和设备要求、服务的特征等。 # '''冗余调度([[Redundant Scheduling]])''': #* 冗余调度的目标是在多个边缘服务器上复制服务的执行,以最小化延迟变异并实现最快的响应。 # '''奖励函数([[Reward Function]])''': #* 基于行动优化尾部延迟和资源利用的有效性来给予奖励。定义了目标延迟,并根据实现的延迟与目标延迟的相对关系来计算奖励。 # '''性能评估([[Performance Evaluation]])''': #* 使用不同的性能指标来衡量SafeTail与基线方法的比较,包括访问率、延迟偏差、奖励的绝对值以及与基线方法在中值和尾部延迟方面的比较。
返回
WikiEdge:ArXiv-2408.17171v1/methods
。
导航菜单
个人工具
创建账号
登录
命名空间
项目页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
工具
链入页面
相关更改
特殊页面
页面信息