查看“WikiEdge:ArXiv-2408.17171v1/summary”的源代码
←
WikiEdge:ArXiv-2408.17171v1/summary
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17171v1/summary|action=edit}} 编辑]</div> 这份文件是一篇关于[[边缘计算]]中[[尾延迟]]优化的研究论文,论文的主要内容可以概括如下: # '''引言''':介绍了边缘计算中对延迟敏感应用的重要性,如[[增强现实]]([[AR]])、[[虚拟现实]]([[VR]])和实时[[视频会议]]等,这些应用需要极低的延迟以确保响应性和流畅的交互。论文指出现有研究多关注优化中位数延迟,而忽视了尾延迟的挑战,尤其是在网络和计算延迟不确定性较高的边缘环境中。 # '''问题阐述''':详细分析了尾延迟在边缘计算中的挑战,包括网络和计算延迟的不确定性,以及现有方法在处理尾延迟方面的不足。提出了[[SafeTail]]框架,旨在通过计算冗余管理来优化尾延迟,同时高效地管理计算资源。 # '''系统模型和问题公式化''':建立了边缘服务器集、用户设备和服务的数学模型,并定义了服务延迟的计算方式。假设了边缘服务器能接受的请求数量限制、资源均等分配等条件,并提出了优化尾延迟的目标。 # '''尾延迟分析:实证研究''':通过实验研究了不同计算和网络负载下尾延迟的表现,选择了[[YOLOv5]]目标检测服务作为案例,分析了[[RAM]]使用量、[[CPU]]背景工作负载、可用核心数和网络负载等因素对延迟的影响。 # '''框架和方法论''':详细介绍了SafeTail框架,该框架使用基于奖励的[[深度学习]]框架来学习最优的服务放置策略。SafeTail通过冗余调度和奖励机制动态调整冗余,以最小化延迟和资源使用。 # '''实验设置和结果分析''':构建了模拟器来模拟边缘服务器和用户设备的拓扑结构,收集了网络和执行跟踪数据,并使用这些数据来评估SafeTail的性能。与四种基线方法进行了比较,包括[[Oracle]]最优方法、随机选择方法、最小传播延迟方法和最小负载方法。 # '''相关工作''':回顾了优化延迟敏感服务、基于学习的边缘服务调度和使用冗余减少延迟的相关研究。 # '''局限性和未来工作''':讨论了SafeTail在同质边缘服务器集上的评估局限性,并提出了未来工作的方向,包括考虑异构环境、用户网络中的服务需求和服务器等待时间的建模。 # '''结论''':总结了SafeTail框架的主要贡献,即通过自适应冗余和智能管理额外边缘服务器的使用来优化服务执行延迟,同时在延迟和资源利用之间取得了良好的平衡。
返回
WikiEdge:ArXiv-2408.17171v1/summary
。
导航菜单
个人工具
创建账号
登录
命名空间
项目页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
工具
链入页面
相关更改
特殊页面
页面信息