WikiEdge:ArXiv-2408.17171v1/terms
{{| class="wikitable" |+ caption 术语表 ! scope="col" width="10%" | 术语 ! scope="col" width="40%" | 定义或解释 ! scope="col" width="40%" | 备注 |- | 边缘计算(Edge Computing) || 边缘计算是一种分布式计算范式,它将计算、存储和网络服务靠近数据源或用户的位置,以减少延迟和带宽使用。|| 文中提到边缘计算对于提供无缝且高质量的用户体验至关重要。 |- | 增强现实(Augmented Reality, AR) || 增强现实是一种将数字信息叠加到现实世界的技术,通过智能手机、平板电脑或特殊眼镜等设备实现。|| 文中提及AR应用在交互式游戏或导航中需要近乎即时的处理能力。 |- | 虚拟实境(Virtual Reality, VR) || 虚拟实境是一种计算机模拟的三维环境,用户可以与之交互并沉浸其中。|| 文中提到VR体验依赖于最小延迟来创建无滞后的沉浸式环境。 |- | 实时视频会议(Real-time Video Conferencing) || 实时视频会议是一种通信技术,允许多人通过互联网进行面对面的视频交流。|| 文中指出实时视频会议工具需要快速数据传输来维持清晰和不间断的通信。 |- | 延迟敏感型应用(Latency-Sensitive Applications) || 延迟敏感型应用是指对服务延迟有严格要求的应用程序,如AR、VR和实时视频会议。|| 文中强调了优化这些应用的尾部延迟的重要性。 |- | 尾部延迟(Tail Latency) || 尾部延迟是指超过特定百分位阈值(如90th、95th、99th百分位)的延迟。|| 文中定义尾部延迟为超过90th百分位阈值的延迟,并提出了优化尾部延迟的框架SafeTail。 |- | 计算冗余(Computational Redundancy) || 计算冗余是指通过在多个计算资源上重复执行任务来提高系统的可靠性和性能。|| 文中探讨了通过引入冗余来减少尾部延迟的技术。 |- | 深度强化学习(Deep Reinforcement Learning, DRL) || 深度强化学习是一种结合了深度学习和强化学习的机器学习方法,用于解决复杂的决策问题。|| 文中提到了使用DRL来优化边缘服务器上的任务调度。 |- | 奖励驱动的深度学习(Reward-based Deep Learning) || 奖励驱动的深度学习是一种通过奖励机制来训练深度学习模型的方法,以学习达到特定目标的策略。|| 文中介绍了SafeTail框架使用奖励驱动的深度学习来学习最优的服务放置策略。 |- | 服务放置(Service Placement) || 服务放置是指在分布式系统中决定在哪个计算节点上执行服务的过程。|| 文中讨论了服务放置策略对于优化延迟和资源使用的重要性。 |- | 资源利用率(Resource Utilization) || 资源利用率是指在给定时间内系统中资源的使用效率。|| 文中强调了在优化延迟的同时最小化额外资源使用的必要性。 |- | SafeTail || SafeTail是一个框架,通过选择性地在多个边缘服务器上复制服务来满足目标延迟。|| 文中详细介绍了SafeTail框架如何通过奖励驱动的深度学习来优化尾部延迟。 |- | 奖励函数(Reward Function) || 奖励函数是强化学习中用于评价智能体所采取行动好坏的函数。|| 文中定义了SafeTail使用的奖励函数,以优化尾部延迟和资源利用。 |- | 状态(State) || 在强化学习中,状态是对环境在特定时间点的描述。|| 文中描述了SafeTail中环境状态的定义,包括边缘服务器的动态状态和服务属性。 |- | 动作(Action) || 在强化学习中,动作是智能体在给定状态下可以采取的决策。|| 文中提到SafeTail根据当前状态选择一组边缘服务器来执行服务的动作。 |- | 奖励(Reward) || 奖励是智能体采取动作后从环境中获得的反馈。|| 文中讨论了SafeTail如何根据动作的效果给予奖励,以优化尾部延迟和资源使用。 |- | 探索与利用(Exploration and Exploitation) || 探索与利用是强化学习中的一个概念,指的是在未知环境中尝试新策略(探索)与利用已知信息进行决策(利用)之间的平衡。|| 文中提到SafeTail使用探索与利用策略来选择动作。 |}