WikiEdge:ArXiv-2408.17171v1/terms:修订间差异

来自WikiEdge
跳转到导航 跳转到搜索
无编辑摘要
David留言 | 贡献
Saved page by David
第1行: 第1行:
<!-- 不要移除下面第一行,如果有编辑错误,请直接修改第二行以后的内容 -->
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17171v1/terms|action=edit}} 编辑]</div>
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17171v1/terms|action=edit}} 编辑]</div>
{| class="wikitable"
* [[边缘计算]](Edge Computing)边缘计算是一种分布式计算范式,它将计算、存储和网络服务靠近数据源或用户的位置,以减少延迟和带宽使用。
|+ caption 术语表
* [[尾延迟]](Tail Latency):尾延迟通常指服务响应时间的百分位数(如90th, 95th, 99th百分位),它反映了最慢的服务响应时间,是衡系统性能的关键指标
! scope="col" width="10%" | 术语
* [[增强现实]](Augmented Reality, AR)增强现实是一种将虚拟信息叠加到现实世界的技术,通过智能手机、头显等设备为用户交互式的体验
! scope="col" width="40%" | 定义或解释
* [[虚拟实]](Virtual Reality, VR)虚拟实是一种计算机模拟技术通过头戴设备沉浸式的虚拟环境体验
! scope="col" width="40%" | 备注
* [[实时视频会议]](Real-time Video Conferencing)实时视频会议是一种通信技术,允许多人通过互联网进行面对面的视频交流。
|-
* [[计算冗余]](Computational Redundancy)计算冗余是一种通过在多个计算节点上重复执行任务来提高系统可靠性和容错的技术。
| [[边缘计算]](Edge Computing) || 边缘计算是一种分布式计算范式,它将计算、存储和网络服务靠近数据源或用户的位置,以减少延迟和带宽使用。|| 文中提到边缘计算对于提供无缝且量的用户体验至重要
* [[深度强化学习]](Deep Reinforcement Learning, DRL)深度强化学习是一种结合了深度学习和强化学习的法,通过与环境交互学习最优
|-
* [[奖励机制]](Reward-based Mechanism奖励机制是一种反馈系统,用于强化学习中指导智能体行为使其学习达到特定目标。
| [[增强现实]](Augmented Reality, AR) || 增强现实是一种将数字信息叠加到现实世界的技术,通过智能手机、平板电脑或特殊眼镜等设备实现。|| 文中及AR应用在交互式游戏或导航中需要近乎即时处理能力
* [[服务分发]](Service Scheduling服务分发将计算任务配到网络的不同服务器或节点的过程,以优化资源使用和响应时间。
|-
* [[延迟优化]](Latency Optimization延迟化是减少系统响应时间的过程通常涉及到网络、计算存储资源的管理和调度
| [[虚拟实]](Virtual Reality, VR) || 虚拟实是一种计算机模拟的三维环境用户可以与之交互并沉浸其中。|| 文中到VR体验依赖于最小延迟来创建无滞后的沉浸式环境。
|-
| [[实时视频会议]](Real-time Video Conferencing) || 实时视频会议是一种通信技术,允许多人通过互联网进行面对面的视频交流。|| 文中指出实时视频会议工具需要快速数据传输来维持清晰和不间断的通信
|-
| [[延迟敏感型应用]](Latency-Sensitive Applications) || 延迟敏感型应用是指对服务延迟有严格要求的应用程序,如AR、VR和实时视频会议。|| 文中强调了优化这些应用的尾部延迟的重要性。
|-
| [[尾部延迟]](Tail Latency) || 尾部延迟是指超过特定百分位阈值(如90th、95th、99th百分位)的延迟。|| 文中定义尾部延迟为超过90th百分位阈值的延迟,并提出了优化尾部延迟的框架SafeTail。
|-
| [[计算冗余]](Computational Redundancy) || 计算冗余是通过在多个计算资源上重复执行任务来提高系统可靠性和。|| 文中探讨了通过引入冗余来减少尾部延迟的技术。
|-
| [[深度强化学习]](Deep Reinforcement Learning, DRL) || 深度强化学习是一种结合了深度学习和强化学习的机器学习方法,用于解决复杂问题|| 文中提到了使用DRL来优化边缘服务器上的任务调度。
|-
| [[奖励驱动的深度学习]](Reward-based Deep Learning|| 奖励驱动的深度学习是一种通过奖励机制来训练深度学习模型方法学习达到特定目标的策略。|| 文中介绍了SafeTail框架使用奖励驱动的深度学习来学习最优的服务放置策略
|-
| [[服务放置]](Service Placement|| 服务放置指在布式系统决定在哪个计算节点上执行服务的过程。|| 文中讨论了服务放置策略对于优化延迟和资源使用的重要性。
|-
| [[资源利用率]](Resource Utilization) || 资源利用率是指在给定时间内系统中资源的使用效率。|| 文中强调了在优化延迟的同时最小化额外资源使用的必要性
|-
| [[SafeTail]] || SafeTail是一个框架,通过选择性地在多个边缘服务器上复制服务来满足目标延迟。|| 文中详细介绍了SafeTail框架如何通过奖励驱动的深度学习来优化尾部延迟。
|-
| [[奖励函数]](Reward Function|| 奖励函数是强化学习中用于评价智能体所采取行动好坏的函数。|| 文中定义了SafeTail使用的奖励函数,以优化尾部延迟和资源利用。
|-
| [[状态]](State) || 在强学习中,状态对环境在特定时间描述。|| 文中描述了SafeTail中环境状态的定义包括边缘服务器的动态状态和服务属性。
|-
| [[动作]](Action) || 在强化学习中,动作是智能体在给定状态下可以采取的决策。|| 文中提到SafeTail根据当前状态选择一组边缘服务器来执行服务的动作。
|-
| [[奖励]](Reward) || 奖励是智能体采取动作后从环境中获得的反馈。|| 文中讨论了SafeTail如何根据动作的效果给予奖励,以优化尾部延迟和资源使用。
|-
| [[探索与利用]](Exploration and Exploitation) || 探索与利用是强化学习中一个概念,指的是在未知环境中尝试新策略(探索)与利用已知信息进行决策(利用)之间的平衡。|| 文中提到SafeTail使用探索与利用策略来选择动作
|}

2024年9月3日 (二) 07:35的版本

编辑
  • 边缘计算(Edge Computing):边缘计算是一种分布式计算范式,它将计算、存储和网络服务靠近数据源或用户的位置,以减少延迟和带宽使用。
  • 尾延迟(Tail Latency):尾延迟通常指服务响应时间的高百分位数(如90th, 95th, 99th百分位),它反映了最慢的服务响应时间,是衡量系统性能的关键指标。
  • 增强现实(Augmented Reality, AR):增强现实是一种将虚拟信息叠加到现实世界的技术,通过智能手机、头显等设备为用户提供交互式的体验。
  • 虚拟现实(Virtual Reality, VR):虚拟现实是一种计算机模拟技术,通过头戴设备提供沉浸式的虚拟环境体验。
  • 实时视频会议(Real-time Video Conferencing):实时视频会议是一种通信技术,允许多人通过互联网进行面对面的视频交流。
  • 计算冗余(Computational Redundancy):计算冗余是一种通过在多个计算节点上重复执行任务来提高系统可靠性和容错能力的技术。
  • 深度强化学习(Deep Reinforcement Learning, DRL):深度强化学习是一种结合了深度学习和强化学习的算法,通过与环境的交互学习最优策略。
  • 奖励机制(Reward-based Mechanism):奖励机制是一种反馈系统,用于强化学习中指导智能体的行为,使其学习达到特定的目标。
  • 服务分发(Service Scheduling):服务分发是将计算任务分配到网络中的不同服务器或节点的过程,以优化资源使用和响应时间。
  • 延迟优化(Latency Optimization):延迟优化是减少系统响应时间的过程,通常涉及到网络、计算和存储资源的管理和调度。