WikiEdge:ArXiv-2408.17171v1/terms:修订间差异

来自WikiEdge
跳转到导航 跳转到搜索
David留言 | 贡献
Saved page by David
 
David留言 | 贡献
Saved page by David
 
(未显示2个用户的2个中间版本)
第1行: 第1行:
<!-- 不要移除下面第一行,如果有编辑错误,请直接修改第二行以后的内容 -->
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17171v1/terms|action=edit}} 编辑]</div>
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17171v1/terms|action=edit}} 编辑]</div>
{{| class="wikitable"
* [[边缘计算]](Edge Computing)边缘计算是一种分布式计算范式,它将计算、存储和网络服务靠近数据源或用户的位置,以减少延迟和带宽使用。
|+ caption 术语表
* [[增强现实]](Augmented Reality, AR)增强现实是一种通过在用户的视野中叠加数字信息来增强现实世界的技术。
! scope="col" width="10%" | 术语
* [[虚拟实]](Virtual Reality, VR)虚拟实是一种计算机技术,它创建一个完全虚拟的环境,用户可以与之交互,仿佛置身于现实世界中。
! scope="col" width="40%" | 定义或解释
* [[实时视频会议]](Real-time Video Conferencing)实时视频会议是一种通信技术,允许用户在不同地点通过视频和音频进行即时交流。
! scope="col" width="40%" | 备注
* [[服务延迟]](Service Latency:服务延迟是指从用户请求服务到服务完成所经历的时
|-
* [[尾延迟]](Tail Latency)尾延迟通常指超过90百分位阈值的延迟,是衡量系统性能关键指标特别是在边缘计算环境中
| [[边缘计算]](Edge Computing) || 边缘计算是一种分布式计算范式,它将计算、存储和网络服务靠近数据源或用户的位置,以减少延迟和带宽使用。|| 文中提到边缘计算对于提供无缝且高质量的用户体验至关重要
* [[计算冗余]](Computational Redundancy)计算冗余是一种通过在多个计算节点上复任务来提高系统可靠性和降低延迟的技术。
|-
* [[深度强化学习]](Deep Reinforcement Learning, DRL)深度强化学习是一种机器学习方法,它结合了深度学习和强化学习,用于解决复杂的决策问题。
| [[增强现实]](Augmented Reality, AR) || 增强现实是一种数字信息叠加到现实世界的技术,通过智能手机、平板电脑或特殊眼镜等设备实现。|| 文中提及AR应用在交互式游戏或导航中需要近乎即时的处理能力
* [[奖励机制]](Reward Mechanism:在强化学习中,奖励机制用于评价智能体行为指导其学习过程以特定目标。
|-
* [[延迟优化]](Latency Optimization:延迟优化是指通过各种技术和策略减少系统处理请求所需时间,以提高系统性能和用户体验
| [[虚拟实]](Virtual Reality, VR) || 虚拟实是一种计算机拟的三维环境,用户可以与之交互并沉浸其中。|| 文提到VR体验依赖于最小延迟来创建无滞后的沉浸式环境
* [[资源管理]](Resource Management资源管理涉及对计算资源(如CPU、内存、存储网络带宽)的分配调度,以确保系统高行。
|-
| [[实时视频会议]](Real-time Video Conferencing) || 实时视频会议是一种通信技术,允许多人通过互联网进行面对面的视频交流。|| 文中指出实时视频会议工具需要快速数据传输来维持清晰和不间断的通信
|-
| [[延迟敏感型应用]](Latency-Sensitive Applications|| 延迟敏感型应用是指服务延迟有严格要求应用程序,如AR、VR和实视频会议。|| 文中强调了优化这些应用的尾部延迟的重要性
|-
| [[尾延迟]](Tail Latency) || 延迟指超过特定百分位阈值(如90th、95th、99th百分位)的延迟。|| 文中定义尾部延迟为超过90th百分位阈值延迟并提出了优化尾部延迟的框架SafeTail
|-
| [[计算冗余]](Computational Redundancy) || 计算冗余是通过在多个计算资源执行任务来提高系统可靠性和性能。|| 文中探讨了通过引入冗余来减少尾部延迟的技术。
|-
| [[深度强化学习]](Deep Reinforcement Learning, DRL) || 深度强化学习是一种结合了深度学习和强化学习的机器学习方法,用于解决复杂的决策问题。|| 文中提到了使用DRL来优化边缘服务器上的任务调度。
|-
| [[奖励驱动的深度学习]](Reward-based Deep Learning|| 奖励驱动的深度学习是一种通过奖励机制来训练深度学习模型方法学习达特定目标的策略|| 文中介绍了SafeTail框架使用奖励驱动的深度学习来学习最优的服务放置策略。
|-
| [[服务放置]](Service Placement|| 服务放置是指在分布式系统中决定在哪个计算节点上执行服务过程。|| 文中讨论了服务放置策略对于优化延迟资源使的重要性
|-
| [[资源利用率]](Resource Utilization|| 资源利用率是指在给定时间内系统中资源的使用效率。|| 文中强调了在优化延迟的同时最小化额外资源使用的必要性。
|-
| [[SafeTail]] || SafeTail是一个框架,通过选择性地在多个边缘服务器上复制服务来满足目标延迟。|| 文中详细介绍了SafeTail框架如何通过奖励驱动的深度学习来优化尾部延迟。
|-
| [[奖励函数]](Reward Function) || 奖励函数是强化学习中用于评价智能体所采取行动好坏的函数。|| 文中定义了SafeTail使用的奖励函数,以优化尾部延迟资源利用。
|-
| [[状态]](State|| 在强化学习中,状态是对环境在特定时间点描述。|| 文中描述了SafeTail中环境状态的定义,包括边缘服务器的动态状态服务属性。
|-
| [[动作]](Action) || 在强化学习中动作是智能体在给定状态下可采取的决策。|| 文中提到SafeTail根据当前状态选择一组边缘服务器来执行服务的动作。
|-
| [[奖励]](Reward) || 奖励是智能体采取动作后从环境中获得的反馈。|| 文中讨论了SafeTail如何根据动作的果给予奖励,以优化尾部延迟和资源使用。
|-
| [[探索与利用]](Exploration and Exploitation) || 探索与利用是强化学习中的一个概念,指的是在未知环境中尝试新策略(探索)与利用已知信息进决策(利用)之间的平衡。|| 文中提到SafeTail使用探索与利用策略来选择动作
|}

2024年9月3日 (二) 09:13的最新版本

编辑
  • 边缘计算(Edge Computing):边缘计算是一种分布式计算范式,它将计算、存储和网络服务靠近数据源或用户的位置,以减少延迟和带宽使用。
  • 增强现实(Augmented Reality, AR):增强现实是一种通过在用户的视野中叠加数字信息来增强现实世界的技术。
  • 虚拟现实(Virtual Reality, VR):虚拟现实是一种计算机技术,它创建一个完全虚拟的环境,用户可以与之交互,仿佛置身于现实世界中。
  • 实时视频会议(Real-time Video Conferencing):实时视频会议是一种通信技术,允许用户在不同地点通过视频和音频进行即时交流。
  • 服务延迟(Service Latency):服务延迟是指从用户请求服务到服务完成所经历的时间。
  • 尾延迟(Tail Latency):尾延迟通常指超过90百分位阈值的延迟,是衡量系统性能的关键指标,特别是在边缘计算环境中。
  • 计算冗余(Computational Redundancy):计算冗余是一种通过在多个计算节点上复制任务来提高系统可靠性和降低延迟的技术。
  • 深度强化学习(Deep Reinforcement Learning, DRL):深度强化学习是一种机器学习方法,它结合了深度学习和强化学习,用于解决复杂的决策问题。
  • 奖励机制(Reward Mechanism):在强化学习中,奖励机制用于评价智能体的行为,指导其学习过程以达成特定的目标。
  • 延迟优化(Latency Optimization):延迟优化是指通过各种技术和策略减少系统处理请求所需的时间,以提高系统性能和用户体验。
  • 资源管理(Resource Management):资源管理涉及对计算资源(如CPU、内存、存储和网络带宽)的分配和调度,以确保系统高效运行。