WikiEdge:ArXiv-2408.17171v1/terms

出自WikiEdge
於 2024年9月3日 (二) 03:54 由 Mingli留言 | 貢獻 所做的修訂
跳至導覽 跳至搜尋
編輯
caption 術語表
術語 定義或解釋 備註
邊緣計算(Edge Computing) 邊緣計算是一種分布式計算範式,它將計算、存儲和網絡服務靠近數據源或用戶的位置,以減少延遲和帶寬使用。 文中提到邊緣計算對於提供無縫且高質量的用戶體驗至關重要。
增強現實(Augmented Reality, AR) 增強現實是一種將數字信息疊加到現實世界的技術,通過智能手機、平板電腦或特殊眼鏡等設備實現。 文中提及AR應用在交互式遊戲或導航中需要近乎即時的處理能力。
虛擬實境(Virtual Reality, VR) 虛擬實境是一種計算機模擬的三維環境,用戶可以與之交互並沉浸其中。 文中提到VR體驗依賴於最小延遲來創建無滯後的沉浸式環境。
實時視頻會議(Real-time Video Conferencing) 實時視頻會議是一種通信技術,允許多人通過互聯網進行面對面的視頻交流。 文中指出實時視頻會議工具需要快速數據傳輸來維持清晰和不間斷的通信。
延遲敏感型應用(Latency-Sensitive Applications) 延遲敏感型應用是指對服務延遲有嚴格要求的應用程序,如AR、VR和實時視頻會議。 文中強調了優化這些應用的尾部延遲的重要性。
尾部延遲(Tail Latency) 尾部延遲是指超過特定百分位閾值(如90th、95th、99th百分位)的延遲。 文中定義尾部延遲為超過90th百分位閾值的延遲,並提出了優化尾部延遲的框架SafeTail。
計算冗餘(Computational Redundancy) 計算冗餘是指通過在多個計算資源上重複執行任務來提高系統的可靠性和性能。 文中探討了通過引入冗餘來減少尾部延遲的技術。
深度強化學習(Deep Reinforcement Learning, DRL) 深度強化學習是一種結合了深度學習和強化學習的機器學習方法,用於解決複雜的決策問題。 文中提到了使用DRL來優化邊緣服務器上的任務調度。
獎勵驅動的深度學習(Reward-based Deep Learning) 獎勵驅動的深度學習是一種通過獎勵機制來訓練深度學習模型的方法,以學習達到特定目標的策略。 文中介紹了SafeTail框架使用獎勵驅動的深度學習來學習最優的服務放置策略。
服務放置(Service Placement) 服務放置是指在分布式系統中決定在哪個計算節點上執行服務的過程。 文中討論了服務放置策略對於優化延遲和資源使用的重要性。
資源利用率(Resource Utilization) 資源利用率是指在給定時間內系統中資源的使用效率。 文中強調了在優化延遲的同時最小化額外資源使用的必要性。
SafeTail SafeTail是一個框架,通過選擇性地在多個邊緣服務器上複製服務來滿足目標延遲。 文中詳細介紹了SafeTail框架如何通過獎勵驅動的深度學習來優化尾部延遲。
獎勵函數(Reward Function) 獎勵函數是強化學習中用於評價智能體所採取行動好壞的函數。 文中定義了SafeTail使用的獎勵函數,以優化尾部延遲和資源利用。
狀態(State) 在強化學習中,狀態是對環境在特定時間點的描述。 文中描述了SafeTail中環境狀態的定義,包括邊緣服務器的動態狀態和服務屬性。
動作(Action) 在強化學習中,動作是智能體在給定狀態下可以採取的決策。 文中提到SafeTail根據當前狀態選擇一組邊緣服務器來執行服務的動作。
獎勵(Reward) 獎勵是智能體採取動作後從環境中獲得的反饋。 文中討論了SafeTail如何根據動作的效果給予獎勵,以優化尾部延遲和資源使用。
探索與利用(Exploration and Exploitation) 探索與利用是強化學習中的一個概念,指的是在未知環境中嘗試新策略(探索)與利用已知信息進行決策(利用)之間的平衡。 文中提到SafeTail使用探索與利用策略來選擇動作。