WikiEdge:ArXiv速遞/2025-04-16

出自WikiEdge
跳至導覽 跳至搜尋

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能變異性研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證研究量化了雲性能波動對基準測試結果的影響,重點關注流處理應用這一具有代表性的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而能夠評估性能波動的多個維度(特別是時間效應相關因素)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期周周期模式,儘管波動幅度較小(≤2.5%)。跨多次測試重複使用基準測試基礎設施僅會導致結果準確度輕微下降(≤2.5個百分點)。這些關鍵發現在不同雲區域和採用不同處理器架構的機器類型中均保持一致。我們得出結論:對於關注檢測顯著性能差異(例如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem
  • 中文標題:依賴困境:Maven中央生態系統中獨立與依賴構件的對比研究
  • 發佈日期:2025-04-16 17:15:58+00:00
  • 作者:Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury
  • 分類:cs.SE
  • 原文連結http://arxiv.org/abs/2504.12261v1

中文摘要Maven Central生態系統構成了Java依賴管理的核心,承載着在採用率、安全性和生態系統角色上差異顯著的構件。構件復用是軟件開發的基礎,而Maven Central等生態系統促進了這一過程。然而,先前研究主要分析了具有大量依賴的熱門構件,對無傳入依賴的獨立構件缺乏探索。本研究分析了658,078個構件(其中635,003個至少有一個發佈版本),發現93,101個構件(15.4%)為獨立構件(入度=0),其餘歸類為依賴構件。通過PageRank和出度中心性分析發現,獨立構件對生態系統至關重要。針對18項指標的進一步分析揭示了獨立構件相較於依賴構件的優勢與可比性:流行度相當(25.58 vs. 7.30)、漏洞更少(60個CVE vs. 179個CVE)且無傳播漏洞。這些結果表明,獨立構件顯著影響生態系統,為開發者提供了安全、自包含的傳統依賴替代方案。研究發現獨立構件可能是依賴關係的有利選擇,但存在可維護性問題。因此開發者應審慎引入獨立構件,而構件維護者應優先關注此類構件,以降低傳遞性漏洞傳播風險並提升軟件可持續性。

摘要

  • 原文標題:Towards Realistic Low-Light Image Enhancement via ISP Driven Data Modeling
  • 中文標題:基於圖像信號處理驅動的數據建模實現真實低光照圖像增強
  • 發佈日期:2025-04-16 15:53:53+00:00
  • 作者:Zhihua Wang, Yu Long, Qinghua Lin, Kai Zhang, Yazhu Zhang, Yuming Fang, Li Liu, Xiaochun Cao
  • 分類:cs.CV, cs.MM
  • 原文連結http://arxiv.org/abs/2504.12204v1

中文摘要深度神經網絡(DNNs)近期已成為低光照圖像增強(LLIE)的主流方法。然而儘管取得顯著進展,在實際應用中其輸出仍可能呈現噪聲放大白平衡偏差增強失真等問題。關鍵挑戰在於缺乏能捕捉低光照條件成像流程複雜性的多樣化大規模訓練數據。本文提出一種新穎的圖像信號處理(ISP)驅動數據合成流程,通過生成無限量配對訓練數據解決這些難題。具體而言,我們的流程從易採集的高質量正常光照圖像出發,先通過逆向ISP將其還原為RAW格式,隨後直接在RAW域合成低光照退化。生成的數據繼而經過包含白平衡調整色彩空間轉換色調映射伽馬校正ISP處理階段,並在各階段引入可控變異。這有效擴展了退化空間並增強訓練數據多樣性,使生成數據能涵蓋廣泛退化類型ISP流程固有複雜性。為驗證合成流程的有效性,我們採用僅包含卷積層組歸一化GeLU激活卷積注意力模塊(CBAM)的基礎UNet模型進行大量實驗。跨多數據集的測試表明,基於本數據合成流程訓練的UNet模型能生成高保真、視覺愉悅的增強結果,在定量評估定性評估上均超越現有最優方法。

摘要

  • 原文標題:Advancing quantum simulations of nuclear shell model with noise-resilient protocols
  • 中文標題:基於噪聲魯棒協議推進核殼模型的量子模擬
  • 發佈日期:2025-04-16 01:13:39+00:00
  • 作者:Nifeeya Singh, Pooja Siwach, P. Arumugam
  • 分類:quant-ph, nucl-th
  • 原文連結http://arxiv.org/abs/2504.11689v1

中文摘要:摘要:解決核多體問題的部分計算限制可通過量子計算機克服。核殼層模型計算能深入揭示原子核性質,但隨着希爾伯特空間粒子數呈指數增長,這類計算對資源需求極高。當前正開發量子算法以應對這些挑戰並推進此類計算。為構建核殼層模型的量子電路,我們利用噪聲中等規模量子NISQ)設備的特性,致力於通過優化資源需求(特別是量子比特量子門數量)並採用噪聲抑制技術來降低噪聲影響。我們通過以下設計實現噪聲魯棒性:基於Givens旋轉變分量子本徵求解器VQE)設計優化擬設;結合qubit-ADAPT-VQE變分量子緊縮VQD)計算基態激發態,並融入零噪聲外推抑制技術;通過格雷碼編碼將基態映射到量子比特,並推廣費米子算符變換以高效表示多體態,從而顯著減少量子比特需求。採用這些抗噪聲方案後,我們以更高精度獲得了38Ar6Li的基態與激發態能級,並分別呈現了無噪聲模擬、含噪聲環境及噪聲抑制後的結果。研究對比了Jordan-Wigner編碼與格雷碼編碼在VQE、qubit-ADAPT-VQE和VQD中的表現。本工作彰顯了抗噪聲方案在充分發揮NISQ設備潛力以擴展核殼層模型計算方面的價值。

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)考察性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期周周期模式,但波動幅度較小(≤2.5%)。跨多次測試重複使用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師研究人員而言...

摘要

  • 原文標題:Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem
  • 中文標題:依賴困境:Maven Central生態系統中獨立與依賴構件的對比研究
  • 發佈日期:2025-04-16 17:15:58+00:00
  • 作者:Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury
  • 分類:cs.SE
  • 原文連結http://arxiv.org/abs/2504.12261v1

中文摘要Maven Central生態系統構成了Java依賴管理的核心,承載着在採用率、安全性和生態系統角色上差異顯著的構件。構件重用是軟件開發的基礎,而Maven Central等生態系統促進了這一過程。然而,先前研究主要分析了具有大量依賴的熱門構件,對無傳入依賴的獨立構件缺乏探索。本研究分析了658,078個構件(其中635,003個至少有一個發佈版本),發現93,101個構件(15.4%)為獨立構件(入度=0),其餘歸類為依賴構件。通過PageRank和出度中心性分析發現,獨立構件對生態系統至關重要。針對18項指標的進一步分析揭示了獨立構件相較於依賴構件的優勢與可比性:流行度相當(25.58 vs. 7.30)、漏洞更少(60個CVE vs. 179個CVE)且無傳播性漏洞。結果表明,獨立構件顯著影響生態系統,為開發者提供了安全、自包含的傳統依賴替代方案。這些發現表明獨立構件可能是更優的依賴選擇,但也存在可維護性問題。因此開發者應審慎引入獨立構件,而構件維護者應優先關注此類構件,以降低傳遞性漏洞傳播風險並提升軟件可持續性

摘要

  • 原文標題:Advancing quantum simulations of nuclear shell model with noise-resilient protocols
  • 中文標題:基於噪聲彈性協議推進核殼模型的量子模擬
  • 發佈日期:2025-04-16 01:13:39+00:00
  • 作者:Nifeeya Singh, Pooja Siwach, P. Arumugam
  • 分類:quant-ph, nucl-th
  • 原文連結http://arxiv.org/abs/2504.11689v1

中文摘要:摘要:通過利用量子計算機,可以克服解決核多體問題中的部分計算限制。核殼模型計算能更深入揭示原子核性質,但隨着希爾伯特空間隨粒子數呈指數增長,這類計算對資源需求極高。目前正通過開發量子算法來突破這些限制並推進此類計算。為構建核殼模型的量子電路,我們充分利用噪聲中等規模量子NISQ)設備的特性,致力於通過優化資源需求(特別是量子比特量子門數量)並採用噪聲緩解技術來降低噪聲影響。我們基於吉文斯旋轉變分量子本徵求解器VQE)設計優化擬設,結合量子比特自適應VQEqubit-ADAPT-VQE)與變分量子緊縮VQD)方法計算基態激發態,同時引入零噪聲外推緩解技術,從而實現噪聲魯棒性。此外,通過格雷碼編碼將基態映射到量子比特,並推廣費米子算符變換以高效表示多體態,顯著減少了量子比特需求。採用這些抗噪聲方案後,我們以更高精度獲得了³⁸Ar和⁶Li的基態與激發態能級,並分別呈現了無噪聲模擬、含噪聲條件及噪聲緩解後的結果。研究對比了採用VQE、qubit-ADAPT-VQE和VQD方法時喬丹-維格納編碼與格雷碼編碼的效果。本工作凸顯了抗噪聲方案在充分發揮NISQ設備潛力、擴展核殼模型計算規模方面的巨大潛力。

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動性研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式系統數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試間的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注作為數據密集型關鍵性能系統代表的流處理應用。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應相關)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期周周期模式,儘管波動幅度較小(≤2.5%)。跨多次測試復用基準設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和採用不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem
  • 中文標題:依賴困境:Maven Central生態系統中獨立與依賴構件的對比研究
  • 發佈日期:2025-04-16 17:15:58+00:00
  • 作者:Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury
  • 分類:cs.SE
  • 原文連結http://arxiv.org/abs/2504.12261v1

中文摘要Maven Central生態系統構成了Java依賴管理的核心,承載着在採用率安全性生態系統角色上差異顯著的構件構件復用軟件開發的基礎,而Maven Central生態系統促進了這一過程。然而,先前研究主要分析了具有大量依賴的熱門構件,忽略了那些沒有傳入依賴的獨立構件。本研究分析了658,078個構件(其中635,003個至少有一個發佈版本),發現93,101個構件(15.4%)為獨立構件入度=0),其餘歸類為依賴構件。通過PageRank出度中心性分析,我們發現獨立構件生態系統至關重要。針對18項指標的進一步分析揭示了獨立構件相較於依賴構件的多項優勢與可比性:相當的流行度(25.58 vs. 7.30)、更少漏洞(60個CVE vs. 179個CVE)以及零傳播漏洞。這些結果表明,獨立構件顯著影響生態系統,為開發者提供了安全、自包含的傳統依賴替代方案。研究發現表明獨立構件可能是依賴關係的有利選擇,但存在可維護性問題。因此開發者應審慎引入獨立構件構件維護者應優先關注此類構件以降低傳遞性漏洞傳播風險,提升軟件可持續性

摘要

  • 原文標題:Advancing quantum simulations of nuclear shell model with noise-resilient protocols
  • 中文標題:基於噪聲魯棒協議推進核殼模型的量子模擬
  • 發佈日期:2025-04-16 01:13:39+00:00
  • 作者:Nifeeya Singh, Pooja Siwach, P. Arumugam
  • 分類:quant-ph, nucl-th
  • 原文連結http://arxiv.org/abs/2504.11689v1

中文摘要:在解決核多體問題中的某些計算限制可以通過利用量子計算機來克服。核殼模型計算能更深入地揭示原子核的性質,但隨着希爾伯特空間維度隨粒子數量呈指數增長,這類計算對資源的需求極高。目前正在開發量子算法以應對這些挑戰並推進此類計算。為開發適用於核殼模型量子電路,我們利用噪聲中等規模量子NISQ)設備的特性,致力於通過相關緩解技術最小化資源需求(特別是量子比特量子門數量)並降低噪聲影響。我們通過以下方式實現噪聲魯棒性:基於Givens旋轉設計優化的變分量子本徵求解器VQE)擬設;結合qubit-ADAPT-VQE變分量子緊縮VQD)計算基態激發態,並採用零噪聲外推緩解技術;通過格雷碼編碼將基態映射到量子比特,並推廣費米子算符變換以高效表示多體態,從而顯著減少量子比特需求。應用這些噪聲魯棒協議後,我們以更高精度獲得了38Ar6Li的基態與激發態能級,分別呈現了無噪聲模擬、含噪聲條件及噪聲緩解後的結果,並對比了Jordan-Wigner編碼格雷碼編碼在VQEqubit-ADAPT-VQEVQD中的表現。本研究證明了噪聲魯棒協議在充分發揮NISQ設備潛力以擴展核殼模型計算規模方面的潛力。

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式系統數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期性周周期性波動,但幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師研究人員而言...

摘要

  • 原文標題:Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem
  • 中文標題:依賴困境:Maven中央生態系統中獨立與依賴構件的對比研究
  • 發佈日期:2025-04-16 17:15:58+00:00
  • 作者:Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury
  • 分類:cs.SE
  • 原文連結http://arxiv.org/abs/2504.12261v1

中文摘要Maven Central生態系統構成了Java依賴管理的核心,承載着在採用率安全性和生態角色上差異顯著的構件構件復用軟件開發的基礎,而Maven Central生態系統促進了這一過程。然而,先前研究主要分析了具有大量依賴的熱門構件,對無傳入依賴的獨立構件缺乏探索。本研究分析了658,078個構件(其中635,003個至少有一個發佈版本),發現93,101個構件(15.4%)為獨立構件入度=0),其餘歸類為依賴構件。通過PageRank出度中心性分析,我們發現獨立構件生態系統至關重要。針對18項指標的進一步分析揭示了獨立構件相較於依賴構件的多重優勢與可比性:相當的使用熱度(25.58 vs. 7.30)、更少的安全漏洞(60個CVE vs. 179個CVE)以及零傳播漏洞。這些結果表明,獨立構件能顯著改變生態系統格局,為開發者提供安全、自包含的傳統依賴替代方案。研究發現表明獨立構件可能是更優的依賴選擇,但也存在可維護性問題。因此開發者應審慎引入獨立構件,而構件維護者應優先關注這類構件以降低傳遞性漏洞傳播風險,提升軟件可持續性

摘要

  • 原文標題:A viscoplasticity model with an invariant-based non-Newtonian flow rule for unidirectional thermoplastic composites
  • 中文標題:基於不變量的非牛頓流動法則的單向熱塑性複合材料粘塑性模型
  • 發佈日期:2025-04-16 13:24:56+00:00
  • 作者:P. Hofman, D. Kovačević, F. P. van der Meer, L. J. Sluys
  • 分類:cs.CE
  • 原文連結http://arxiv.org/abs/2504.12069v1

中文摘要:摘要:本文提出了一種三維細觀粘塑性模型,用於模擬單向熱塑性複合材料中與速率相關的塑性蠕變行為。該本構模型是對純聚合物各向同性有限應變粘塑性模型的橫觀各向同性擴展。通過採用非牛頓流動法則描述速率相關塑性和蠕變,其中材料粘度通過Eyring型關係等效應力度量相關聯。在當前公式中,通過將等效應力度量和流動法則定義為橫觀各向同性應力不變量的函數來實現橫向各向同性。此外,Eyring型粘度函數還擴展了各向異性壓力依賴性。該公式有效排除了纖維方向的塑性流動,同時考慮了聚合物基體的壓力依賴性。塑性變形過程中橫觀各向同性平面的重新定向被納入本構方程,從而實現了精確的大變形響應。該公式完全隱式,並對算法本構方程進行了一致線性化以導出一致切線模量。通過與碳纖維/PEEK微觀力學模型、原始各向同性粘塑性聚合物基體模型和超彈性纖維模型的比較,評估了細觀本構模型的性能。首先利用微觀模型通過少量應力-應變曲線確定細觀模型的材料參數,結果表明細觀模型在各種載荷條件下都能給出與微觀模型相似的響應。最後,通過單向熱塑性複合材料層板的偏軸實驗驗證了細觀模型的有效性

摘要

  • 原文標題:Towards Realistic Low-Light Image Enhancement via ISP Driven Data Modeling
  • 中文標題:基於圖像信號處理驅動的數據建模實現真實低光照圖像增強
  • 發佈日期:2025-04-16 15:53:53+00:00
  • 作者:Zhihua Wang, Yu Long, Qinghua Lin, Kai Zhang, Yazhu Zhang, Yuming Fang, Li Liu, Xiaochun Cao
  • 分類:cs.CV, cs.MM
  • 原文連結http://arxiv.org/abs/2504.12204v1

中文摘要深度神經網絡DNNs)近年來已成為低光照圖像增強LLIE)的主流方法。然而,儘管取得顯著進展,在實際應用中其輸出仍可能出現噪聲放大白平衡錯誤或增強不自然等問題。關鍵挑戰在於缺乏能夠捕捉低光照條件成像管線複雜性的多樣化大規模訓練數據。本文提出一種新穎的圖像信號處理ISP)驅動數據合成管線,通過生成無限量的配對訓練數據來解決這些問題。具體而言,我們的管線從易於採集的高質量正常光照圖像出發,先通過逆向ISP將其還原為RAW格式,隨後直接在RAW域合成低光照退化。生成的數據隨後經過一系列ISP處理階段(包括白平衡調整色彩空間轉換色調映射伽馬校正),並在每個階段引入可控變異。這拓寬了退化空間並增強了訓練數據的多樣性,使生成數據能捕捉ISP管線固有的廣泛退化類型和複雜性。為驗證合成管線的有效性,我們使用僅包含卷積層組歸一化GeLU激活卷積塊注意力模塊CBAMs)的基礎UNet模型進行大量實驗。跨多數據集的測試表明,採用本數據合成管線訓練的UNet模型能生成高保真、視覺吸引力強的增強結果,在定量定性上均超越當前最先進SOTA)方法。

摘要

  • 原文標題:Advancing quantum simulations of nuclear shell model with noise-resilient protocols
  • 中文標題:基於噪聲彈性協議推進核殼模型的量子模擬
  • 發佈日期:2025-04-16 01:13:39+00:00
  • 作者:Nifeeya Singh, Pooja Siwach, P. Arumugam
  • 分類:quant-ph, nucl-th
  • 原文連結http://arxiv.org/abs/2504.11689v1

中文摘要:摘要:通過利用量子計算機,可以克服核多體問題求解中的部分計算限制。核殼模型計算能深入揭示原子核特性,但隨着希爾伯特空間隨粒子數呈指數級增長,這類計算對資源需求極高。目前正通過開發量子算法來突破這些限制並推進此類計算。為構建核殼模型的量子電路,我們充分利用噪聲中等規模量子NISQ)設備的特性,致力於通過優化資源需求(特別是量子比特量子門數量)並採用噪聲抑制技術來降低噪聲影響。我們基於Givens旋轉變分量子本徵求解器VQE)設計優化擬設,結合qubit-ADAPT-VQE變分量子緊縮VQD)方法計算基態激發態,並整合零噪聲外推抑制技術,從而實現噪聲魯棒性。此外,通過格雷碼編碼將基態映射至量子比特,並推廣費米子算符變換以高效表示多體態,顯著減少了量子比特需求。應用這些抗噪聲方案後,我們以更高精度獲得了³⁸Ar和⁶Li的基態與激發態能級,分別呈現了無噪聲模擬、含噪聲環境及噪聲抑制後的結果,並對比了Jordan-Wigner編碼與格雷碼編碼在VQE、qubit-ADAPT-VQE和VQD中的表現。本研究凸顯了抗噪聲方案在充分發揮NISQ設備潛力以擴展核殼模型計算方面的價值。

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能變異性研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式系統數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一具有代表性的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性模式,但波動幅度較小(≤2.5%)。跨多次測試重複使用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(例如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem
  • 中文標題:依賴困境:Maven中央生態系統中獨立與依賴構件的對比研究
  • 發佈日期:2025-04-16 17:15:58+00:00
  • 作者:Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury
  • 分類:cs.SE
  • 原文連結http://arxiv.org/abs/2504.12261v1

中文摘要Maven Central生態系統構成了Java依賴管理的核心,其託管的構件在採用度、安全性和生態角色上存在顯著差異。構件復用軟件開發的基礎,而Maven Central生態系統正促進了這一過程。然而,先前研究主要分析了具有大量依賴的熱門構件,卻未探索那些沒有傳入依賴的獨立構件。本研究分析了658,078個構件(其中635,003個至少有一個發佈版本),發現93,101個構件(15.4%)為獨立構件(入度=0),其餘歸類為依賴構件。通過PageRank出度中心性分析,我們發現獨立構件生態系統至關重要。進一步基於18項指標的對比分析揭示了獨立構件相較於依賴構件的優勢與可比性:流行度相當(25.58 vs. 7.30)、漏洞更少(60個CVE vs. 179個CVE)且無漏洞傳播風險。這些結果表明,獨立構件能顯著改善生態系統,為開發者提供安全、自包含的傳統依賴替代方案。研究發現獨立構件可能是更優的依賴選擇,但也存在可維護性問題。因此開發者應審慎引入獨立構件,而構件維護者應優先關注此類構件,以降低傳遞性漏洞傳播風險並提升軟件可持續性

摘要

  • 原文標題:A viscoplasticity model with an invariant-based non-Newtonian flow rule for unidirectional thermoplastic composites
  • 中文標題:基於不變量的非牛頓流動法則的單向熱塑性複合材料粘塑性模型
  • 發佈日期:2025-04-16 13:24:56+00:00
  • 作者:P. Hofman, D. Kovačević, F. P. van der Meer, L. J. Sluys
  • 分類:cs.CE
  • 原文連結http://arxiv.org/abs/2504.12069v1

中文摘要:摘要:本文提出了一種三維細觀粘塑性模型,用於模擬單向熱塑性複合材料的速率依賴性塑性蠕變行為。該本構模型是對純聚合物各向同性有限應變粘塑性模型的橫向各向同性擴展。速率依賴性塑性和蠕變通過非牛頓流動法則描述,其中材料粘度通過Eyring型關係與等效應力度量相關。在當前公式中,通過將等效應力度量和流動法則定義為橫向各向同性應力不變量的函數來實現橫向各向同性。此外,Eyring型粘度函數還擴展了各向異性壓力依賴性。該公式有效排除了纖維方向的塑性流動,並考慮了聚合物基體的壓力依賴性。塑性變形過程中橫向各向同性平面的重新定向被納入本構方程,從而實現了精確的大變形響應。該公式完全隱式,並對算法本構方程進行了一致線性化以推導一致切線模量。通過與碳纖維/PEEK微觀力學模型、聚合物基體的原始各向同性粘塑性版本以及超彈性纖維的比較,評估了細觀本構模型的性能。首先使用微觀模型通過少量應力-應變曲線確定細觀模型的材料參數。結果表明,細觀模型在各種加載條件下都能給出與微觀模型相似的響應。最後,通過單向熱塑性複合材料層板的偏軸實驗驗證了細觀模型的有效性

摘要

  • 原文標題:Advancing quantum simulations of nuclear shell model with noise-resilient protocols
  • 中文標題:利用抗噪聲協議推進核殼模型的量子模擬
  • 發佈日期:2025-04-16 01:13:39+00:00
  • 作者:Nifeeya Singh, Pooja Siwach, P. Arumugam
  • 分類:quant-ph, nucl-th
  • 原文連結http://arxiv.org/abs/2504.11689v1

中文摘要:摘要:通過利用量子計算機,可以克服解決核多體問題中的部分計算限制。核殼模型計算能更深入地揭示原子核特性,但隨着涉及粒子數量的增加,希爾伯特空間呈指數級增長,這類計算對資源的需求極高。目前正在開發量子算法以應對這些挑戰並推進此類計算。為開發適用於核殼模型量子電路,我們充分利用噪聲中等規模量子NISQ)設備的性能,旨在最小化資源需求(特別是量子比特量子門數量),並通過採用相關緩解技術來降低噪聲影響。我們基於吉文斯旋轉變分量子本徵求解器VQE)設計優化擬設,並結合qubit-ADAPT-VQE變分量子緊縮VQD)來計算基態激發態,同時採用零噪聲外推緩解技術,從而實現噪聲魯棒性。此外,通過格雷碼編碼將基態映射到量子比特,並推廣費米子算符變換以高效表示多體態,顯著減少了量子比特需求。運用這些抗噪聲方案,我們以更高精度獲得了38Ar6Li基態激發態能級,並分別呈現了無噪聲模擬、含噪聲條件及噪聲緩解後的能級結果。研究對比了採用VQEqubit-ADAPT-VQEVQD喬丹-維格納編碼格雷碼編碼的效果。本工作凸顯了抗噪聲方案在充分發揮NISQ設備潛力以擴展核殼模型計算規模方面的價值。

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能變異性研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以得出關於實際性能的可靠結論。本文通過實證研究量化了雲性能波動對基準測試結果的影響,重點關注作為數據密集型關鍵性能系統代表的流處理應用。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而能夠評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性模式,但波動幅度較小(≤2.5%)。跨多次測試重複使用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(例如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem
  • 中文標題:依賴困境:Maven中央生態系統中獨立與依賴構件的對比研究
  • 發佈日期:2025-04-16 17:15:58+00:00
  • 作者:Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury
  • 分類:cs.SE
  • 原文連結http://arxiv.org/abs/2504.12261v1

中文摘要Maven Central生態系統構成了Java依賴管理的核心,其託管的構件採用率安全性和生態角色上存在顯著差異。構件復用軟件開發的基礎,而Maven Central生態系統正促進了這一過程。然而,先前研究主要分析了具有大量依賴的熱門構件,卻未探索那些沒有傳入依賴的獨立構件。本研究分析了658,078個構件(其中635,003個至少有一個發佈版本),發現93,101個構件(15.4%)為獨立構件入度=0),其餘歸類為依賴構件。通過PageRank出度中心性評估發現,獨立構件生態系統至關重要。針對18項指標的進一步分析揭示了獨立構件相較於依賴構件的優勢與可比性:流行度相當(25.58 vs. 7.30)、漏洞更少(60個CVE vs. 179個CVE)且無傳播性漏洞。這些結果表明,獨立構件顯著影響生態系統,為開發者提供了安全、自包含的傳統依賴替代方案。研究發現獨立構件可能是更優的依賴選擇,但也存在可維護性問題。因此開發者應審慎引入獨立構件,而構件維護者應優先關注此類構件,以降低傳遞性漏洞傳播風險並提升軟件可持續性

摘要

  • 原文標題:Advancing quantum simulations of nuclear shell model with noise-resilient protocols
  • 中文標題:基於噪聲魯棒協議推進核殼模型的量子模擬
  • 發佈日期:2025-04-16 01:13:39+00:00
  • 作者:Nifeeya Singh, Pooja Siwach, P. Arumugam
  • 分類:quant-ph, nucl-th
  • 原文連結http://arxiv.org/abs/2504.11689v1

中文摘要:摘要:通過利用量子計算機可以克服核多體問題求解中的部分計算限制。核殼模型計算能深入揭示原子核特性,但隨着希爾伯特空間維度隨粒子數呈指數增長,這類計算對資源需求極高。目前正在開發量子算法以應對這些挑戰並推進此類計算。為構建核殼模型的量子電路,我們充分利用噪聲中等規模量子NISQ)設備的特性,着力減少資源需求(特別是量子比特量子門數量),並通過採用噪聲緩解技術降低噪聲影響。我們基於Givens旋轉變分量子本徵求解器VQE)設計優化擬設,結合qubit-ADAPT-VQE變分量子緊縮VQD)方法計算基態激發態,同時引入零噪聲外推緩解技術,從而實現噪聲魯棒性。此外,通過格雷碼編碼將基態映射至量子比特,並推廣費米子算符變換以高效表示多體態,顯著降低了量子比特需求。採用這些抗噪聲方案後,我們以更高精度獲得了38Ar6Li的基態與激發態能級,並分別呈現了無噪聲模擬、含噪聲條件及噪聲緩解後的能級結果。研究對比了Jordan-Wigner編碼與格雷碼編碼在VQE、qubit-ADAPT-VQE和VQD中的表現。本工作凸顯了抗噪聲方案在充分發揮NISQ設備潛力、擴展核殼模型計算規模方面的巨大潛力。

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證研究量化了雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而能夠評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度往往低於普遍假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現周期性波動,但幅度較小(≤2.5%)。跨多次測試重複使用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(例如>5%)的工程師研究人員而言...

摘要

  • 原文標題:Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem
  • 中文標題:依賴困境:Maven中央生態系統中獨立與依賴構件的對比研究
  • 發佈日期:2025-04-16 17:15:58+00:00
  • 作者:Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury
  • 分類:cs.SE
  • 原文連結http://arxiv.org/abs/2504.12261v1

中文摘要Maven Central生態系統構成了Java依賴管理的核心,承載着在採用率、安全性和生態系統角色上差異顯著的構件。構件重用是軟件開發的基礎,而Maven Central等生態系統促進了這一過程。然而,先前研究主要分析了具有大量依賴的熱門構件,對那些沒有傳入依賴的獨立構件缺乏探索。本研究分析了658,078個構件(其中635,003個至少有一個發佈版本),發現93,101個構件(15.4%)為獨立構件(入度=0),其餘歸類為依賴構件。通過PageRank和出度中心性分析發現,獨立構件對生態系統至關重要。針對18項指標的進一步分析揭示了獨立構件相較於依賴構件的優勢與可比性:具有相當的流行度(25.58 vs. 7.30)、更少漏洞(60個CVE vs. 179個CVE)且零傳播漏洞。這些結果表明,獨立構件顯著影響生態系統,為開發者提供了安全、自包含的傳統依賴替代方案。研究發現表明獨立構件可能是更優的依賴選擇,但也存在可維護性問題。因此開發者應審慎採用獨立構件,而構件維護者應優先關注這類構件,以降低傳遞性漏洞傳播風險並提升軟件可持續性

摘要

  • 原文標題:Advancing quantum simulations of nuclear shell model with noise-resilient protocols
  • 中文標題:利用抗噪聲協議推進核殼模型的量子模擬
  • 發佈日期:2025-04-16 01:13:39+00:00
  • 作者:Nifeeya Singh, Pooja Siwach, P. Arumugam
  • 分類:quant-ph, nucl-th
  • 原文連結http://arxiv.org/abs/2504.11689v1

中文摘要:摘要:解決核多體問題的部分計算限制可通過量子計算機克服。核殼層模型計算能深入揭示原子核特性,但隨着希爾伯特空間粒子數呈指數增長,這類計算對資源需求極高。當前正開發量子算法以應對這些挑戰並推進此類計算。為構建核殼層模型的量子電路,我們利用噪聲中等規模量子(NISQ)設備的特性,旨在最小化資源需求(特別是量子比特量子門數量),並通過採用噪聲緩解技術降低噪聲影響。我們基於Givens旋轉設計優化的變分量子本徵求解器(VQE)擬設,結合qubit-ADAPT-VQE變分量子緊縮(VQD)方法計算基態激發態,整合零噪聲外推緩解技術,從而實現噪聲魯棒性。此外,通過格雷碼編碼將基態映射至量子比特,並推廣費米子算符變換以高效表示多體態,顯著減少了量子比特需求。採用這些抗噪聲方案後,我們以更高精度獲得了³⁸Ar和⁶Li的基態與激發態能級,並展示了無噪聲模擬、含噪聲條件及噪聲緩解後的能級結果。研究對比了Jordan-Wigner編碼與格雷碼編碼在VQE、qubit-ADAPT-VQE和VQD中的表現。本工作凸顯了抗噪聲方案在釋放NISQ設備潛力、擴展核殼層模型計算規模方面的價值。

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能變異性研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以得出關於真實世界性能的可靠結論。本文通過實證研究量化了雲性能波動對基準測試結果的影響,重點關注作為數據密集型、性能關鍵型系統代表的流處理應用。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而能夠評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性模式,儘管波動幅度較小(≤2.5%)。跨多次測試重複使用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem
  • 中文標題:依賴困境:Maven中央生態系統中獨立與依賴構件的對比研究
  • 發佈日期:2025-04-16 17:15:58+00:00
  • 作者:Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury
  • 分類:cs.SE
  • 原文連結http://arxiv.org/abs/2504.12261v1

中文摘要Maven Central生態系統構成了Java依賴管理的核心,承載着在採用率、安全性和生態系統角色上差異顯著的構件。構件重用是軟件開發的基礎,而Maven Central等生態系統促進了這一過程。然而,先前研究主要分析了具有大量依賴的熱門構件,卻未探索那些沒有傳入依賴的獨立構件。本研究分析了658,078個構件(其中635,003個至少有一個發佈版本),發現93,101個構件(15.4%)為獨立構件(入度=0),其餘歸類為依賴構件。通過PageRank和出度中心性評估發現,獨立構件對生態系統至關重要。針對18項指標的進一步分析揭示了獨立構件相較於依賴構件的優勢與可比性:具有相當的流行度(25.58 vs. 7.30)、更少漏洞(60個CVE vs. 179個CVE)且零傳播漏洞。結果表明,獨立構件顯著影響生態系統,為開發者提供了安全、自包含的傳統依賴替代方案。這些發現表明獨立構件可能是依賴關係的有利選擇,但存在可維護性問題。因此開發者應審慎引入獨立構件,而構件維護者應優先關注此類構件以降低傳遞性漏洞傳播風險,提升軟件可持續性

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期和周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過累計591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期和周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會導致結果準確度輕微下降(≤2.5個百分點)。這些關鍵發現在不同雲區域和採用不同處理器架構的機器類型中均保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證研究量化了雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而能夠評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性波動,但幅度較小(≤2.5%)。跨多次測試重複使用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一具有代表性的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性波動,但幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會導致結果準確度輕微下降(≤2.5個百分點)。這些關鍵發現在不同雲區域處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試間的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性波動,但幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會導致結果準確度輕微下降(≤2.5個百分點)。這些關鍵發現在不同雲區域處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)考察性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現周期性模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(例如>5%)的工程師研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能變異性研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期和周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(例如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性波動,但幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會導致結果準確性輕微下降(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時應運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試軟件工程中的常見實踐,尤其在構建大規模、分佈式系統數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試間的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性波動,但幅度較小(≤2.5%)。跨多次重複測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(例如>5%)的工程師研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)考察性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期和周周期模式,但波動幅度較小(≤2.5%)。跨多次測試重複使用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性模式,但波動幅度較小(≤2.5%)。跨多次重複測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(例如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性波動,但幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和採用不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能變異性研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期和周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會導致結果準確性輕微下降(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能變異性研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試間的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,聚焦流處理應用作為數據密集型、性能關鍵型系統的代表案例。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)考察性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期和周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域處理器架構的機型間保持一致性。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究者而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試間的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,聚焦流處理應用這一典型的數據密集型、性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期和周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域處理器架構的機器類型中保持一致性。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證研究量化了雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署了789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)考察性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期和周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和採用不同處理器架構的機器類型中保持一致性。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性波動,但幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會導致結果準確性輕微下降(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)考察性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期和周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會導致結果準確性輕微下降(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)考察性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期和周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會導致結果準確度輕微下降(≤2.5個百分點)。這些關鍵發現在不同雲區域和採用不同處理器架構的機器類型中均保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試間的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期和周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能變異性研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)考察性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過累計591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期和周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準設施僅會導致結果精度輕微下降(≤2.5個百分點)。這些關鍵發現在不同雲區域處理器架構的機型間保持一致性。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究者而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式系統數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一具有代表性的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性波動,但幅度較小(≤2.5%)。跨多次測試重複使用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現每日和每周周期性模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(例如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式系統數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動基準測試結果的影響,重點關注流處理應用這一典型的數據密集型性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現周期性波動,但幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(例如>5%)的工程師研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證研究量化了雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署了789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性波動,但幅度較小(≤2.5%)。跨多次測試重複使用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會導致結果準確性輕微下降(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證研究量化了雲性能波動對基準測試結果的影響,重點關注流處理應用這一具有代表性的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能變異性研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性波動,但幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會導致結果準確性輕微下降(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試間的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)考察性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性波動,但幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現每日和每周周期性模式,但波動幅度較小(≤2.5%)。跨多次測試重複使用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(例如>5%)的工程師研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試間的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的多個維度(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)考察性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一具有代表性的數據密集型性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現每日和每周周期性模式,但波動幅度較小(≤2.5%)。跨多次測試重複使用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(例如>5%)的工程師研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試間的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日和周周期性波動,但幅度較小(≤2.5%)。跨多次測試復用基準設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要性能基準測試軟件工程中的常見實踐,尤其在構建大規模分佈式數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以對實際性能得出可靠結論。本文通過實證量化雲性能波動基準測試結果的影響,重點關注流處理應用這一典型的數據密集型性能關鍵型系統。在一項持續三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而評估性能波動的各個方面(特別是時間效應)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度低於通常假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現周期性波動,但幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師研究人員而言...

摘要

  • 原文標題:When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications
  • 中文標題:何時運行應用程式基準測試?——針對流處理應用的雲性能波動研究
  • 發佈日期:2025-04-16 07:22:44+00:00
  • 作者:Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser
  • 分類:cs.SE, cs.DC, cs.PF
  • 原文連結http://arxiv.org/abs/2504.11826v1

中文摘要:性能基準測試是軟件工程中的常見實踐,尤其在構建大規模、分佈式和數據密集型系統時。雖然雲環境為運行基準測試提供了諸多優勢,但經常有報告指出重複測試的結果可能存在顯著差異——這使得難以得出關於真實世界性能的可靠結論。本文通過實證量化雲性能波動對基準測試結果的影響,重點關注流處理應用這一典型的數據密集型、性能關鍵型系統。在一項歷時三個多月的縱向研究中,我們重複執行了Dynatrace研發中使用的應用基準測試,從而能夠評估性能波動的各個方面(特別是時間效應相關因素)。通過約591小時的實驗,在AWS上部署789個Kubernetes集群並執行2366次基準測試,這可能是同類研究中規模最大且唯一從端到端(即應用基準測試視角)探討性能的研究。我們的研究證實性能波動確實存在,但其程度通常低於假設(變異係數<3.7%)。與相關研究不同,我們發現性能確實呈現日周期和周周期模式,但波動幅度較小(≤2.5%)。跨多次測試復用基準測試基礎設施僅會輕微降低結果準確性(≤2.5個百分點)。這些關鍵發現在不同雲區域和具有不同處理器架構的機器類型中保持一致。我們得出結論:對於關注檢測顯著性能差異(如>5%)的工程師和研究人員而言...