查看“WikiEdge:ArXiv速递/2025-04-16”的源代码
←
WikiEdge:ArXiv速递/2025-04-16
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
== 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能变异性研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过[[实证研究]]量化了[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一具有代表性的数据密集型、性能关键型系统。在一项持续三个多月的[[纵向研究]]中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而能够评估性能波动的多个维度(特别是时间效应相关因素)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设([[变异系数]]<3.7%)。与相关研究不同,我们发现性能确实呈现[[日周期]]和[[周周期]]模式,尽管波动幅度较小(≤2.5%)。跨多次测试重复使用基准测试[[基础设施]]仅会导致结果准确度轻微下降(≤2.5个百分点)。这些关键发现在不同[[云区域]]和采用不同[[处理器架构]]的机器类型中均保持一致。我们得出结论:对于关注检测显著性能差异(例如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem * '''中文标题''':依赖困境:Maven中央生态系统中独立与依赖构件的对比研究 * '''发布日期''':2025-04-16 17:15:58+00:00 * '''作者''':Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury * '''分类''':cs.SE *'''原文链接''':http://arxiv.org/abs/2504.12261v1 '''中文摘要''':[[Maven Central]]生态系统构成了[[Java]]依赖管理的核心,承载着在采用率、安全性和生态系统角色上差异显著的构件。构件复用是[[软件开发]]的基础,而[[Maven Central]]等生态系统促进了这一过程。然而,先前研究主要分析了具有大量依赖的热门构件,对无传入依赖的独立构件缺乏探索。本研究分析了658,078个构件(其中635,003个至少有一个发布版本),发现93,101个构件(15.4%)为独立构件(入度=0),其余归类为依赖构件。通过[[PageRank]]和出度中心性分析发现,独立构件对生态系统至关重要。针对18项指标的进一步分析揭示了独立构件相较于依赖构件的优势与可比性:流行度相当(25.58 vs. 7.30)、漏洞更少(60个[[CVE]] vs. 179个[[CVE]])且无传播漏洞。这些结果表明,独立构件显著影响生态系统,为开发者提供了安全、自包含的传统依赖替代方案。研究发现独立构件可能是依赖关系的有利选择,但存在可维护性问题。因此开发者应审慎引入独立构件,而构件维护者应优先关注此类构件,以降低传递性漏洞传播风险并提升软件可持续性。 == 摘要 == * '''原文标题''':Towards Realistic Low-Light Image Enhancement via ISP Driven Data Modeling * '''中文标题''':基于图像信号处理驱动的数据建模实现真实低光照图像增强 * '''发布日期''':2025-04-16 15:53:53+00:00 * '''作者''':Zhihua Wang, Yu Long, Qinghua Lin, Kai Zhang, Yazhu Zhang, Yuming Fang, Li Liu, Xiaochun Cao * '''分类''':cs.CV, cs.MM *'''原文链接''':http://arxiv.org/abs/2504.12204v1 '''中文摘要''':[[深度神经网络]]([[DNNs]])近期已成为[[低光照图像增强]]([[LLIE]])的主流方法。然而尽管取得显著进展,在实际应用中其输出仍可能呈现[[噪声放大]]、[[白平衡偏差]]或[[增强失真]]等问题。关键挑战在于缺乏能捕捉[[低光照条件]]与[[成像流程]]复杂性的多样化大规模[[训练数据]]。本文提出一种新颖的[[图像信号处理]]([[ISP]])驱动[[数据合成]]流程,通过生成无限量配对[[训练数据]]解决这些难题。具体而言,我们的流程从易采集的高质量[[正常光照图像]]出发,先通过[[逆向ISP]]将其还原为[[RAW格式]],随后直接在[[RAW域]]合成[[低光照退化]]。生成的数据继而经过包含[[白平衡调整]]、[[色彩空间转换]]、[[色调映射]]和[[伽马校正]]等[[ISP处理]]阶段,并在各阶段引入[[可控变异]]。这有效扩展了[[退化空间]]并增强[[训练数据]]多样性,使生成数据能涵盖广泛[[退化类型]]及[[ISP流程]]固有复杂性。为验证[[合成流程]]的有效性,我们采用仅包含[[卷积层]]、[[组归一化]]、[[GeLU激活]]和[[卷积注意力模块]]([[CBAM]])的基础[[UNet模型]]进行大量实验。跨多[[数据集]]的测试表明,基于本[[数据合成]]流程训练的[[UNet模型]]能生成高保真、视觉愉悦的[[增强结果]],在[[定量评估]]与[[定性评估]]上均超越现有最优方法。 == 摘要 == * '''原文标题''':Advancing quantum simulations of nuclear shell model with noise-resilient protocols * '''中文标题''':基于噪声鲁棒协议推进核壳模型的量子模拟 * '''发布日期''':2025-04-16 01:13:39+00:00 * '''作者''':Nifeeya Singh, Pooja Siwach, P. Arumugam * '''分类''':quant-ph, nucl-th *'''原文链接''':http://arxiv.org/abs/2504.11689v1 '''中文摘要''':摘要:解决[[核多体问题]]的部分计算限制可通过[[量子计算机]]克服。[[核壳层模型]]计算能深入揭示[[原子核]]性质,但随着[[希尔伯特空间]]随[[粒子数]]呈指数增长,这类计算对资源需求极高。当前正开发[[量子算法]]以应对这些挑战并推进此类计算。为构建核壳层模型的[[量子电路]],我们利用[[噪声中等规模量子]]([[NISQ]])设备的特性,致力于通过优化资源需求(特别是[[量子比特]]和[[量子门]]数量)并采用[[噪声抑制技术]]来降低[[噪声]]影响。我们通过以下设计实现[[噪声鲁棒性]]:基于[[Givens旋转]]为[[变分量子本征求解器]]([[VQE]])设计优化拟设;结合[[qubit-ADAPT-VQE]]与[[变分量子紧缩]]([[VQD]])计算[[基态]]和[[激发态]],并融入[[零噪声外推]]抑制技术;通过[[格雷码]]编码将基态映射到量子比特,并推广[[费米子算符]]变换以高效表示[[多体态]],从而显著减少量子比特需求。采用这些[[抗噪声]]方案后,我们以更高精度获得了[[38Ar]]和[[6Li]]的基态与激发态能级,并分别呈现了无噪声模拟、含噪声环境及噪声抑制后的结果。研究对比了[[Jordan-Wigner编码]]与格雷码编码在VQE、qubit-ADAPT-VQE和VQD中的表现。本工作彰显了抗噪声方案在充分发挥NISQ设备潜力以扩展核壳层模型计算方面的价值。 == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能]][[基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式]]和[[数据密集型]][[系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]][[波动]]对基准测试结果的影响,重点关注[[流处理]][[应用]]这一典型的[[数据密集型]]、[[性能关键型]][[系统]]。在一项历时三个多月的[[纵向研究]]中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是[[时间效应]])。通过约591小时的[[实验]],在[[AWS]]上部署789个[[Kubernetes]][[集群]]并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)考察性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设([[变异系数]]<3.7%)。与相关研究不同,我们发现性能确实呈现[[日周期]]和[[周周期]]模式,但波动幅度较小(≤2.5%)。跨多次测试重复使用基准测试[[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器]][[架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的[[工程师]]和[[研究人员]]而言... == 摘要 == * '''原文标题''':Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem * '''中文标题''':依赖困境:Maven Central生态系统中独立与依赖构件的对比研究 * '''发布日期''':2025-04-16 17:15:58+00:00 * '''作者''':Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury * '''分类''':cs.SE *'''原文链接''':http://arxiv.org/abs/2504.12261v1 '''中文摘要''':[[Maven Central]]生态系统构成了[[Java]]依赖管理的核心,承载着在采用率、安全性和生态系统角色上差异显著的构件。构件重用是[[软件开发]]的基础,而[[Maven Central]]等生态系统促进了这一过程。然而,先前研究主要分析了具有大量依赖的热门构件,对无传入依赖的独立构件缺乏探索。本研究分析了658,078个构件(其中635,003个至少有一个发布版本),发现93,101个构件(15.4%)为独立构件(入度=0),其余归类为依赖构件。通过[[PageRank]]和出度中心性分析发现,独立构件对生态系统至关重要。针对18项指标的进一步分析揭示了独立构件相较于依赖构件的优势与可比性:流行度相当(25.58 vs. 7.30)、漏洞更少(60个[[CVE]] vs. 179个[[CVE]])且无传播性漏洞。结果表明,独立构件显著影响生态系统,为开发者提供了安全、自包含的传统依赖替代方案。这些发现表明独立构件可能是更优的依赖选择,但也存在可维护性问题。因此开发者应审慎引入独立构件,而构件维护者应优先关注此类构件,以降低传递性漏洞传播风险并提升[[软件可持续性]]。 == 摘要 == * '''原文标题''':Advancing quantum simulations of nuclear shell model with noise-resilient protocols * '''中文标题''':基于噪声弹性协议推进核壳模型的量子模拟 * '''发布日期''':2025-04-16 01:13:39+00:00 * '''作者''':Nifeeya Singh, Pooja Siwach, P. Arumugam * '''分类''':quant-ph, nucl-th *'''原文链接''':http://arxiv.org/abs/2504.11689v1 '''中文摘要''':摘要:通过利用[[量子计算机]],可以克服解决[[核多体问题]]中的部分计算限制。[[核壳模型]]计算能更深入揭示[[原子核]]性质,但随着[[希尔伯特空间]]随粒子数呈指数增长,这类计算对资源需求极高。目前正通过开发[[量子算法]]来突破这些限制并推进此类计算。为构建核壳模型的[[量子电路]],我们充分利用[[噪声中等规模量子]]([[NISQ]])设备的特性,致力于通过优化资源需求(特别是[[量子比特]]和[[量子门]]数量)并采用[[噪声缓解技术]]来降低噪声影响。我们基于[[吉文斯旋转]]为[[变分量子本征求解器]]([[VQE]])设计优化拟设,结合[[量子比特自适应VQE]]([[qubit-ADAPT-VQE]])与[[变分量子紧缩]]([[VQD]])方法计算[[基态]]和[[激发态]],同时引入[[零噪声外推]]缓解技术,从而实现[[噪声鲁棒性]]。此外,通过[[格雷码编码]]将基态映射到量子比特,并推广[[费米子算符]]变换以高效表示[[多体态]],显著减少了量子比特需求。采用这些[[抗噪声方案]]后,我们以更高精度获得了³⁸Ar和⁶Li的基态与激发态能级,并分别呈现了无噪声模拟、含噪声条件及噪声缓解后的结果。研究对比了采用VQE、qubit-ADAPT-VQE和VQD方法时[[乔丹-维格纳编码]]与格雷码编码的效果。本工作凸显了抗噪声方案在充分发挥NISQ设备潜力、扩展核壳模型计算规模方面的巨大潜力。 == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动性研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能]][[基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式系统]]和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试间的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注作为数据密集型关键性能系统代表的[[流处理]]应用。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的各个方面(特别是[[时间效应]]相关)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设([[变异系数]]<3.7%)。与相关研究不同,我们发现性能确实呈现[[日周期]]和[[周周期]]模式,尽管波动幅度较小(≤2.5%)。跨多次测试复用基准设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和采用不同[[处理器架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem * '''中文标题''':依赖困境:Maven Central生态系统中独立与依赖构件的对比研究 * '''发布日期''':2025-04-16 17:15:58+00:00 * '''作者''':Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury * '''分类''':cs.SE *'''原文链接''':http://arxiv.org/abs/2504.12261v1 '''中文摘要''':[[Maven Central]][[生态系统]]构成了[[Java]][[依赖管理]]的核心,承载着在[[采用率]]、[[安全性]]和[[生态系统]]角色上差异显著的[[构件]]。[[构件复用]]是[[软件开发]]的基础,而[[Maven Central]]等[[生态系统]]促进了这一过程。然而,先前研究主要分析了具有大量[[依赖]]的热门[[构件]],忽略了那些没有传入[[依赖]]的独立[[构件]]。本研究分析了658,078个[[构件]](其中635,003个至少有一个[[发布版本]]),发现93,101个[[构件]](15.4%)为独立[[构件]]([[入度]]=0),其余归类为[[依赖构件]]。通过[[PageRank]]和[[出度中心性]]分析,我们发现独立[[构件]]对[[生态系统]]至关重要。针对18项[[指标]]的进一步分析揭示了独立[[构件]]相较于[[依赖构件]]的多项优势与可比性:相当的[[流行度]](25.58 vs. 7.30)、更少[[漏洞]](60个[[CVE]] vs. 179个[[CVE]])以及零[[传播漏洞]]。这些结果表明,独立[[构件]]显著影响[[生态系统]],为[[开发者]]提供了安全、自包含的传统[[依赖]]替代方案。研究发现表明独立[[构件]]可能是[[依赖关系]]的有利选择,但存在[[可维护性]]问题。因此[[开发者]]应审慎引入独立[[构件]],[[构件维护者]]应优先关注此类[[构件]]以降低[[传递性漏洞]]传播风险,提升[[软件可持续性]]。 == 摘要 == * '''原文标题''':Advancing quantum simulations of nuclear shell model with noise-resilient protocols * '''中文标题''':基于噪声鲁棒协议推进核壳模型的量子模拟 * '''发布日期''':2025-04-16 01:13:39+00:00 * '''作者''':Nifeeya Singh, Pooja Siwach, P. Arumugam * '''分类''':quant-ph, nucl-th *'''原文链接''':http://arxiv.org/abs/2504.11689v1 '''中文摘要''':在解决[[核多体问题]]中的某些计算限制可以通过利用[[量子计算机]]来克服。[[核壳模型]]计算能更深入地揭示[[原子核]]的性质,但随着[[希尔伯特空间]]维度随粒子数量呈指数增长,这类计算对资源的需求极高。目前正在开发[[量子算法]]以应对这些挑战并推进此类计算。为开发适用于[[核壳模型]]的[[量子电路]],我们利用[[噪声中等规模量子]]([[NISQ]])设备的特性,致力于通过相关缓解技术最小化资源需求(特别是[[量子比特]]和[[量子门]]数量)并降低[[噪声]]影响。我们通过以下方式实现[[噪声鲁棒性]]:基于[[Givens旋转]]设计优化的[[变分量子本征求解器]]([[VQE]])拟设;结合[[qubit-ADAPT-VQE]]与[[变分量子紧缩]]([[VQD]])计算[[基态]]和[[激发态]],并采用[[零噪声外推]]缓解技术;通过[[格雷码]]编码将基态映射到[[量子比特]],并推广[[费米子算符]]变换以高效表示[[多体态]],从而显著减少[[量子比特]]需求。应用这些[[噪声鲁棒]]协议后,我们以更高精度获得了[[38Ar]]和[[6Li]]的基态与激发态能级,分别呈现了无噪声模拟、含噪声条件及噪声缓解后的结果,并对比了[[Jordan-Wigner编码]]与[[格雷码]]编码在[[VQE]]、[[qubit-ADAPT-VQE]]和[[VQD]]中的表现。本研究证明了[[噪声鲁棒]]协议在充分发挥[[NISQ]]设备潜力以扩展[[核壳模型]]计算规模方面的潜力。 == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式系统]]和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、[[性能关键型系统]]。在一项历时三个多月的[[纵向研究]]中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的各个方面(特别是[[时间效应]])。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设([[变异系数]]<3.7%)。与相关研究不同,我们发现性能确实呈现[[日周期性]]和[[周周期性]]波动,但幅度较小(≤2.5%)。跨多次测试复用基准测试[[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的[[工程师]]和[[研究人员]]而言... == 摘要 == * '''原文标题''':Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem * '''中文标题''':依赖困境:Maven中央生态系统中独立与依赖构件的对比研究 * '''发布日期''':2025-04-16 17:15:58+00:00 * '''作者''':Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury * '''分类''':cs.SE *'''原文链接''':http://arxiv.org/abs/2504.12261v1 '''中文摘要''':[[Maven Central]][[生态系统]]构成了[[Java]][[依赖管理]]的核心,承载着在[[采用率]]、[[安全性]]和生态角色上差异显著的[[构件]]。[[构件复用]]是[[软件开发]]的基础,而[[Maven Central]]等[[生态系统]]促进了这一过程。然而,先前研究主要分析了具有大量依赖的[[热门构件]],对无传入依赖的[[独立构件]]缺乏探索。本研究分析了658,078个[[构件]](其中635,003个至少有一个[[发布版本]]),发现93,101个[[构件]](15.4%)为[[独立构件]]([[入度]]=0),其余归类为[[依赖构件]]。通过[[PageRank]]和[[出度中心性]]分析,我们发现[[独立构件]]对[[生态系统]]至关重要。针对18项[[指标]]的进一步分析揭示了[[独立构件]]相较于[[依赖构件]]的多重优势与可比性:相当的[[使用热度]](25.58 vs. 7.30)、更少的[[安全漏洞]](60个[[CVE]] vs. 179个[[CVE]])以及零[[传播漏洞]]。这些结果表明,[[独立构件]]能显著改变[[生态系统]]格局,为[[开发者]]提供安全、自包含的传统[[依赖]]替代方案。研究发现表明[[独立构件]]可能是更优的[[依赖]]选择,但也存在[[可维护性]]问题。因此[[开发者]]应审慎引入[[独立构件]],而[[构件维护者]]应优先关注这类[[构件]]以降低[[传递性漏洞]]传播风险,提升[[软件]][[可持续性]]。 == 摘要 == * '''原文标题''':A viscoplasticity model with an invariant-based non-Newtonian flow rule for unidirectional thermoplastic composites * '''中文标题''':基于不变量的非牛顿流动法则的单向热塑性复合材料粘塑性模型 * '''发布日期''':2025-04-16 13:24:56+00:00 * '''作者''':P. Hofman, D. Kovačević, F. P. van der Meer, L. J. Sluys * '''分类''':cs.CE *'''原文链接''':http://arxiv.org/abs/2504.12069v1 '''中文摘要''':摘要:本文提出了一种三维细观[[粘塑性]]模型,用于模拟单向[[热塑性复合材料]]中与速率相关的[[塑性]]和[[蠕变]]行为。该[[本构模型]]是对纯[[聚合物]]各向同性有限应变粘塑性模型的[[横观各向同性]]扩展。通过采用[[非牛顿流动法则]]描述速率相关塑性和蠕变,其中[[材料粘度]]通过[[Eyring型关系]]与[[等效应力]]度量相关联。在当前公式中,通过将等效应力度量和流动法则定义为横观各向同性[[应力不变量]]的函数来实现横向各向同性。此外,Eyring型粘度函数还扩展了[[各向异性]]压力依赖性。该公式有效排除了[[纤维]]方向的塑性流动,同时考虑了[[聚合物基体]]的压力依赖性。塑性变形过程中横观各向同性平面的重新定向被纳入本构方程,从而实现了精确的[[大变形]]响应。该公式完全隐式,并对[[算法本构方程]]进行了一致线性化以导出[[一致切线模量]]。通过与[[碳纤维]]/[[PEEK]]的[[微观力学模型]]、原始各向同性粘塑性聚合物基体模型和[[超弹性]]纤维模型的比较,评估了[[细观本构模型]]的性能。首先利用[[微观模型]]通过少量[[应力-应变曲线]]确定细观模型的[[材料参数]],结果表明细观模型在各种[[载荷条件]]下都能给出与微观模型相似的响应。最后,通过单向热塑性复合材料层板的[[偏轴实验]]验证了细观模型的[[有效性]]。 == 摘要 == * '''原文标题''':Towards Realistic Low-Light Image Enhancement via ISP Driven Data Modeling * '''中文标题''':基于图像信号处理驱动的数据建模实现真实低光照图像增强 * '''发布日期''':2025-04-16 15:53:53+00:00 * '''作者''':Zhihua Wang, Yu Long, Qinghua Lin, Kai Zhang, Yazhu Zhang, Yuming Fang, Li Liu, Xiaochun Cao * '''分类''':cs.CV, cs.MM *'''原文链接''':http://arxiv.org/abs/2504.12204v1 '''中文摘要''':[[深度神经网络]]([[DNNs]])近年来已成为[[低光照图像增强]]([[LLIE]])的主流方法。然而,尽管取得显著进展,在实际应用中其输出仍可能出现[[噪声放大]]、[[白平衡]]错误或增强不自然等问题。关键挑战在于缺乏能够捕捉[[低光照条件]]和[[成像管线]]复杂性的多样化大规模[[训练数据]]。本文提出一种新颖的[[图像信号处理]]([[ISP]])驱动[[数据合成]]管线,通过生成无限量的配对训练数据来解决这些问题。具体而言,我们的管线从易于采集的高质量[[正常光照图像]]出发,先通过[[逆向ISP]]将其还原为[[RAW格式]],随后直接在[[RAW域]]合成[[低光照退化]]。生成的数据随后经过一系列[[ISP处理]]阶段(包括[[白平衡调整]]、[[色彩空间转换]]、[[色调映射]]和[[伽马校正]]),并在每个阶段引入[[可控变异]]。这拓宽了[[退化空间]]并增强了[[训练数据]]的多样性,使生成数据能捕捉[[ISP管线]]固有的广泛退化类型和复杂性。为验证[[合成管线]]的有效性,我们使用仅包含[[卷积层]]、[[组归一化]]、[[GeLU激活]]和[[卷积块注意力模块]]([[CBAMs]])的基础[[UNet模型]]进行大量实验。跨多[[数据集]]的测试表明,采用本[[数据合成]]管线训练的[[UNet模型]]能生成高保真、视觉吸引力强的增强结果,在[[定量]]和[[定性]]上均超越当前[[最先进]]([[SOTA]])方法。 == 摘要 == * '''原文标题''':Advancing quantum simulations of nuclear shell model with noise-resilient protocols * '''中文标题''':基于噪声弹性协议推进核壳模型的量子模拟 * '''发布日期''':2025-04-16 01:13:39+00:00 * '''作者''':Nifeeya Singh, Pooja Siwach, P. Arumugam * '''分类''':quant-ph, nucl-th *'''原文链接''':http://arxiv.org/abs/2504.11689v1 '''中文摘要''':摘要:通过利用[[量子计算机]],可以克服[[核多体问题]]求解中的部分计算限制。[[核壳模型]]计算能深入揭示[[原子核]]特性,但随着[[希尔伯特空间]]随粒子数呈指数级增长,这类计算对资源需求极高。目前正通过开发[[量子算法]]来突破这些限制并推进此类计算。为构建核壳模型的[[量子电路]],我们充分利用[[噪声中等规模量子]]([[NISQ]])设备的特性,致力于通过优化资源需求(特别是[[量子比特]]和[[量子门]]数量)并采用[[噪声抑制]]技术来降低[[噪声]]影响。我们基于[[Givens旋转]]为[[变分量子本征求解器]]([[VQE]])设计优化拟设,结合[[qubit-ADAPT-VQE]]与[[变分量子紧缩]]([[VQD]])方法计算[[基态]]和[[激发态]],并整合[[零噪声外推]]抑制技术,从而实现[[噪声鲁棒性]]。此外,通过[[格雷码]]编码将基态映射至量子比特,并推广[[费米子算符]]变换以高效表示[[多体态]],显著减少了量子比特需求。应用这些抗噪声方案后,我们以更高精度获得了³⁸[[Ar]]和⁶[[Li]]的基态与激发态能级,分别呈现了无噪声模拟、含噪声环境及噪声抑制后的结果,并对比了[[Jordan-Wigner编码]]与格雷码编码在VQE、qubit-ADAPT-VQE和VQD中的表现。本研究凸显了抗噪声方案在充分发挥NISQ设备潜力以扩展核壳模型计算方面的价值。 == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能变异性研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能]][[基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式系统]]和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一具有代表性的数据密集型、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的各个方面(特别是[[时间效应]])。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设([[变异系数]]<3.7%)。与相关研究不同,我们发现性能确实呈现日和周周期性模式,但波动幅度较小(≤2.5%)。跨多次测试重复使用基准测试[[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(例如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem * '''中文标题''':依赖困境:Maven中央生态系统中独立与依赖构件的对比研究 * '''发布日期''':2025-04-16 17:15:58+00:00 * '''作者''':Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury * '''分类''':cs.SE *'''原文链接''':http://arxiv.org/abs/2504.12261v1 '''中文摘要''':[[Maven Central]][[生态系统]]构成了[[Java]][[依赖管理]]的核心,其托管的[[构件]]在采用度、安全性和生态角色上存在显著差异。[[构件复用]]是[[软件开发]]的基础,而[[Maven Central]]等[[生态系统]]正促进了这一过程。然而,先前研究主要分析了具有大量依赖的[[热门构件]],却未探索那些没有传入依赖的[[独立构件]]。本研究分析了658,078个[[构件]](其中635,003个至少有一个发布版本),发现93,101个[[构件]](15.4%)为[[独立构件]](入度=0),其余归类为[[依赖构件]]。通过[[PageRank]]和[[出度中心性]]分析,我们发现[[独立构件]]对[[生态系统]]至关重要。进一步基于18项指标的对比分析揭示了[[独立构件]]相较于[[依赖构件]]的优势与可比性:[[流行度]]相当(25.58 vs. 7.30)、[[漏洞]]更少(60个[[CVE]] vs. 179个[[CVE]])且无[[漏洞传播]]风险。这些结果表明,[[独立构件]]能显著改善[[生态系统]],为开发者提供安全、自包含的传统[[依赖]]替代方案。研究发现[[独立构件]]可能是更优的[[依赖]]选择,但也存在[[可维护性]]问题。因此开发者应审慎引入[[独立构件]],而[[构件维护者]]应优先关注此类[[构件]],以降低[[传递性漏洞]]传播风险并提升[[软件]][[可持续性]]。 == 摘要 == * '''原文标题''':A viscoplasticity model with an invariant-based non-Newtonian flow rule for unidirectional thermoplastic composites * '''中文标题''':基于不变量的非牛顿流动法则的单向热塑性复合材料粘塑性模型 * '''发布日期''':2025-04-16 13:24:56+00:00 * '''作者''':P. Hofman, D. Kovačević, F. P. van der Meer, L. J. Sluys * '''分类''':cs.CE *'''原文链接''':http://arxiv.org/abs/2504.12069v1 '''中文摘要''':摘要:本文提出了一种三维细观[[粘塑性]]模型,用于模拟单向[[热塑性复合材料]]的速率依赖性[[塑性]]和[[蠕变]]行为。该本构模型是对纯[[聚合物]]各向同性有限应变粘塑性模型的横向各向同性扩展。速率依赖性塑性和蠕变通过非牛顿[[流动法则]]描述,其中材料[[粘度]]通过[[Eyring]]型关系与[[等效应力]]度量相关。在当前公式中,通过将等效应力度量和流动法则定义为横向各向同性[[应力不变量]]的函数来实现横向各向同性。此外,Eyring型粘度函数还扩展了各向异性[[压力依赖性]]。该公式有效排除了[[纤维]]方向的塑性流动,并考虑了聚合物[[基体]]的压力依赖性。塑性变形过程中横向各向同性平面的重新定向被纳入[[本构方程]],从而实现了精确的[[大变形]]响应。该公式完全隐式,并对算法本构方程进行了一致线性化以推导一致[[切线模量]]。通过与[[碳纤维]]/[[PEEK]]的[[微观力学]]模型、聚合物基体的原始各向同性粘塑性版本以及[[超弹性]]纤维的比较,评估了细观本构模型的性能。首先使用[[微观模型]]通过少量[[应力-应变曲线]]确定细观模型的[[材料参数]]。结果表明,细观模型在各种[[加载条件]]下都能给出与微观模型相似的响应。最后,通过单向热塑性复合材料层板的[[偏轴实验]]验证了细观模型的[[有效性]]。 == 摘要 == * '''原文标题''':Advancing quantum simulations of nuclear shell model with noise-resilient protocols * '''中文标题''':利用抗噪声协议推进核壳模型的量子模拟 * '''发布日期''':2025-04-16 01:13:39+00:00 * '''作者''':Nifeeya Singh, Pooja Siwach, P. Arumugam * '''分类''':quant-ph, nucl-th *'''原文链接''':http://arxiv.org/abs/2504.11689v1 '''中文摘要''':摘要:通过利用[[量子计算机]],可以克服解决[[核多体问题]]中的部分计算限制。[[核壳模型]]计算能更深入地揭示[[原子核]]特性,但随着涉及[[粒子]]数量的增加,[[希尔伯特空间]]呈指数级增长,这类计算对资源的需求极高。目前正在开发[[量子算法]]以应对这些挑战并推进此类计算。为开发适用于[[核壳模型]]的[[量子电路]],我们充分利用[[噪声中等规模量子]]([[NISQ]])设备的性能,旨在最小化资源需求(特别是[[量子比特]]和[[量子门]]数量),并通过采用相关缓解技术来降低[[噪声]]影响。我们基于[[吉文斯旋转]]为[[变分量子本征求解器]]([[VQE]])设计优化拟设,并结合[[qubit-ADAPT-VQE]]与[[变分量子紧缩]]([[VQD]])来计算[[基态]]和[[激发态]],同时采用[[零噪声外推]]缓解技术,从而实现[[噪声鲁棒性]]。此外,通过[[格雷码]]编码将[[基态]]映射到[[量子比特]],并推广[[费米子算符]]变换以高效表示[[多体态]],显著减少了[[量子比特]]需求。运用这些抗噪声方案,我们以更高精度获得了[[38Ar]]和[[6Li]]的[[基态]]与[[激发态]]能级,并分别呈现了无噪声模拟、含噪声条件及噪声缓解后的能级结果。研究对比了采用[[VQE]]、[[qubit-ADAPT-VQE]]和[[VQD]]时[[乔丹-维格纳编码]]与[[格雷码编码]]的效果。本工作凸显了抗噪声方案在充分发挥[[NISQ]]设备潜力以扩展[[核壳模型]]计算规模方面的价值。 == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能变异性研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以得出关于实际性能的可靠结论。本文通过实证研究量化了[[云性能]]波动对基准测试结果的影响,重点关注作为数据密集型关键性能系统代表的[[流处理]]应用。在一项历时三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而能够评估性能波动的各个方面(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度通常低于假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日和周周期性模式,但波动幅度较小(≤2.5%)。跨多次测试重复使用基准测试基础设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(例如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem * '''中文标题''':依赖困境:Maven中央生态系统中独立与依赖构件的对比研究 * '''发布日期''':2025-04-16 17:15:58+00:00 * '''作者''':Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury * '''分类''':cs.SE *'''原文链接''':http://arxiv.org/abs/2504.12261v1 '''中文摘要''':[[Maven Central]][[生态系统]]构成了[[Java]][[依赖管理]]的核心,其托管的[[构件]]在[[采用率]]、[[安全性]]和生态角色上存在显著差异。[[构件复用]]是[[软件开发]]的基础,而[[Maven Central]]等[[生态系统]]正促进了这一过程。然而,先前研究主要分析了具有大量依赖的[[热门构件]],却未探索那些没有传入依赖的[[独立构件]]。本研究分析了658,078个[[构件]](其中635,003个至少有一个[[发布版本]]),发现93,101个[[构件]](15.4%)为[[独立构件]]([[入度]]=0),其余归类为[[依赖构件]]。通过[[PageRank]]和[[出度中心性]]评估发现,[[独立构件]]对[[生态系统]]至关重要。针对18项[[指标]]的进一步分析揭示了[[独立构件]]相较于[[依赖构件]]的优势与可比性:[[流行度]]相当(25.58 vs. 7.30)、[[漏洞]]更少(60个[[CVE]] vs. 179个[[CVE]])且无[[传播性漏洞]]。这些结果表明,[[独立构件]]显著影响[[生态系统]],为开发者提供了安全、自包含的传统[[依赖]]替代方案。研究发现[[独立构件]]可能是更优的[[依赖]]选择,但也存在[[可维护性]]问题。因此开发者应审慎引入[[独立构件]],而[[构件维护者]]应优先关注此类[[构件]],以降低[[传递性漏洞]]传播风险并提升[[软件]][[可持续性]]。 == 摘要 == * '''原文标题''':Advancing quantum simulations of nuclear shell model with noise-resilient protocols * '''中文标题''':基于噪声鲁棒协议推进核壳模型的量子模拟 * '''发布日期''':2025-04-16 01:13:39+00:00 * '''作者''':Nifeeya Singh, Pooja Siwach, P. Arumugam * '''分类''':quant-ph, nucl-th *'''原文链接''':http://arxiv.org/abs/2504.11689v1 '''中文摘要''':摘要:通过利用[[量子计算机]]可以克服[[核多体问题]]求解中的部分计算限制。[[核壳模型]]计算能深入揭示[[原子核]]特性,但随着[[希尔伯特空间]]维度随粒子数呈指数增长,这类计算对资源需求极高。目前正在开发[[量子算法]]以应对这些挑战并推进此类计算。为构建核壳模型的[[量子电路]],我们充分利用[[噪声中等规模量子]]([[NISQ]])设备的特性,着力减少资源需求(特别是[[量子比特]]和[[量子门]]数量),并通过采用[[噪声缓解技术]]降低[[噪声]]影响。我们基于[[Givens旋转]]为[[变分量子本征求解器]]([[VQE]])设计优化拟设,结合[[qubit-ADAPT-VQE]]与[[变分量子紧缩]]([[VQD]])方法计算[[基态]]和[[激发态]],同时引入[[零噪声外推]]缓解技术,从而实现[[噪声鲁棒性]]。此外,通过[[格雷码]]编码将基态映射至量子比特,并推广[[费米子算符]]变换以高效表示[[多体态]],显著降低了量子比特需求。采用这些[[抗噪声]]方案后,我们以更高精度获得了[[38Ar]]和[[6Li]]的基态与激发态能级,并分别呈现了无噪声模拟、含噪声条件及噪声缓解后的能级结果。研究对比了[[Jordan-Wigner编码]]与格雷码编码在VQE、qubit-ADAPT-VQE和VQD中的表现。本工作凸显了抗噪声方案在充分发挥NISQ设备潜力、扩展核壳模型计算规模方面的巨大潜力。 == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能]][[基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式]]和[[数据密集型]][[系统]]时。虽然[[云环境]]为运行[[基准测试]]提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过[[实证研究]]量化了[[云性能]]波动对[[基准测试]]结果的影响,重点关注[[流处理]][[应用]]这一典型的[[数据密集型]]、[[性能关键型]][[系统]]。在一项持续三个多月的[[纵向研究]]中,我们重复执行了[[Dynatrace]]研发中使用的[[应用]][[基准测试]],从而能够评估[[性能波动]]的各个方面(特别是[[时间效应]])。通过约591小时的[[实验]],在[[AWS]]上部署789个[[Kubernetes]][[集群]]并执行2366次[[基准测试]],这可能是同类研究中规模最大且唯一从[[端到端]](即[[应用]][[基准测试]]视角)探讨[[性能]]的研究。我们的研究证实[[性能波动]]确实存在,但其程度往往低于普遍假设([[变异系数]]<3.7%)。与相关研究不同,我们发现[[性能]]确实呈现[[日]]和[[周]][[周期性]][[波动]],但幅度较小(≤2.5%)。跨多次测试重复使用[[基准测试]][[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器]][[架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著[[性能差异]](例如>5%)的[[工程师]]和[[研究人员]]而言... == 摘要 == * '''原文标题''':Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem * '''中文标题''':依赖困境:Maven中央生态系统中独立与依赖构件的对比研究 * '''发布日期''':2025-04-16 17:15:58+00:00 * '''作者''':Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury * '''分类''':cs.SE *'''原文链接''':http://arxiv.org/abs/2504.12261v1 '''中文摘要''':[[Maven Central]]生态系统构成了[[Java]]依赖管理的核心,承载着在采用率、安全性和生态系统角色上差异显著的构件。构件重用是[[软件开发]]的基础,而[[Maven Central]]等生态系统促进了这一过程。然而,先前研究主要分析了具有大量依赖的热门构件,对那些没有传入依赖的独立构件缺乏探索。本研究分析了658,078个构件(其中635,003个至少有一个发布版本),发现93,101个构件(15.4%)为独立构件(入度=0),其余归类为依赖构件。通过[[PageRank]]和出度中心性分析发现,独立构件对生态系统至关重要。针对18项指标的进一步分析揭示了独立构件相较于依赖构件的优势与可比性:具有相当的流行度(25.58 vs. 7.30)、更少漏洞(60个[[CVE]] vs. 179个[[CVE]])且零传播漏洞。这些结果表明,独立构件显著影响生态系统,为开发者提供了安全、自包含的传统依赖替代方案。研究发现表明独立构件可能是更优的依赖选择,但也存在可维护性问题。因此开发者应审慎采用独立构件,而构件维护者应优先关注这类构件,以降低传递性漏洞传播风险并提升[[软件可持续性]]。 == 摘要 == * '''原文标题''':Advancing quantum simulations of nuclear shell model with noise-resilient protocols * '''中文标题''':利用抗噪声协议推进核壳模型的量子模拟 * '''发布日期''':2025-04-16 01:13:39+00:00 * '''作者''':Nifeeya Singh, Pooja Siwach, P. Arumugam * '''分类''':quant-ph, nucl-th *'''原文链接''':http://arxiv.org/abs/2504.11689v1 '''中文摘要''':摘要:解决[[核多体问题]]的部分计算限制可通过[[量子计算机]]克服。[[核壳层模型]]计算能深入揭示[[原子核]]特性,但随着[[希尔伯特空间]]随[[粒子数]]呈指数增长,这类计算对资源需求极高。当前正开发[[量子算法]]以应对这些挑战并推进此类计算。为构建核壳层模型的[[量子电路]],我们利用[[噪声中等规模量子]]([[NISQ]])设备的特性,旨在最小化资源需求(特别是[[量子比特]]和[[量子门]]数量),并通过采用[[噪声缓解技术]]降低[[噪声]]影响。我们基于[[Givens旋转]]设计优化的[[变分量子本征求解器]]([[VQE]])拟设,结合[[qubit-ADAPT-VQE]]与[[变分量子紧缩]]([[VQD]])方法计算[[基态]]和[[激发态]],整合[[零噪声外推]]缓解技术,从而实现[[噪声鲁棒性]]。此外,通过[[格雷码]]编码将基态映射至量子比特,并推广[[费米子算符]]变换以高效表示[[多体态]],显著减少了量子比特需求。采用这些[[抗噪声]]方案后,我们以更高精度获得了³⁸[[Ar]]和⁶[[Li]]的基态与激发态能级,并展示了无噪声模拟、含噪声条件及噪声缓解后的能级结果。研究对比了[[Jordan-Wigner编码]]与格雷码编码在VQE、qubit-ADAPT-VQE和VQD中的表现。本工作凸显了抗噪声方案在释放NISQ设备潜力、扩展核壳层模型计算规模方面的价值。 == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能变异性研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以得出关于真实世界性能的可靠结论。本文通过实证研究量化了[[云性能]]波动对基准测试结果的影响,重点关注作为数据密集型、性能关键型系统代表的[[流处理]]应用。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而能够评估性能波动的各个方面(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从端到端(即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度通常低于假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日和周周期性模式,尽管波动幅度较小(≤2.5%)。跨多次测试重复使用基准测试基础设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':Dependency Dilemmas: A Comparative Study of Independent and Dependent Artifacts in Maven Central Ecosystem * '''中文标题''':依赖困境:Maven中央生态系统中独立与依赖构件的对比研究 * '''发布日期''':2025-04-16 17:15:58+00:00 * '''作者''':Mehedi Hasan Shanto, Muhammad Asaduzzaman, Manishankar Mondal, Shaiful Chowdhury * '''分类''':cs.SE *'''原文链接''':http://arxiv.org/abs/2504.12261v1 '''中文摘要''':[[Maven Central]]生态系统构成了[[Java]]依赖管理的核心,承载着在采用率、安全性和生态系统角色上差异显著的构件。构件重用是[[软件开发]]的基础,而[[Maven Central]]等生态系统促进了这一过程。然而,先前研究主要分析了具有大量依赖的热门构件,却未探索那些没有传入依赖的独立构件。本研究分析了658,078个构件(其中635,003个至少有一个发布版本),发现93,101个构件(15.4%)为独立构件(入度=0),其余归类为依赖构件。通过[[PageRank]]和出度中心性评估发现,独立构件对生态系统至关重要。针对18项指标的进一步分析揭示了独立构件相较于依赖构件的优势与可比性:具有相当的流行度(25.58 vs. 7.30)、更少漏洞(60个[[CVE]] vs. 179个[[CVE]])且零传播漏洞。结果表明,独立构件显著影响生态系统,为开发者提供了安全、自包含的传统依赖替代方案。这些发现表明独立构件可能是依赖关系的有利选择,但存在可维护性问题。因此开发者应审慎引入独立构件,而构件维护者应优先关注此类构件以降低传递性漏洞传播风险,提升[[软件可持续性]]。 == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日周期和周周期模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项历时三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过累计591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日周期和周周期模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会导致结果准确度轻微下降(≤2.5个百分点)。这些关键发现在不同[[云区域]]和采用不同[[处理器架构]]的机器类型中均保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证研究量化了[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而能够评估性能波动的各个方面(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从端到端(即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度通常低于假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日和周周期性波动,但幅度较小(≤2.5%)。跨多次测试重复使用基准测试基础设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一具有代表性的数据密集型、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从端到端(即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日和周周期性波动,但幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会导致结果准确度轻微下降(≤2.5个百分点)。这些关键发现在不同[[云区域]]和[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能[[基准测试]]是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试间的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的数据密集型、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从端到端(即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度通常低于假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日和周周期性波动,但幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会导致结果准确度轻微下降(≤2.5个百分点)。这些关键发现在不同[[云区域]]和[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能]][[基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式]]和[[数据密集型]][[系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]][[应用]]这一典型的[[数据密集型]]、[[性能关键型]][[系统]]。在一项持续三个多月的[[纵向研究]]中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的各个方面(特别是[[时间效应]])。通过约591小时的[[实验]],在[[AWS]]上部署789个[[Kubernetes]][[集群]]并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)考察性能的研究。我们的研究证实性能波动确实存在,但其程度通常低于假设([[变异系数]]<3.7%)。与相关研究不同,我们发现性能确实呈现[[日]]和[[周]][[周期性]][[模式]],但波动幅度较小(≤2.5%)。跨多次测试复用基准测试[[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器]][[架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著性能差异(例如>5%)的[[工程师]]和[[研究人员]]而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能变异性研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的各个方面(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从端到端(即应用基准视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日周期和周周期模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(例如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的各个方面(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从端到端(即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度通常低于假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日和周周期性波动,但幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会导致结果准确性轻微下降(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时应运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能[[基准测试]]是[[软件工程]]中的常见实践,尤其在构建大规模、[[分布式系统]]和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试间的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的数据密集型、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的各个方面(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度通常低于假设([[变异系数]]<3.7%)。与相关研究不同,我们发现性能确实呈现日和周周期性波动,但幅度较小(≤2.5%)。跨多次重复测试复用基准测试[[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能]][[基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式]]和[[数据密集型]][[系统]]时。虽然[[云环境]]为运行[[基准测试]]提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对[[基准测试]]结果的影响,重点关注[[流处理]][[应用]]这一典型的[[数据密集型]]、[[性能关键型]][[系统]]。在一项历时三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用[[基准测试]],从而评估[[性能波动]]的多个维度(特别是[[时间效应]])。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]][[集群]]并执行2366次[[基准测试]],这可能是同类研究中规模最大且唯一从[[端到端]](即应用[[基准测试]]视角)探讨[[性能]]的研究。我们的研究证实[[性能波动]]确实存在,但其程度通常低于假设([[变异系数]]<3.7%)。与相关研究不同,我们发现[[性能]]确实呈现[[日周期]]和[[周周期]]模式,但波动幅度较小(≤2.5%)。跨多次测试复用[[基准测试]][[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器]][[架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著[[性能差异]](例如>5%)的[[工程师]]和[[研究人员]]而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项历时三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的各个方面(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)考察性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日周期和周周期模式,但波动幅度较小(≤2.5%)。跨多次测试重复使用基准测试基础设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的各个方面(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度通常低于假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日和周周期性模式,但波动幅度较小(≤2.5%)。跨多次重复测试复用基准测试基础设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(例如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项历时三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从端到端(即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日和周周期性波动,但幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和采用不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能变异性研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项历时三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日周期和周周期模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会导致结果准确性轻微下降(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能变异性研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能[[基准测试]]是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试间的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,聚焦[[流处理]]应用作为数据密集型、性能关键型系统的代表案例。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)考察性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日周期和周周期模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和[[处理器架构]]的机型间保持一致性。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究者而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试间的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,聚焦[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项历时三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从端到端(即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日周期和周周期模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和[[处理器架构]]的机器类型中保持一致性。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证研究量化了[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署了789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从端到端(即应用基准测试视角)考察性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日周期和周周期模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和采用不同[[处理器架构]]的机器类型中保持一致性。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能[[基准测试]]是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项历时三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日和周周期性波动,但幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会导致结果准确性轻微下降(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项历时三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)考察性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日周期和周周期模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会导致结果准确性轻微下降(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能]][[基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式]]和[[数据密集型]][[系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]][[应用]]这一典型的[[数据密集型]]、[[性能关键型]][[系统]]。在一项持续三个多月的[[纵向研究]]中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是[[时间效应]])。通过约591小时的[[实验]],在[[AWS]]上部署789个[[Kubernetes]][[集群]]并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)考察性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设([[变异系数]]<3.7%)。与相关研究不同,我们发现性能确实呈现[[日周期]]和[[周周期]]模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试[[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器]][[架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的[[工程师]]和[[研究人员]]而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项历时三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日周期和周周期模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会导致结果准确度轻微下降(≤2.5个百分点)。这些关键发现在不同[[云区域]]和采用不同[[处理器架构]]的机器类型中均保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试间的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从端到端(即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日周期和周周期模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能变异性研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能]][[基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式]]和[[数据密集型]][[系统]]时。虽然[[云环境]]为运行[[基准测试]]提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对[[基准测试]]结果的影响,重点关注[[流处理]][[应用]]这一典型的[[数据密集型]]、[[性能关键型]][[系统]]。在一项历时三个多月的[[纵向研究]]中,我们重复执行了[[Dynatrace]]研发中使用的[[应用]][[基准测试]],从而评估[[性能波动]]的多个维度(特别是[[时间效应]])。通过约591小时的[[实验]],在[[AWS]]上部署789个[[Kubernetes]][[集群]]并执行2366次[[基准测试]],这可能是同类研究中规模最大且唯一从[[端到端]](即[[应用]][[基准测试]]视角)考察[[性能]]的研究。我们的研究证实[[性能波动]]确实存在,但其程度低于通常假设([[变异系数]]<3.7%)。与相关研究不同,我们发现[[性能]]确实呈现[[日周期]]和[[周周期]]模式,但波动幅度较小(≤2.5%)。跨多次测试复用[[基准测试]][[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器]][[架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著[[性能差异]](如>5%)的[[工程师]]和[[研究人员]]而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过累计591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度通常低于假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日周期和周周期模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准设施仅会导致结果精度轻微下降(≤2.5个百分点)。这些关键发现在不同[[云区域]]和[[处理器架构]]的机型间保持一致性。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究者而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式系统]]和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一具有代表性的数据密集型、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的各个方面(特别是[[时间效应]])。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设([[变异系数]]<3.7%)。与相关研究不同,我们发现性能确实呈现日和周[[周期性波动]],但幅度较小(≤2.5%)。跨多次测试重复使用基准测试[[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的各个方面(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度通常低于假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现每日和每周周期性模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(例如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能]][[基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式系统]]和[[数据密集型]][[系统]]时。虽然[[云环境]]为运行[[基准测试]]提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]][[波动]]对[[基准测试]]结果的影响,重点关注[[流处理]][[应用]]这一典型的[[数据密集型]]、[[性能关键型]][[系统]]。在一项历时三个多月的[[纵向研究]]中,我们重复执行了[[Dynatrace]]研发中使用的[[应用]][[基准测试]],从而评估[[性能波动]]的各个方面(特别是[[时间效应]])。通过约591小时的[[实验]],在[[AWS]]上部署789个[[Kubernetes]][[集群]]并执行2366次[[基准测试]],这可能是同类研究中规模最大且唯一从[[端到端]](即[[应用]][[基准测试]]视角)探讨[[性能]]的研究。我们的研究证实[[性能波动]]确实存在,但其程度通常低于假设([[变异系数]]<3.7%)。与相关研究不同,我们发现[[性能]]确实呈现[[日]]和[[周]][[周期性]][[波动]],但幅度较小(≤2.5%)。跨多次测试复用[[基准测试]][[基础设施]]仅会轻微降低结果[[准确性]](≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器]][[架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著[[性能]][[差异]](例如>5%)的[[工程师]]和[[研究人员]]而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能[[基准测试]]是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过[[实证研究]]量化了[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、[[性能关键型系统]]。在一项历时三个多月的[[纵向研究]]中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的各个方面(特别是[[时间效应]])。通过约591小时的实验,在[[AWS]]上部署了789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度通常低于假设([[变异系数]]<3.7%)。与相关研究不同,我们发现性能确实呈现日和周[[周期性波动]],但幅度较小(≤2.5%)。跨多次测试重复使用基准测试[[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能]][[基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式]]和[[数据密集型]][[系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]][[波动]]对基准测试结果的影响,重点关注[[流处理]][[应用]]这一典型的[[数据密集型]]、[[性能关键型]][[系统]]。在一项持续三个多月的[[纵向研究]]中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是[[时间效应]])。通过约591小时的[[实验]],在[[AWS]]上部署789个[[Kubernetes]][[集群]]并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设([[变异系数]]<3.7%)。与相关研究不同,我们发现性能确实呈现[[日周期]]和[[周周期]]模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试[[基础设施]]仅会导致结果准确性轻微下降(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器]][[架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的[[工程师]]和[[研究人员]]而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能[[基准测试]]是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过[[实证研究]]量化了[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一具有代表性的数据密集型、性能关键型系统。在一项持续三个多月的[[纵向研究]]中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是[[时间效应]])。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设([[变异系数]]<3.7%)。与相关研究不同,我们发现性能确实呈现[[日周期]]和[[周周期]]模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试[[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能变异性研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能]][[基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式]]和[[数据密集型]][[系统]]时。虽然[[云环境]]为运行[[基准测试]]提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对[[基准测试]]结果的影响,重点关注[[流处理]][[应用]]这一典型的[[数据密集型]]、[[性能关键型]][[系统]]。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的[[应用]][[基准测试]],从而评估[[性能波动]]的各个方面(特别是[[时间效应]])。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]][[集群]]并执行2366次[[基准测试]],这可能是同类研究中规模最大且唯一从[[端到端]](即[[应用]][[基准测试]]视角)探讨[[性能]]的研究。我们的研究证实[[性能波动]]确实存在,但其程度低于通常假设([[变异系数]]<3.7%)。与相关研究不同,我们发现[[性能]]确实呈现日和周周期性波动,但幅度较小(≤2.5%)。跨多次测试复用[[基准测试]][[基础设施]]仅会导致结果准确性轻微下降(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器]][[架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著[[性能差异]](如>5%)的[[工程师]]和[[研究人员]]而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试间的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从端到端(即应用基准测试视角)考察性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日和周周期性波动,但幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能]][[基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式]]和[[数据密集型]][[系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]][[应用]]这一典型的[[数据密集型]]、[[性能关键型]][[系统]]。在一项持续三个多月的[[纵向研究]]中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的各个方面(特别是[[时间效应]])。通过约591小时的[[实验]],在[[AWS]]上部署789个[[Kubernetes]][[集群]]并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设([[变异系数]]<3.7%)。与相关研究不同,我们发现性能确实呈现每日和每周周期性模式,但波动幅度较小(≤2.5%)。跨多次测试重复使用基准测试[[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器]][[架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著性能差异(例如>5%)的[[工程师]]和[[研究人员]]而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试间的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项历时三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的多个维度(特别是[[时间效应]])。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从[[端到端]](即应用基准测试视角)考察性能的研究。我们的研究证实性能波动确实存在,但其程度低于通常假设([[变异系数]]<3.7%)。与相关研究不同,我们发现性能确实呈现[[日周期]]和[[周周期]]模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试[[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能]][[基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式]]和[[数据密集型]][[系统]]时。虽然[[云环境]]为运行[[基准测试]]提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对[[基准测试]]结果的影响,重点关注[[流处理]][[应用]]这一具有代表性的[[数据密集型]]、[[性能关键型]][[系统]]。在一项持续三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的[[应用]][[基准测试]],从而评估[[性能波动]]的各个方面(特别是[[时间效应]])。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]][[集群]]并执行2366次[[基准测试]],这可能是同类研究中规模最大且唯一从[[端到端]](即[[应用]][[基准测试]]视角)探讨[[性能]]的研究。我们的研究证实[[性能波动]]确实存在,但其程度通常低于假设([[变异系数]]<3.7%)。与相关研究不同,我们发现[[性能]]确实呈现每日和每周周期性模式,但波动幅度较小(≤2.5%)。跨多次测试重复使用[[基准测试]][[基础设施]]仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器]][[架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著[[性能差异]](例如>5%)的[[工程师]]和[[研究人员]]而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能[[基准测试]]是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试间的结果可能存在显著差异——这使得难以对实际性能得出可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项历时三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而评估性能波动的各个方面(特别是时间效应)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从端到端(即应用基准视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度通常低于假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日和周周期性波动,但幅度较小(≤2.5%)。跨多次测试复用基准设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':[[性能]][[基准测试]]是[[软件工程]]中的常见实践,尤其在构建[[大规模]]、[[分布式]]和[[数据密集型]][[系统]]时。虽然[[云环境]]为运行[[基准测试]]提供了诸多优势,但经常有报告指出[[重复测试]]的结果可能存在显著差异——这使得难以对实际[[性能]]得出可靠结论。本文通过实证量化[[云性能]][[波动]]对[[基准测试]]结果的影响,重点关注[[流处理]][[应用]]这一典型的[[数据密集型]]、[[性能关键型]][[系统]]。在一项持续三个多月的[[纵向研究]]中,我们重复执行了[[Dynatrace]]研发中使用的[[应用]][[基准测试]],从而评估[[性能]][[波动]]的各个方面(特别是[[时间效应]])。通过约591小时的[[实验]],在[[AWS]]上部署789个[[Kubernetes]][[集群]]并执行2366次[[基准测试]],这可能是同类研究中规模最大且唯一从[[端到端]](即[[应用]][[基准测试]]视角)探讨[[性能]]的研究。我们的研究证实[[性能]][[波动]]确实存在,但其程度低于通常假设([[变异系数]]<3.7%)。与相关研究不同,我们发现[[性能]]确实呈现[[日]]和[[周]][[周期性]][[波动]],但幅度较小(≤2.5%)。跨多次测试复用[[基准测试]][[基础设施]]仅会轻微降低结果[[准确性]](≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器]][[架构]]的[[机器类型]]中保持一致。我们得出结论:对于关注检测显著[[性能]][[差异]](如>5%)的[[工程师]]和[[研究人员]]而言... == 摘要 == * '''原文标题''':When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications * '''中文标题''':何时运行应用程序基准测试?——针对流处理应用的云性能波动研究 * '''发布日期''':2025-04-16 07:22:44+00:00 * '''作者''':Sören Henning, Adriano Vogel, Esteban Perez-Wohlfeil, Otmar Ertl, Rick Rabiser * '''分类''':cs.SE, cs.DC, cs.PF *'''原文链接''':http://arxiv.org/abs/2504.11826v1 '''中文摘要''':性能基准测试是[[软件工程]]中的常见实践,尤其在构建大规模、分布式和[[数据密集型系统]]时。虽然[[云环境]]为运行基准测试提供了诸多优势,但经常有报告指出重复测试的结果可能存在显著差异——这使得难以得出关于真实世界性能的可靠结论。本文通过实证量化[[云性能]]波动对基准测试结果的影响,重点关注[[流处理]]应用这一典型的[[数据密集型]]、性能关键型系统。在一项历时三个多月的纵向研究中,我们重复执行了[[Dynatrace]]研发中使用的应用基准测试,从而能够评估性能波动的各个方面(特别是时间效应相关因素)。通过约591小时的实验,在[[AWS]]上部署789个[[Kubernetes]]集群并执行2366次基准测试,这可能是同类研究中规模最大且唯一从端到端(即应用基准测试视角)探讨性能的研究。我们的研究证实性能波动确实存在,但其程度通常低于假设(变异系数<3.7%)。与相关研究不同,我们发现性能确实呈现日周期和周周期模式,但波动幅度较小(≤2.5%)。跨多次测试复用基准测试基础设施仅会轻微降低结果准确性(≤2.5个百分点)。这些关键发现在不同[[云区域]]和具有不同[[处理器架构]]的机器类型中保持一致。我们得出结论:对于关注检测显著性能差异(如>5%)的工程师和研究人员而言...
返回
WikiEdge:ArXiv速递/2025-04-16
。
导航菜单
个人工具
创建账号
登录
命名空间
项目页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
工具
链入页面
相关更改
特殊页面
页面信息