查看“WikiEdge:ArXiv速递/2025-04-15”的源代码
←
WikiEdge:ArXiv速递/2025-04-15
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
== 摘要 == * '''原文标题''':Breaking a Long-Standing Barrier: 2-$\varepsilon$ Approximation for Steiner Forest * '''中文标题''':突破长期障碍:斯坦纳森林问题的2-ε近似算法 * '''发布日期''':2025-04-15 17:13:48+00:00 * '''作者''':Ali Ahmadi, Iman Gholami, MohammadTaghi Hajiaghayi, Peyman Jabbarzade, Mohammad Mahdavi * '''分类''':cs.DS *'''原文链接''':http://arxiv.org/abs/2504.11398v1 '''中文摘要''':[[斯坦纳森林问题]](又称广义[[斯坦纳树问题]])是边加权图上的一个基本优化问题,其目标是在给定顶点对集合的情况下,选择一个最小成本的子图使得每对顶点都连通。该问题推广了1811年首次提出的[[斯坦纳树问题]],后者的最佳已知近似因子为1.39 [[Byrka等,2010]]([[STOC]] 2010最佳论文奖)。[[Agrawal等,1989]]([[STOC]] 2023三十年时间检验奖)的开创性工作与[[Goemans和Williamson,1992]]([[SICOMP]]'95)的改进,在35年前就建立了[[斯坦纳森林问题]]的2-近似算法。[[Jain]]([[FOCS]]'98)开创性的迭代舍入技术后来将这些结果扩展到更高连通性场景。尽管该问题具有长期重要性,但突破2的近似因子始终是重大挑战,甚至引发类似[[顶点覆盖问题]]的猜想——获得更好因子可能确实困难。值得注意的是,包括[[Gupta和Kumar]]([[STOC]]'15)以及[[Gro{\ss}等]]([[ITCS]]'18)的基础性工作,分别提出了96和69近似算法,可能寄望为[[斯坦纳森林问题]]实现低于2的常数因子近似突破铺路。 本文通过设计一种新颖的确定性算法,实现了$2 - 10^{-11}$的近似比,突破了2的近似壁垒。作为方法的核心组件,我们还针对[[斯坦纳树问题]]提出了一种基于对偶的局部搜索算法,其近似保证为$1.943$,该成果本身也具有独立价值。 == 摘要 == * '''原文标题''':Progressive Rock Music Classification * '''中文标题''':渐进摇滚音乐分类 * '''发布日期''':2025-04-15 02:48:52+00:00 * '''作者''':Arpan Nagar, Joseph Bensabat, Jokent Gaza, Moinak Dey * '''分类''':cs.SD, cs.AI, cs.LG, eess.AS *'''原文链接''':http://arxiv.org/abs/2504.10821v1 '''中文摘要''':本研究探讨[[前卫摇滚]]音乐的[[分类问题]],该[[音乐流派]]以复杂的[[作曲结构]]和多样化的[[器乐编配]]为特征,与其他[[音乐风格]]截然不同。针对这一[[音乐信息检索]]([[MIR]])任务,我们使用[[Librosa]]库从[[歌曲]]片段中提取了包括[[声谱图]]、[[梅尔频率倒谱系数]]([[MFCCs]])、[[色度图]]和[[节拍位置]]在内的综合[[音频特征]],并通过[[赢家通吃]]投票策略将片段级预测聚合为最终歌曲分类。我们对多种[[机器学习]]技术进行了对比分析:在[[计算资源]]受限情况下,采用[[主成分分析]]([[PCA]])进行[[降维]]处理,探索了包含[[Bagging]]([[随机森林]]、[[极端随机树]]、[[Bagging分类器]])和[[Boosting]]([[XGBoost]]、[[梯度提升]])的[[集成方法]];同时研究了[[深度学习方法]],包括开发具有特定[[层配置]]、[[归一化]]和[[激活函数]]的定制[[一维卷积神经网络]]([[1D CNN]])架构(命名为"Zuck"和"Satya"),并微调了基于[[注意力机制]]的最先进[[音频声谱图变换器]]([[AST]])模型。[[验证集]]和[[测试集]]的[[性能评估]]显示不同[[模型]]效果各异,其中[[极端随机树]]等集成方法最高达到76.38%的测试[[准确率]]。本研究为[[前卫摇滚]]流派分类这一精细任务提供了多种[[机器学习范式]]应用及相对性能的深入见解。 == 摘要 == * '''原文标题''':SimpleAR: Pushing the Frontier of Autoregressive Visual Generation through Pretraining, SFT, and RL * '''中文标题''':SimpleAR:通过预训练、监督微调与强化学习推动自回归视觉生成的前沿 * '''发布日期''':2025-04-15 17:59:46+00:00 * '''作者''':Junke Wang, Zhi Tian, Xun Wang, Xinyu Zhang, Weilin Huang, Zuxuan Wu, Yu-Gang Jiang * '''分类''':cs.CV *'''原文链接''':http://arxiv.org/abs/2504.11455v1 '''中文摘要''':摘要:本文提出[[SimpleAR]]框架,这是一种未经复杂架构修改的朴素[[自回归]]视觉生成方法。通过深入探索[[训练]]和[[推理]]优化,我们证明:1) 仅需5亿参数,该模型即可生成1024x1024分辨率的[[高保真图像]],并在[[文本到图像]]基准测试中取得竞争力成绩(如[[GenEval]] 0.59分,[[DPG]] 79.66分);2) [[监督微调]](SFT)和[[组相对策略优化]](GRPO)训练均能显著提升生成美学效果和提示对齐质量;3) 结合[[vLLM]]等推理加速技术,[[SimpleAR]]生成1024x1024图像的时间可缩短至约14秒。通过公开这些发现及开源代码,我们希望揭示[[自回归]]视觉生成的潜力,并鼓励更多研究者参与该领域。代码详见https://github.com/wdrink/SimpleAR。 == 摘要 == * '''原文标题''':Smartphone-Based Undergraduate Physics Labs: A Comprehensive Review of Innovation, Accessibility, and Pedagogical Impact * '''中文标题''':基于智能手机的本科物理实验:创新性、可及性与教学影响的全面综述 * '''发布日期''':2025-04-15 16:28:13+00:00 * '''作者''':Yiping Zhao * '''分类''':physics.ed-ph *'''原文链接''':http://arxiv.org/abs/2504.11363v1 '''中文摘要''':基于[[智能手机]]的本科[[物理实验]]:创新性、可及性与教学影响的全面综述 [[智能手机集成物理实验室]](SmartIPLs)已成为传统[[实验教学]]的可扩展且经济高效的替代方案,为多样化[[学习环境]]提供了便捷的[[实践体验]]。本综述整合了十余年研究成果,涵盖[[力学]]、[[光学]]、[[声学]]、[[电磁学]]、[[热力学]]及[[现代物理]]等关键领域的近200项SmartIPLs案例。SmartIPLs主要分为两类:利用手机内置工具的[[传感器实验]],以及基于[[摄像头]]的[[运动]]与[[光学研究]][[视频]]/[[图像分析]]。[[实证研究]]表明,SmartIPLs在[[概念理解]]、[[科学过程技能]]和[[学生参与度]]方面支持同等或更优的[[教学效果]],特别适用于[[远程教育]]和[[资源匮乏环境]]。本文探讨了其[[理论基础]],与传统及[[虚拟实验室]]进行对比,并解决了[[设备差异性]]和[[课堂整合]]等挑战。未来方向包括:更广泛的[[课程整合]]、[[AI]]驱动的[[学生反馈]]、向[[代表性不足]]的物理主题拓展、[[跨学科应用]]以及注重[[公平性]]的[[教学设计]]。诸如[[佐治亚大学]]智能手机物理实验频道、[[现代光学]][[YouTube]]频道,以及[[SPIE]]出版物《智能手机在光学实验中的应用》等[[开放资源]],体现了[[社区]]推动[[物理教育]][[普及化]]的努力。随着[[智能手机技术]]进步,SmartIPLs将为[[21世纪]][[适应性]]、[[智能化]]和[[包容性]]的[[实验教学]]开辟新路径。 == 摘要 == * '''原文标题''':What it takes to break a liquid: analysis of the cavitation threshold in various media * '''中文标题''':击破液体所需条件:不同介质中空化阈值的分析 * '''发布日期''':2025-04-15 12:09:58+00:00 * '''作者''':Gianmaria Viciconte, Paolo Guida, Tadd T. Truscott, William L. Roberts * '''分类''':physics.flu-dyn *'''原文链接''':http://arxiv.org/abs/2504.11122v1 '''中文摘要''':[[空化现象]]历来与平衡状态下测量的参数(如[[蒸汽压]]和[[表面张力]])相关联。然而,当液体处于[[亚稳态]]时也可能发生[[成核]]现象,尤其对于[[高频声波]]诱导空化等快速过程。这正是实验测得的[[空化阈值]]与理论预测存在显著差异的原因之一。 本研究旨在确定具有不同[[物理特性]]的多种物质中的[[成核阈值]]。实验通过24kHz[[超声波]]引发成核,并采用基于[[高速成像]]与[[水听器]]声学测量的创新方法研究[[空化起始]]。两种技术的结合使我们能精确定位液体介质中发生空化的确切时刻。[[气泡成核]]过程以20万帧/秒的速度记录,空间分辨率达微米级。如此精细的[[时空分辨率]]使我们能追踪[[空化气泡]]形成初期的膨胀过程。我们测试了五种不同物质,并通过[[换能器]]振荡幅度重建空化发生时的[[压力场]],从而确定液体的[[声学空化阈值]]([[抗拉强度]])。 实验数据证实:[[蒸汽压]]并非声学系统空化发生的有效指标。更值得注意的是,尽管物质[[物理特性]]各异,所有测试物质均表现出相似行为。这一看似反直觉的现象,为实验室尺度[[声学系统]]中的[[空化成核机制]]提供了新的见解。 == 摘要 == * '''原文标题''':Predicting Wave Dynamics using Deep Learning with Multistep Integration Inspired Attention and Physics-Based Loss Decomposition * '''中文标题''':基于多步积分启发注意力与物理损失分解的深度学习波浪动力学预测 * '''发布日期''':2025-04-15 17:47:20+00:00 * '''作者''':Indu Kant Deo, Rajeev K. Jaiman * '''分类''':cs.LG, cs.NA, math.NA, physics.flu-dyn *'''原文链接''':http://arxiv.org/abs/2504.11433v1 '''中文摘要''':本文提出了一种基于[[物理]]的[[深度学习]]框架,用于[[数据驱动]]的[[流体介质]]中[[波传播]]预测。该框架名为多步积分启发注意力机制(MI2A),通过结合[[降噪卷积自编码器]](用于[[潜在空间]]降维)与基于[[注意力机制]]的[[LSTM]][[循环神经网络]](用于降维坐标的[[时间演化]]),从经典[[线性多步方法]]中汲取灵感以增强潜在[[时间积分]]的稳定性和[[长时程精度]]。尽管[[混合神经架构]]在[[波动力学]]建模中具有高效性,但[[自回归预测]]往往容易随时间累积[[相位]]和[[振幅]]误差。为在MI2A框架内缓解此问题,我们提出了一种新型[[损失函数]]分解策略,将[[训练]]损失函数显式分离为相位和振幅两个独立分量。通过三个复杂度递增的基准[[波传播]]问题([[一维]][[线性对流]]、[[非线性]][[粘性]][[Burgers方程]]和[[二维]][[Saint-Venant]][[浅水系统]]),我们将MI2A与两种采用标准[[均方误差]]损失的[[降阶模型]]([[序列到序列]][[循环神经网络]]及其[[Luong式注意力]]变体)进行对比。结果表明,MI2A框架显著提升了长期预测的精度和稳定性,能准确保持波的振幅和相位特征。相较于标准LSTM和注意力模型,基于MI2A的深度学习展现出更优的[[泛化能力]]和[[时间精度]],使其成为[[实时]][[波建模]]的有力工具。 == 摘要 == * '''原文标题''':DataDecide: How to Predict Best Pretraining Data with Small Experiments * '''中文标题''':DataDecide:如何通过小规模实验预测最佳预训练数据 * '''发布日期''':2025-04-15 17:02:15+00:00 * '''作者''':Ian Magnusson, Nguyen Tai, Ben Bogin, David Heineman, Jena D. Hwang, Luca Soldaini, Akshita Bhagia, Jiacheng Liu, Dirk Groeneveld, Oyvind Tafjord, Noah A. Smith, Pang Wei Koh, Jesse Dodge * '''分类''':cs.LG, cs.CL *'''原文链接''':http://arxiv.org/abs/2504.11393v1 '''中文摘要''':由于[[大型语言模型]]在不同[[数据集]]上进行[[预训练]]成本高昂,利用小规模实验来决定[[数据选择]]对降低[[成本]]至关重要。哪些[[基准测试]]方法能从小规模观察到的[[性能]]中最准确地预测出能产生最佳[[大模型]]的数据集?为了开放探索这个问题,我们发布了[[DataDecide]]——包含最全面开放套件的[[模型]]、[[数据]]和[[评估]],涵盖[[数据差异]]和[[规模变化]]。我们进行了控制性[[预训练]]实验,涉及25个不同来源、[[去重]]和[[过滤]]处理的[[语料库]](最高达100B[[词元]]),模型规模最高达1B[[参数]],并采用3个[[随机种子]]。研究发现:单个小规模模型(如1.5亿参数)的[[性能排名]],对于预测我们更大目标规模(10亿)的最佳模型具有强[[基线]]作用(约80%比较正确)。在8个[[基线方法]]中,没有任何[[缩放定律]]方法能超越单规模预测的[[计算决策边界]],但[[DataDecide]]可衡量未来[[缩放定律]]的改进。我们还发现:在小规模实验中使用[[连续似然度]]指标作为[[代理]],可使包括[[MMLU]]、[[ARC]]、[[HellaSwag]]、[[MBPP]]和[[HumanEval]]在内的[[基准测试]]在目标10亿规模下的预测[[准确率]]超过80%,仅需0.01%的[[计算量]]。
返回
WikiEdge:ArXiv速递/2025-04-15
。
导航菜单
个人工具
创建账号
登录
命名空间
项目页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
工具
链入页面
相关更改
特殊页面
页面信息