WikiEdge:ArXiv速递/2025-04-23:修订间差异

来自WikiEdge
跳转到导航 跳转到搜索
Carole留言 | 贡献
Updated page by Carole
Carole留言 | 贡献
Updated page by Carole
第16行: 第16行:
*'''原文链接''':http://arxiv.org/abs/2504.16651v1
*'''原文链接''':http://arxiv.org/abs/2504.16651v1
'''中文摘要''':[[生成模型]]的快速发展使其被广泛应用于[[密码猜测]]等领域,旨在生成复杂度、结构和模式都接近人类创建的密码。尽管[[生成模型]]前景广阔,但先前研究中的不一致性及缺乏严谨评估阻碍了对其真实潜力的全面理解。本文提出[[MAYA]]——一个统一、可定制、即插即用的密码基准测试框架。该框架通过一组严格的先进测试场景和八个真实密码数据集,为[[生成式密码猜测模型]]提供了标准化评估方法。我们使用[[MAYA]]对六种最先进方法(均已重新实现并适配标准化)进行了全面评估,累计计算时长超15,000小时。研究发现这些模型能有效捕捉人类密码分布的不同特征,并展现出强大的[[泛化能力]],但对长复杂密码的效果差异显著。评估显示[[序列模型]]始终优于其他生成架构和传统密码猜测工具,在生成精确复杂猜测方面展现出独特能力。此外,不同模型学习生成的密码分布具有互补性,这使得多模型联合攻击的表现优于最佳单模型。我们开源[[MAYA]]框架以推动后续研究,为学界提供能持续可靠评估密码生成技术的新工具。该框架公开于https://github.com/williamcorrias/MAYA-Password-Benchmarking
'''中文摘要''':[[生成模型]]的快速发展使其被广泛应用于[[密码猜测]]等领域,旨在生成复杂度、结构和模式都接近人类创建的密码。尽管[[生成模型]]前景广阔,但先前研究中的不一致性及缺乏严谨评估阻碍了对其真实潜力的全面理解。本文提出[[MAYA]]——一个统一、可定制、即插即用的密码基准测试框架。该框架通过一组严格的先进测试场景和八个真实密码数据集,为[[生成式密码猜测模型]]提供了标准化评估方法。我们使用[[MAYA]]对六种最先进方法(均已重新实现并适配标准化)进行了全面评估,累计计算时长超15,000小时。研究发现这些模型能有效捕捉人类密码分布的不同特征,并展现出强大的[[泛化能力]],但对长复杂密码的效果差异显著。评估显示[[序列模型]]始终优于其他生成架构和传统密码猜测工具,在生成精确复杂猜测方面展现出独特能力。此外,不同模型学习生成的密码分布具有互补性,这使得多模型联合攻击的表现优于最佳单模型。我们开源[[MAYA]]框架以推动后续研究,为学界提供能持续可靠评估密码生成技术的新工具。该框架公开于https://github.com/williamcorrias/MAYA-Password-Benchmarking
== 摘要 ==
* '''原文标题''':AIMO-2 Winning Solution: Building State-of-the-Art Mathematical Reasoning Models with OpenMathReasoning dataset
* '''中文标题''':AIMO-2获胜方案:利用OpenMathReasoning数据集构建最先进的数学推理模型
* '''发布日期''':2025-04-23 17:13:04+00:00
* '''作者''':Ivan Moshkov, Darragh Hanley, Ivan Sorokin, Shubham Toshniwal, Christof Henkel, Benedikt Schifferer, Wei Du, Igor Gitman
* '''分类''':cs.AI, cs.CL, cs.LG
*'''原文链接''':http://arxiv.org/abs/2504.16891v1
'''中文摘要''':本文介绍了我们在[[AI数学奥林匹克进步奖2]]([[AIMO-2]])竞赛中的获胜方案。构建最先进[[数学推理]]模型的方案基于三大核心要素:首先,我们创建了包含54万道独特高质量[[数学题目]](含[[奥林匹克竞赛]]级题目)及其320万条长[[推理解答]]的大规模[[数据集]];其次,我们开发了一种通过[[迭代训练]]、生成和[[质量过滤]]将[[代码执行]]与长推理模型相结合的[[新方法]],由此产生170万条高质量[[工具集成]]推理解答;第三,我们建立了训练模型从多个候选方案中选择[[最优解]]的流程。研究表明,这种[[生成式解决方案选择]]([[GenSelect]])能显著优于[[多数投票]]基线。综合这些方法,我们训练出在数学推理[[基准测试]]中达到最先进水平的一系列模型。为促进后续研究,我们在[[商业许可协议]]下公开了[[代码]]、[[模型]]及完整的[[OpenMathReasoning]]数据集。

2025年4月24日 (四) 06:58的版本

摘要

  • 原文标题:Lattice QCD determination of the radiative decay rates $h_{c}\to η_{c}\, γ$ and $h_{b}\to η_{b}\, γ$
  • 中文标题:格点QCD对辐射衰变率$h_{c}\to η_{c}\, γ$和$h_{b}\to η_{b}\, γ$的确定
  • 发布日期:2025-04-23 15:26:36+00:00
  • 作者:D. Bečirević, R. Di Palma, R. Frezzotti, G. Gagliardi, V. Lubicz, F. Sanfilippo, N. Tantalo
  • 分类:hep-lat, hep-ph
  • 原文链接http://arxiv.org/abs/2504.16807v1

中文摘要:我们报告了利用扩展扭曲质量合作组生成的规范组态(包含$N_{f}=2+1+1$动态Wilson-Clover扭曲质量费米子,在五种不同晶格间距下采用物理质量的动态$u$、$d$、$s$和$c$夸克,最粗晶格除外——其最轻海夸克对应$m_{\pi}\simeq 175~\mathrm{MeV}$的π介子),通过格点QCD计算与$h_{c}\to \eta_{c}\gamma$和$h_{b}\to \eta_{b}\gamma$衰变相关强子矩阵元素的结果。$h_{c}\to \eta_{c}\gamma$的强子矩阵元素直接获得,而$h_{b}\to\eta_{b}\gamma$相关矩阵元则通过采用重夸克质量序列$m^{(n)}_{H} = \lambda^{n-1} m_{c}$($\lambda \sim 1.24$,$n=1,2,\ldots,6$)计算后,经多种合理假设外推至$m_{b}$质量。连续极限下我们得到$\Gamma( h_{c}\to \eta_{c} \gamma ) = 0.604(24)~\mathrm{MeV}$,其精度较先前格点计算结果提高2.3倍,且与实验测量值吻合良好;对$b$夸克情形得到$\Gamma( h_{b}\to \eta_{b} \gamma) =46.0(4.8)~\mathrm{keV}$。

摘要

  • 原文标题:MAYA: Addressing Inconsistencies in Generative Password Guessing through a Unified Benchmark
  • 中文标题:MAYA:通过统一基准解决生成式密码猜测中的不一致性问题
  • 发布日期:2025-04-23 12:16:59+00:00
  • 作者:William Corrias, Fabio De Gaspari, Dorjan Hitaj, Luigi V. Mancini
  • 分类:cs.CR, cs.AI, cs.LG
  • 原文链接http://arxiv.org/abs/2504.16651v1

中文摘要生成模型的快速发展使其被广泛应用于密码猜测等领域,旨在生成复杂度、结构和模式都接近人类创建的密码。尽管生成模型前景广阔,但先前研究中的不一致性及缺乏严谨评估阻碍了对其真实潜力的全面理解。本文提出MAYA——一个统一、可定制、即插即用的密码基准测试框架。该框架通过一组严格的先进测试场景和八个真实密码数据集,为生成式密码猜测模型提供了标准化评估方法。我们使用MAYA对六种最先进方法(均已重新实现并适配标准化)进行了全面评估,累计计算时长超15,000小时。研究发现这些模型能有效捕捉人类密码分布的不同特征,并展现出强大的泛化能力,但对长复杂密码的效果差异显著。评估显示序列模型始终优于其他生成架构和传统密码猜测工具,在生成精确复杂猜测方面展现出独特能力。此外,不同模型学习生成的密码分布具有互补性,这使得多模型联合攻击的表现优于最佳单模型。我们开源MAYA框架以推动后续研究,为学界提供能持续可靠评估密码生成技术的新工具。该框架公开于https://github.com/williamcorrias/MAYA-Password-Benchmarking

摘要

  • 原文标题:AIMO-2 Winning Solution: Building State-of-the-Art Mathematical Reasoning Models with OpenMathReasoning dataset
  • 中文标题:AIMO-2获胜方案:利用OpenMathReasoning数据集构建最先进的数学推理模型
  • 发布日期:2025-04-23 17:13:04+00:00
  • 作者:Ivan Moshkov, Darragh Hanley, Ivan Sorokin, Shubham Toshniwal, Christof Henkel, Benedikt Schifferer, Wei Du, Igor Gitman
  • 分类:cs.AI, cs.CL, cs.LG
  • 原文链接http://arxiv.org/abs/2504.16891v1

中文摘要:本文介绍了我们在AI数学奥林匹克进步奖2AIMO-2)竞赛中的获胜方案。构建最先进数学推理模型的方案基于三大核心要素:首先,我们创建了包含54万道独特高质量数学题目(含奥林匹克竞赛级题目)及其320万条长推理解答的大规模数据集;其次,我们开发了一种通过迭代训练、生成和质量过滤代码执行与长推理模型相结合的新方法,由此产生170万条高质量工具集成推理解答;第三,我们建立了训练模型从多个候选方案中选择最优解的流程。研究表明,这种生成式解决方案选择GenSelect)能显著优于多数投票基线。综合这些方法,我们训练出在数学推理基准测试中达到最先进水平的一系列模型。为促进后续研究,我们在商业许可协议下公开了代码模型及完整的OpenMathReasoning数据集。