WikiEdge:ArXiv速递/2025-04-29

来自WikiEdge
Carole留言 | 贡献2025年5月2日 (五) 08:19的版本 (Updated page by Carole)
跳转到导航 跳转到搜索

摘要

  • 原文标题:Refined Predictions for Starobinsky Inflation and Post-inflationary Constraints in Light of ACT
  • 中文标题:基于ACT观测对Starobinsky暴胀模型的精确预测及暴胀后约束
  • 发布日期:2025-04-29 13:36:14+00:00
  • 作者:Manuel Drees, Yong Xu
  • 分类:astro-ph.CO, hep-ph
  • 原文链接http://arxiv.org/abs/2504.20757v1

中文摘要:摘要:阿塔卡马宇宙学望远镜ACT)的最新测量数据结合普朗克卫星DESI数据表明,谱指数$n_s$的数值有所升高。这使得在使用常规解析近似时,Starobinsky暴胀模型在$N_\star \approx 60$的电子折叠数情况下处于$2\sigma$约束边界。我们提出了超越常用解析近似的Starobinsky暴胀精细化预测,通过改进表达式评估模型,证明当$N_\star \gtrsim 60$时该模型仍符合当前$2\sigma$水平的观测约束。此外,我们研究了ACT结果对暴胀后再加热参数的启示,具体发现再加热期间有效状态方程参数的下限约为$\omega \gtrsim 0.462$——这排除了导致$\omega \simeq 0$的纯微扰再加热机制。在假设$\omega \leq 1$条件下,再加热温度被约束为$T_{\text{rh}} \lesssim 2 \times 10^{12}~\text{GeV}$。进一步研究表明,若再加热温度满足$4~\text{MeV} \lesssim T_{\text{rh}} \lesssim 10~\text{GeV}$且$0.8 \lesssim \omega \leq 1$,谱指数和张量-标量比的预测值可落在ACT最新约束的$1\sigma$范围内。

摘要

  • 原文标题:Secure Coding with AI, From Creation to Inspection
  • 中文标题:基于人工智能的安全编码:从生成到审查
  • 发布日期:2025-04-29 14:30:14+00:00
  • 作者:Vladislav Belozerov, Peter J Barclay, Ashkan Sami
  • 分类:cs.SE, cs.CR
  • 原文链接http://arxiv.org/abs/2504.20814v1

中文摘要:摘要:尽管先前研究已探讨过ChatGPT大型语言模型生成代码安全性,但这些研究均在受控实验环境下进行,并未使用实际开发者交互中生成或提供的代码。本文不仅基于DevGPT数据集中整理的开发者真实交互记录,检验了ChatGPT生成代码的安全性,还评估了其发现和修复漏洞的能力。我们使用静态扫描器分析了1,586段CC++C#代码片段,在124个文件中检测到潜在问题。经人工分析后,筛选出包含32个确认漏洞的26个文件进行深入研究。通过OpenAI API将这些文件提交给ChatGPT,要求其检测安全问题、识别对应的通用缺陷枚举编号并提出修复方案。对响应内容和修改后的代码进行人工复审和漏洞重扫描后发现:ChatGPT成功检测出32个安全问题中的18个,修复了17个问题,但未能识别或修复其余漏洞。值得注意的是,其中仅10个漏洞源自用户提示,而22个是由ChatGPT自身引入的。我们向开发者强调:相比自主编写的代码,ChatGPT生成的代码更可能包含漏洞。此外,ChatGPT有时会以明显自信的态度报告错误信息,可能误导经验不足的开发者。研究结果证实了先前结论,表明ChatGPT在生成安全代码和识别所有漏洞方面均不够可靠,这凸显了静态扫描器和人工审查的持续重要性。

摘要

  • 原文标题:Secure Coding with AI, From Creation to Inspection
  • 中文标题:基于人工智能的安全编码:从创建到审查
  • 发布日期:2025-04-29 14:30:14+00:00
  • 作者:Vladislav Belozerov, Peter J Barclay, Ashkan Sami
  • 分类:cs.SE, cs.CR
  • 原文链接http://arxiv.org/abs/2504.20814v1

中文摘要:摘要:尽管先前研究已探讨过ChatGPT大型语言模型生成代码安全性,但这些研究均在受控实验环境下进行,并未使用实际开发者交互中生成或提供的代码。本文不仅基于DevGPT数据集中整理的开发者真实交互数据,检验了ChatGPT生成代码的安全性,还评估了ChatGPT发现并修复这些漏洞的能力。我们使用静态扫描器分析了1,586个CC++C#代码片段,在124个文件中检测到潜在问题。经人工分析后,筛选出包含32个已确认漏洞的26个文件进行深入研究。通过OpenAI API将这些文件提交给ChatGPT,要求其检测安全问题、识别对应的通用缺陷枚举编号并提出修复方案。对反馈内容和修改后的代码进行人工审查并重新扫描漏洞后发现:ChatGPT成功检测出32个安全问题中的18个,修复了17个问题,但未能识别或修复其余漏洞。值得注意的是,其中仅10个漏洞源自用户提示,而22个由ChatGPT自身引入。我们向开发者强调:相比自主编写的代码,ChatGPT生成的代码更可能包含漏洞。此外,ChatGPT有时会以明显自信的态度报告错误信息,可能误导经验不足的开发者。研究结果证实了先前结论,表明ChatGPT在生成安全代码或识别所有漏洞方面均不够可靠,这凸显了静态扫描器和人工审查的持续重要性。

摘要

  • 原文标题:Secure Coding with AI, From Creation to Inspection
  • 中文标题:基于人工智能的安全编码:从创建到审查
  • 发布日期:2025-04-29 14:30:14+00:00
  • 作者:Vladislav Belozerov, Peter J Barclay, Ashkan Sami
  • 分类:cs.SE, cs.CR
  • 原文链接http://arxiv.org/abs/2504.20814v1

中文摘要:摘要:尽管先前研究已探讨过ChatGPT大型语言模型生成代码安全性,但这些研究均在受控实验环境下进行,并未使用实际开发者交互中生成或提供的代码。本文不仅基于DevGPT数据集中整理的开发者真实交互数据,检验了ChatGPT生成代码的安全性,还评估了其发现和修复漏洞的能力。我们使用静态扫描器分析了1,586个CC++C#代码片段,在124个文件中检测到潜在问题。经人工分析后,筛选出包含32个确认漏洞的26个文件进行深入研究。通过OpenAI API将这些文件提交给ChatGPT,要求其检测安全问题、识别对应的通用缺陷枚举编号并提出修复方案。对响应内容和修改后的代码进行人工复审和漏洞重扫后,发现ChatGPT成功检测出32个安全问题中的18个,修复了17个问题,但未能识别或修复其余漏洞。值得注意的是,其中仅10个漏洞源自用户提示,而22个由ChatGPT自身引入。我们向开发者强调:相比自行编写的代码,ChatGPT生成的代码更可能包含漏洞。此外,ChatGPT有时会以明显自信的态度报告错误信息,可能误导经验不足的开发者。研究结果证实了先前结论,表明ChatGPT在生成安全代码和识别所有漏洞方面均不够可靠,这凸显了静态扫描器和人工审查的持续重要性。