查看“WikiEdge:ArXiv速递/2025-04-29”的源代码
←
WikiEdge:ArXiv速递/2025-04-29
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
== 摘要 == * '''原文标题''':Refined Predictions for Starobinsky Inflation and Post-inflationary Constraints in Light of ACT * '''中文标题''':基于ACT观测对Starobinsky暴胀模型的精确预测及暴胀后约束 * '''发布日期''':2025-04-29 13:36:14+00:00 * '''作者''':Manuel Drees, Yong Xu * '''分类''':astro-ph.CO, hep-ph *'''原文链接''':http://arxiv.org/abs/2504.20757v1 '''中文摘要''':摘要:[[阿塔卡马宇宙学望远镜]]([[ACT]])的最新测量数据结合[[普朗克卫星]]和[[DESI]]数据表明,[[谱指数]]$n_s$的数值有所升高。这使得在使用常规[[解析近似]]时,[[Starobinsky暴胀模型]]在$N_\star \approx 60$的[[电子折叠数]]情况下处于$2\sigma$约束边界。我们提出了超越常用解析近似的Starobinsky暴胀精细化预测,通过改进[[表达式评估模型]],证明当$N_\star \gtrsim 60$时该模型仍符合当前$2\sigma$水平的观测约束。此外,我们研究了ACT结果对[[暴胀后再加热]]参数的启示,具体发现再加热期间有效[[状态方程]]参数的下限约为$\omega \gtrsim 0.462$——这排除了导致$\omega \simeq 0$的纯[[微扰再加热]]机制。在假设$\omega \leq 1$条件下,[[再加热温度]]被约束为$T_{\text{rh}} \lesssim 2 \times 10^{12}~\text{GeV}$。进一步研究表明,若再加热温度满足$4~\text{MeV} \lesssim T_{\text{rh}} \lesssim 10~\text{GeV}$且$0.8 \lesssim \omega \leq 1$,谱指数和[[张量-标量比]]的预测值可落在ACT最新约束的$1\sigma$范围内。 == 摘要 == * '''原文标题''':Secure Coding with AI, From Creation to Inspection * '''中文标题''':基于人工智能的安全编码:从生成到审查 * '''发布日期''':2025-04-29 14:30:14+00:00 * '''作者''':Vladislav Belozerov, Peter J Barclay, Ashkan Sami * '''分类''':cs.SE, cs.CR *'''原文链接''':http://arxiv.org/abs/2504.20814v1 '''中文摘要''':摘要:尽管先前研究已探讨过[[ChatGPT]]等[[大型语言模型]]生成[[代码]]的[[安全性]],但这些研究均在受控实验环境下进行,并未使用实际[[开发者]]交互中生成或提供的代码。本文不仅基于[[DevGPT]]数据集中整理的开发者真实交互记录,检验了[[ChatGPT]]生成代码的[[安全性]],还评估了其发现和修复[[漏洞]]的能力。我们使用[[静态扫描器]]分析了1,586段[[C]]、[[C++]]和[[C#]]代码片段,在124个文件中检测到潜在问题。经人工分析后,筛选出包含32个确认[[漏洞]]的26个文件进行深入研究。通过[[OpenAI API]]将这些文件提交给[[ChatGPT]],要求其检测[[安全问题]]、识别对应的[[通用缺陷枚举]]编号并提出修复方案。对响应内容和修改后的代码进行人工复审和[[漏洞]]重扫描后发现:[[ChatGPT]]成功检测出32个[[安全问题]]中的18个,修复了17个问题,但未能识别或修复其余[[漏洞]]。值得注意的是,其中仅10个[[漏洞]]源自用户提示,而22个是由[[ChatGPT]]自身引入的。我们向[[开发者]]强调:相比自主编写的代码,[[ChatGPT]]生成的代码更可能包含[[漏洞]]。此外,[[ChatGPT]]有时会以明显自信的态度报告错误信息,可能误导经验不足的[[开发者]]。研究结果证实了先前结论,表明[[ChatGPT]]在生成安全代码和识别所有[[漏洞]]方面均不够可靠,这凸显了[[静态扫描器]]和人工审查的持续重要性。 == 摘要 == * '''原文标题''':Secure Coding with AI, From Creation to Inspection * '''中文标题''':基于人工智能的安全编码:从创建到审查 * '''发布日期''':2025-04-29 14:30:14+00:00 * '''作者''':Vladislav Belozerov, Peter J Barclay, Ashkan Sami * '''分类''':cs.SE, cs.CR *'''原文链接''':http://arxiv.org/abs/2504.20814v1 '''中文摘要''':摘要:尽管先前研究已探讨过[[ChatGPT]]等[[大型语言模型]]生成[[代码]]的[[安全性]],但这些研究均在受控实验环境下进行,并未使用实际[[开发者]]交互中生成或提供的代码。本文不仅基于[[DevGPT]]数据集中整理的开发者真实交互数据,检验了[[ChatGPT]]生成代码的[[安全性]],还评估了[[ChatGPT]]发现并修复这些[[漏洞]]的能力。我们使用[[静态扫描器]]分析了1,586个[[C]]、[[C++]]和[[C#]]代码片段,在124个文件中检测到潜在问题。经人工分析后,筛选出包含32个已确认[[漏洞]]的26个文件进行深入研究。通过[[OpenAI API]]将这些文件提交给[[ChatGPT]],要求其检测[[安全问题]]、识别对应的[[通用缺陷枚举]]编号并提出修复方案。对反馈内容和修改后的代码进行人工审查并重新扫描[[漏洞]]后发现:[[ChatGPT]]成功检测出32个[[安全问题]]中的18个,修复了17个问题,但未能识别或修复其余[[漏洞]]。值得注意的是,其中仅10个[[漏洞]]源自用户提示,而22个由[[ChatGPT]]自身引入。我们向[[开发者]]强调:相比自主编写的代码,[[ChatGPT]]生成的代码更可能包含[[漏洞]]。此外,[[ChatGPT]]有时会以明显自信的态度报告错误信息,可能误导经验不足的[[开发者]]。研究结果证实了先前结论,表明[[ChatGPT]]在生成安全代码或识别所有[[漏洞]]方面均不够可靠,这凸显了[[静态扫描器]]和人工审查的持续重要性。 == 摘要 == * '''原文标题''':Secure Coding with AI, From Creation to Inspection * '''中文标题''':基于人工智能的安全编码:从创建到审查 * '''发布日期''':2025-04-29 14:30:14+00:00 * '''作者''':Vladislav Belozerov, Peter J Barclay, Ashkan Sami * '''分类''':cs.SE, cs.CR *'''原文链接''':http://arxiv.org/abs/2504.20814v1 '''中文摘要''':摘要:尽管先前研究已探讨过[[ChatGPT]]等[[大型语言模型]]生成[[代码]]的[[安全性]],但这些研究均在受控实验环境下进行,并未使用实际[[开发者]]交互中生成或提供的代码。本文不仅基于[[DevGPT]]数据集中整理的开发者真实交互数据,检验了[[ChatGPT]]生成代码的[[安全性]],还评估了其发现和修复[[漏洞]]的能力。我们使用[[静态扫描器]]分析了1,586个[[C]]、[[C++]]和[[C#]]代码片段,在124个文件中检测到潜在问题。经人工分析后,筛选出包含32个确认[[漏洞]]的26个文件进行深入研究。通过[[OpenAI API]]将这些文件提交给[[ChatGPT]],要求其检测[[安全问题]]、识别对应的[[通用缺陷枚举]]编号并提出修复方案。对响应内容和修改后的代码进行人工复审和[[漏洞]]重扫后,发现[[ChatGPT]]成功检测出32个[[安全问题]]中的18个,修复了17个问题,但未能识别或修复其余[[漏洞]]。值得注意的是,其中仅10个[[漏洞]]源自用户提示,而22个由[[ChatGPT]]自身引入。我们向[[开发者]]强调:相比自行编写的代码,[[ChatGPT]]生成的代码更可能包含[[漏洞]]。此外,[[ChatGPT]]有时会以明显自信的态度报告错误信息,可能误导经验不足的[[开发者]]。研究结果证实了先前结论,表明[[ChatGPT]]在生成安全代码和识别所有[[漏洞]]方面均不够可靠,这凸显了[[静态扫描器]]和人工审查的持续重要性。 == 摘要 == * '''原文标题''':Binding of native DNA to MoS$_{2}$ nanoflakes: the role of defects and edge atoms of MoS$_{2}$ nanostructures in their biofunctionalization * '''中文标题''':天然DNA与MoS$_{2}$纳米片结合:MoS$_{2}$纳米结构缺陷及边缘原子在其生物功能化中的作用 * '''发布日期''':2025-04-29 09:05:58+00:00 * '''作者''':Alexander Glamazda, Evgeniya Usenko, Anastasiia Svidzerska, Vladimir Valeev, Igor Voloshin, Anna Laguta, Sergey Petrushenko, Stepan Stepanian, Ludwik Adamowicz, Victor Karachevtsev * '''分类''':physics.bio-ph *'''原文链接''':http://arxiv.org/abs/2504.20562v1 '''中文摘要''':本研究通过[[紫外-可见吸收光谱]]、[[热变性法]]、[[透射电子显微镜]]([[TEM]])、温度依赖性[[动态光散射]]([[DLS]])以及[[DFT计算化学]]方法,探究了天然[[DNA]]与[[二硫化钼]]纳米片([[FLs]])的结合机制。实验数据分析表明:[[TEM]]图像和[[热变性]]测量结果证实了[[生物大分子]]与[[MoS$_{2}$]]纳米片的结合。[[DNA熔解温度]]升高及结合后[[增色系数]]降低的现象,表明[[DNA:MoS$_{2}$纳米组装体]]的形成主要源于[[DNA磷酸基团]]氧原子与[[MoS$_{2}$]]纳米片之间的[[共价相互作用]]。研究采用[[DFT]]方法对[[核苷酸片段]]([[核糖-磷酸基团]])与[[MoS$_{2}$]]纳米层的可能复合物进行了建模计算,优化了不同复合物结构并确定了组分间的[[相互作用能]]。计算特别关注该[[核苷酸片段]]与[[MoS$_{2}$]]纳米层边缘[[钼原子]]、以及含[[硫空位]]点缺陷结构的结合情况。结合计算与实验结果,提出了天然[[DNA]]与[[MoS$_{2}$]]纳米片的结合机制:其[[共轭过程]]始于[[DNA磷酸基团]]与[[钼原子]](边缘或缺陷位点)通过形成强[[配位键]]实现的点接触。研究结果揭示了[[MoS$_{2}$]]纳米片缺陷与边缘原子在其[[生物功能化]]中的关键作用。 == 摘要 == * '''原文标题''':Secure Coding with AI, From Creation to Inspection * '''中文标题''':基于人工智能的安全编码:从创建到审查 * '''发布日期''':2025-04-29 14:30:14+00:00 * '''作者''':Vladislav Belozerov, Peter J Barclay, Ashkan Sami * '''分类''':cs.SE, cs.CR *'''原文链接''':http://arxiv.org/abs/2504.20814v1 '''中文摘要''':摘要:尽管先前研究已探讨过[[ChatGPT]]等[[大型语言模型]]生成[[代码]]的[[安全性]],但这些研究均在受控实验环境下进行,并未使用实际[[开发者]]交互中生成或提供的代码。本文不仅基于[[DevGPT]]数据集中整理的开发者真实交互记录,检验了[[ChatGPT]]生成代码的[[安全性]],还评估了其发现和修复[[漏洞]]的能力。我们使用[[静态扫描器]]分析了1,586个[[C]]、[[C++]]和[[C#]]代码片段,在124个文件中检测到潜在问题。经人工分析后,筛选出包含32个确认[[漏洞]]的26个文件进行深入研究。通过[[OpenAI API]]将这些文件提交给[[ChatGPT]],要求其检测[[安全问题]]、识别对应的[[通用缺陷枚举]]编号并提出修复方案。对响应内容和修改后的代码进行人工复审和[[漏洞]]重扫后,发现[[ChatGPT]]成功检测出32个[[安全问题]]中的18个,修复了17个问题,但未能识别或修复其余[[漏洞]]。值得注意的是,其中仅10个[[漏洞]]源自用户提示,而22个由[[ChatGPT]]自身引入。我们向[[开发者]]强调:相比自主编写的代码,[[ChatGPT]]生成的代码更可能包含[[漏洞]]。此外,[[ChatGPT]]有时会以明显自信的态度报告错误信息,可能误导经验不足的[[开发者]]。研究结果证实了先前结论:[[ChatGPT]]在生成安全代码和识别所有[[漏洞]]方面均不够可靠,这凸显了[[静态扫描器]]和人工审查的持续重要性。 == 摘要 == * '''原文标题''':Secure Coding with AI, From Creation to Inspection * '''中文标题''':基于人工智能的安全编码:从生成到检测 * '''发布日期''':2025-04-29 14:30:14+00:00 * '''作者''':Vladislav Belozerov, Peter J Barclay, Ashkan Sami * '''分类''':cs.SE, cs.CR *'''原文链接''':http://arxiv.org/abs/2504.20814v1 '''中文摘要''':摘要:尽管先前研究已探讨过[[ChatGPT]]等[[大型语言模型]]生成[[代码]]的[[安全性]],但这些研究均在受控实验环境下进行,并未使用实际[[开发者]]交互中生成或提供的代码。本文不仅基于[[DevGPT]]数据集中整理的开发者真实交互记录,检验了ChatGPT生成代码的安全性,还评估了其发现和修复[[漏洞]]的能力。我们使用[[静态扫描器]]分析了1,586个[[C]]、[[C++]]和[[C#]]代码片段,在124个文件中检测到潜在问题。经人工分析后,筛选出包含32个确认漏洞的26个文件进行深入研究。通过[[OpenAI API]]将这些文件提交给ChatGPT,要求其检测安全问题、识别对应的[[通用缺陷枚举]]编号并提出修复方案。对反馈的修改代码进行人工复审和漏洞重扫描后发现:ChatGPT成功检测出32个安全问题中的18个,修复了17个问题,但未能识别或修复其余漏洞。值得注意的是,其中仅10个漏洞源自用户提示,而22个由ChatGPT自身引入。我们向开发者强调:相比自主编写的代码,ChatGPT生成的代码更可能包含漏洞。此外,ChatGPT有时会以明显自信的态度报告错误信息,可能误导经验不足的开发者。本研究证实了先前结论:ChatGPT在生成安全代码和识别所有漏洞方面均不够可靠,这凸显了静态扫描器和人工审查的持续重要性。 == 摘要 == * '''原文标题''':Secure Coding with AI, From Creation to Inspection * '''中文标题''':基于人工智能的安全编码:从创建到审查 * '''发布日期''':2025-04-29 14:30:14+00:00 * '''作者''':Vladislav Belozerov, Peter J Barclay, Ashkan Sami * '''分类''':cs.SE, cs.CR *'''原文链接''':http://arxiv.org/abs/2504.20814v1 '''中文摘要''':摘要:尽管先前研究已探讨过[[ChatGPT]]等[[大型语言模型]]生成[[代码]]的[[安全性]],但这些研究均在受控实验环境下进行,并未使用实际[[开发者]]交互中生成或提供的代码。本文不仅基于[[DevGPT]]数据集中整理的开发者真实交互记录,检验了[[ChatGPT]]生成代码的安全性,还评估了其发现和修复[[漏洞]]的能力。我们使用[[静态扫描器]]分析了1,586个[[C]]、[[C++]]和[[C#]]代码片段,在124个文件中检测到潜在问题。经人工分析后,筛选出包含32个确认漏洞的26个文件进行深入研究。通过[[OpenAI API]]将这些文件提交给[[ChatGPT]],要求其检测[[安全问题]]、识别对应的[[通用缺陷枚举]]编号并提出修复方案。对响应内容和修改后的代码进行人工审查并重新扫描漏洞后发现:[[ChatGPT]]成功检测出32个安全问题中的18个,修复了17个问题,但未能识别或修复其余漏洞。值得注意的是,其中仅10个漏洞源自用户提示,而22个由[[ChatGPT]]自身引入。我们向开发者强调:相比自行编写的代码,[[ChatGPT]]生成的代码更可能包含漏洞。此外,[[ChatGPT]]有时会以明显自信的态度报告错误信息,可能误导经验不足的开发者。研究结果证实了先前结论,即[[ChatGPT]]在生成安全代码和识别所有漏洞方面均不够可靠,这凸显了[[静态扫描器]]和人工审查的持续重要性。 == 摘要 == * '''原文标题''':Secure Coding with AI, From Creation to Inspection * '''中文标题''':基于人工智能的安全编码:从生成到审查 * '''发布日期''':2025-04-29 14:30:14+00:00 * '''作者''':Vladislav Belozerov, Peter J Barclay, Ashkan Sami * '''分类''':cs.SE, cs.CR *'''原文链接''':http://arxiv.org/abs/2504.20814v1 '''中文摘要''':摘要:尽管先前研究已探讨过[[ChatGPT]]等[[大型语言模型]]生成[[代码]]的[[安全性]],但这些研究均在受控实验环境下进行,并未使用实际[[开发者]]交互中生成或提供的代码。本文不仅基于[[DevGPT]]数据集中整理的开发者真实交互记录,检验了[[ChatGPT]]生成代码的[[安全性]],还评估了其发现和修复[[漏洞]]的能力。我们使用[[静态扫描器]]分析了1,586个[[C]]、[[C++]]和[[C#]]代码片段,在124个文件中检测到潜在问题。经人工分析后,筛选出包含32个确认[[漏洞]]的26个文件进行深入研究。通过[[OpenAI API]]将这些文件提交给[[ChatGPT]],要求其检测[[安全问题]]、识别对应的[[通用缺陷枚举]]编号并提出修复方案。对响应内容和修改后的代码进行人工复审和[[漏洞]]重扫后,发现[[ChatGPT]]成功检测出32个[[安全问题]]中的18个,修复了17个问题,但未能识别或修复其余[[漏洞]]。值得注意的是,其中仅10个[[漏洞]]源自用户提示,而22个由[[ChatGPT]]自身引入。我们向[[开发者]]强调:相比自主编写的代码,[[ChatGPT]]生成的代码更可能包含[[漏洞]]。此外,[[ChatGPT]]有时会以明显自信的态度报告错误信息,可能误导经验不足的[[开发者]]。研究结果证实了先前结论:[[ChatGPT]]在生成安全代码和识别所有[[漏洞]]方面均不够可靠,这凸显了[[静态扫描器]]和人工审查的持续重要性。 == 摘要 == * '''原文标题''':Secure Coding with AI, From Creation to Inspection * '''中文标题''':基于人工智能的安全编码:从生成到检测 * '''发布日期''':2025-04-29 14:30:14+00:00 * '''作者''':Vladislav Belozerov, Peter J Barclay, Ashkan Sami * '''分类''':cs.SE, cs.CR *'''原文链接''':http://arxiv.org/abs/2504.20814v1 '''中文摘要''':摘要:尽管先前研究已探讨过[[ChatGPT]]等[[大型语言模型]]生成[[代码]]的[[安全性]],但这些研究均在受控实验环境下进行,并未使用实际[[开发者]]交互中生成或提供的代码。本文不仅基于[[DevGPT]]数据集中整理的开发者真实交互记录,检验了ChatGPT生成代码的安全性,还评估了ChatGPT发现并修复这些[[漏洞]]的能力。我们使用[[静态扫描器]]分析了1,586个[[C]]、[[C++]]和[[C#]]代码片段,在124个文件中检测到潜在问题。经人工分析后,筛选出包含32个确认漏洞的26个文件进行深入研究。通过[[OpenAI API]]将这些文件提交给ChatGPT,要求其检测[[安全问题]]、识别对应的[[通用缺陷枚举]]编号并提出修复方案。对响应内容和修改后的代码进行了人工复审和漏洞重扫。ChatGPT成功检测出32个安全问题中的18个,修复了17个问题,但未能识别或修复其余漏洞。值得注意的是,其中仅10个漏洞源自用户提示,而22个是由ChatGPT自身引入的。我们向开发者强调:相比自行编写的代码,ChatGPT生成的代码更可能包含漏洞。此外,ChatGPT有时会以明显自信的态度报告错误信息,可能误导经验不足的开发者。研究结果证实了先前结论:ChatGPT在生成安全代码或识别所有漏洞方面尚不足够可靠,这凸显了静态扫描器和人工审查的持续重要性。 == 摘要 == * '''原文标题''':Warehouse storage and retrieval optimization via clustering, dynamic systems modeling, and GPU-accelerated routing * '''中文标题''':基于聚类、动态系统建模和GPU加速路径规划的仓储优化 * '''发布日期''':2025-04-29 11:27:41+00:00 * '''作者''':Magnus Bengtsson, Jens Wittsten, Jonas Waidringer * '''分类''':math.OC, cs.DS, math.DS *'''原文链接''':http://arxiv.org/abs/2504.20655v1 '''中文摘要''':本文提出一种旨在提升产品存储与检索效率的[[仓库优化]]方案。通过将产品位置与[[订单流]]表示为[[时变图]]结构,我们采用[[无监督聚类]]技术定义并优化紧凑订单区域,从而有效缩短[[拣货距离]]。该方案采用基于[[随机动力系统]]理论的动态[[数学模型]]进行描述,使得系统在[[随机操作]]波动下的长期行为能够被原理性分析。在此框架内,我们实现并行化的[[Bellman-Ford算法]]进行[[路径规划]],利用[[GPU加速]]高效评估路径段。针对大规模[[路径图]]固有的[[可扩展性]]挑战,我们提出一种在保持性能的同时控制[[内存需求]]的[[图分割]]策略。实验结果表明,该方案在大型[[仓库环境]]中能显著提升[[运营效率]]与[[计算可行性]]。
返回
WikiEdge:ArXiv速递/2025-04-29
。
导航菜单
个人工具
创建账号
登录
命名空间
项目页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
工具
链入页面
相关更改
特殊页面
页面信息