WikiEdge:ArXiv速递/2025-03-07:修订间差异
Updated page by Carole |
Updated page by Carole |
||
第52行: | 第52行: | ||
*'''原文链接''':http://arxiv.org/abs/2503.05696v1 | *'''原文链接''':http://arxiv.org/abs/2503.05696v1 | ||
'''中文摘要''':许多[[强化学习]](RL)算法需要大量数据,这限制了它们在无法频繁与[[操作系统]]交互或高保真[[模拟]]成本高昂或不可用的应用中的使用。与此同时,低保真[[模拟器]]——如[[降阶模型]]、启发式[[奖励函数]]或生成[[世界模型]]——可以廉价地为RL训练提供有用的数据,即使它们对于直接从模拟到现实的迁移来说过于粗糙。我们提出了[[多保真策略梯度]](MFPGs),这是一种RL框架,它将来自目标环境的少量数据与大量低保真模拟数据混合,形成无偏、低方差[[估计器]](控制变量),用于在策略[[策略梯度]]。我们通过开发两种策略梯度算法的多保真变体来实例化该框架:[[REINFORCE]]和[[近端策略优化]]。在一系列模拟[[机器人]]基准问题的实验结果表明,当目标环境样本有限时,与仅使用高保真数据的基线相比,MFPG实现了高达3.9倍的奖励提升,并提高了训练稳定性。此外,即使基线被给予更多高保真样本——与目标环境的交互次数多达10倍——MFPG仍然能够匹配或超越它们。最后,我们观察到,即使低保真环境与目标环境截然不同,MFPG仍然能够训练出有效的策略。因此,MFPG不仅为高效的模拟到现实迁移提供了新的范式,还为管理策略性能与数据收集成本之间的权衡提供了原则性方法。 | '''中文摘要''':许多[[强化学习]](RL)算法需要大量数据,这限制了它们在无法频繁与[[操作系统]]交互或高保真[[模拟]]成本高昂或不可用的应用中的使用。与此同时,低保真[[模拟器]]——如[[降阶模型]]、启发式[[奖励函数]]或生成[[世界模型]]——可以廉价地为RL训练提供有用的数据,即使它们对于直接从模拟到现实的迁移来说过于粗糙。我们提出了[[多保真策略梯度]](MFPGs),这是一种RL框架,它将来自目标环境的少量数据与大量低保真模拟数据混合,形成无偏、低方差[[估计器]](控制变量),用于在策略[[策略梯度]]。我们通过开发两种策略梯度算法的多保真变体来实例化该框架:[[REINFORCE]]和[[近端策略优化]]。在一系列模拟[[机器人]]基准问题的实验结果表明,当目标环境样本有限时,与仅使用高保真数据的基线相比,MFPG实现了高达3.9倍的奖励提升,并提高了训练稳定性。此外,即使基线被给予更多高保真样本——与目标环境的交互次数多达10倍——MFPG仍然能够匹配或超越它们。最后,我们观察到,即使低保真环境与目标环境截然不同,MFPG仍然能够训练出有效的策略。因此,MFPG不仅为高效的模拟到现实迁移提供了新的范式,还为管理策略性能与数据收集成本之间的权衡提供了原则性方法。 | ||
== 摘要 == | |||
* '''原文标题''':Learning and generalization of robotic dual-arm manipulation of boxes from demonstrations via Gaussian Mixture Models (GMMs) | |||
* '''中文标题''':通过高斯混合模型从演示中学习和泛化机器人双臂操作箱子的能力 | |||
* '''发布日期''':2025-03-07 17:43:27+00:00 | |||
* '''作者''':Qian Ying Lee, Suhas Raghavendra Kulkarni, Kenzhi Iskandar Wong, Lin Yang, Bernardo Noronha, Yongjun Wee, Tzu-Yi Hung, Domenico Campolo | |||
* '''分类''':cs.RO | |||
*'''原文链接''':http://arxiv.org/abs/2503.05619v1 | |||
'''中文摘要''':从演示中学习([[LfD]])是一种有效的方法,可以教会[[机器人]]以类似人类的方式移动和操纵物体。这在处理复杂的[[机器人系统]]时尤其如此,例如那些具有[[双臂]]的系统,它们因其更高的有效载荷能力和可操作性而被使用。然而,一个关键的挑战是如何将[[机器人运动]]扩展到学习场景之外,以适应特定演示中的微小和重大变化。在这项工作中,我们提出了一种学习和新颖的泛化方法,该方法适应了从人类演示中学习到的[[高斯混合模型]]([[GMM]])参数化策略。我们的方法只需要少量的人类演示,并且在演示阶段不需要[[机器人系统]],这可以显著降低成本和节省时间。泛化过程直接在参数空间中进行,利用[[GMM]]参数的低维表示。每个[[高斯分量]]只有三个参数,这一过程在计算上是高效的,并且在请求时立即产生结果。我们通过涉及[[双臂机器人]]操纵盒子的真实世界实验验证了我们的方法。从仅针对单个任务的五次演示开始,我们的方法成功地泛化到新的未见过的场景,包括新的目标位置、方向和盒子尺寸。这些结果突出了我们的方法在复杂操作中的实际适用性和可扩展性。 |
2025年3月10日 (一) 08:14的版本
摘要
- 原文标题:Measurement of the branching fractions of $D^+ \to K^+K^-π^+π^+π^-$, $φπ^+π^+π^-$, $K^0_SK^+π^+π^-π^0$, $K^0_SK^+η$, and $K^0_SK^+ω$ decays
- 中文标题:$D^+ \to K^+K^-π^+π^+π^-$、$φπ^+π^+π^-$、$K^0_SK^+π^+π^-π^0$、$K^0_SK^+η$ 和 $K^0_SK^+ω$ 衰变的分支比的测量
- 发布日期:2025-03-07 12:54:23+00:00
- 作者:BESIII Collaboration, M. Ablikim, M. N. Achasov, P. Adlarson, X. C. Ai, R. Aliberti, A. Amoroso, Q. An, Y. Bai, O. Bakina, Y. Ban, H. -R. Bao, V. Batozskaya, K. Begzsuren, N. Berger, M. Berlowski, M. Bertani, D. Bettoni, F. Bianchi, E. Bianco, A. Bortone, I. Boyko, R. A. Briere, A. Brueggemann, H. Cai, M. H. Cai, X. Cai, A. Calcaterra, G. F. Cao, N. Cao, S. A. Cetin, X. Y. Chai, J. F. Chang, G. R. Che, Y. Z. Che, G. Chelkov, C. Chen, C. H. Chen, Chao Chen, G. Chen, H. S. Chen, H. Y. Chen, M. L. Chen, S. J. Chen, S. L. Chen, S. M. Chen, T. Chen, X. R. Chen, X. T. Chen, X. Y. Chen, Y. B. Chen, Y. Q. Chen, Y. Q. Chen, Z. J. Chen, Z. K. Chen, S. K. Choi, X. Chu, G. Cibinetto, F. Cossio, J. J. Cui, H. L. Dai, J. P. Dai, A. Dbeyssi, R. E. de Boer, D. Dedovich, C. Q. Deng, Z. Y. Deng, A. Denig, I. Denysenko, M. Destefanis, F. De Mori, B. Ding, X. X. Ding, Y. Ding, Y. Ding, Y. X. Ding, J. Dong, L. Y. Dong, M. Y. Dong, X. Dong, M. C. Du, S. X. Du, S. X. Du, Y. Y. Duan, Z. H. Duan, P. Egorov, G. F. Fan, J. J. Fan, Y. H. Fan, J. Fang, J. Fang, S. S. Fang, W. X. Fang, Y. Q. Fang, R. Farinelli, L. Fava, F. Feldbauer, G. Felici, C. Q. Feng, J. H. Feng, Y. T. Feng, M. Fritsch, C. D. Fu, J. L. Fu, Y. W. Fu, H. Gao, X. B. Gao, Y. Gao, Y. N. Gao, Y. N. Gao, Y. Y. Gao, S. Garbolino, I. Garzia, P. T. Ge, Z. W. Ge, C. Geng, E. M. Gersabeck, A. Gilman, K. Goetzen, J. D. Gong, L. Gong, W. X. Gong, W. Gradl, S. Gramigna, M. Greco, M. H. Gu, Y. T. Gu, C. Y. Guan, A. Q. Guo, L. B. Guo, M. J. Guo, R. P. Guo, Y. P. Guo, A. Guskov, J. Gutierrez, K. L. Han, T. T. Han, F. Hanisch, K. D. Hao, X. Q. Hao, F. A. Harris, K. K. He, K. L. He, F. H. Heinsius, C. H. Heinz, Y. K. Heng, C. Herold, T. Holtmann, P. C. Hong, G. Y. Hou, X. T. Hou, Y. R. Hou, Z. L. Hou, H. M. Hu, J. F. Hu, Q. P. Hu, S. L. Hu, T. Hu, Y. Hu, Z. M. Hu, G. S. Huang, K. X. Huang, L. Q. Huang, P. Huang, X. T. Huang, Y. P. Huang, Y. S. Huang, T. Hussain, N. Hüsken, N. in der Wiesche, J. Jackson, Q. Ji, Q. P. Ji, W. Ji, X. B. Ji, X. L. Ji, Y. Y. Ji, Z. K. Jia, D. Jiang, H. B. Jiang, P. C. Jiang, S. J. Jiang, T. J. Jiang, X. S. Jiang, Y. Jiang, J. B. Jiao, J. K. Jiao, Z. Jiao, S. Jin, Y. Jin, M. Q. Jing, X. M. Jing, T. Johansson, S. Kabana, N. Kalantar-Nayestanaki, X. L. Kang, X. S. Kang, M. Kavatsyuk, B. C. Ke, V. Khachatryan, A. Khoukaz, R. Kiuchi, O. B. Kolcu, B. Kopf, M. Kuessner, X. Kui, N. Kumar, A. Kupsc, W. Kühn, Q. Lan, W. N. Lan, T. T. Lei, M. Lellmann, T. Lenz, C. Li, C. Li, C. Li, C. H. Li, C. K. Li, D. M. Li, F. Li, G. Li, H. B. Li, H. J. Li, H. N. Li, Hui Li, J. R. Li, J. S. Li, K. Li, K. L. Li, K. L. Li, L. J. Li, Lei Li, M. H. Li, M. R. Li, P. L. Li, P. R. Li, Q. M. Li, Q. X. Li, R. Li, S. X. Li, T. Li, T. Y. Li, W. D. Li, W. G. Li, X. Li, X. H. Li, X. L. Li, X. Y. Li, X. Z. Li, Y. Li, Y. G. Li, Y. P. Li, Z. J. Li, Z. Y. Li, C. Liang, H. Liang, Y. F. Liang, Y. T. Liang, G. R. Liao, L. B. Liao, M. H. Liao, Y. P. Liao, J. Libby, A. Limphirat, C. C. Lin, C. X. Lin, D. X. Lin, L. Q. Lin, T. Lin, B. J. Liu, B. X. Liu, C. Liu, C. X. Liu, F. Liu, F. H. Liu, Feng Liu, G. M. Liu, H. Liu, H. B. Liu, H. H. Liu, H. M. Liu, Huihui Liu, J. B. Liu, J. J. Liu, K. Liu, K. Liu, K. Y. Liu, Ke Liu, L. Liu, L. C. Liu, Lu Liu, M. H. Liu, P. L. Liu, Q. Liu, S. B. Liu, T. Liu, W. K. Liu, W. M. Liu, W. T. Liu, X. Liu, X. Liu, X. Y. Liu, Y. Liu, Y. Liu, Y. Liu, Y. B. Liu, Z. A. Liu, Z. D. Liu, Z. Q. Liu, X. C. Lou, F. X. Lu, H. J. Lu, J. G. Lu, X. L. Lu, Y. Lu, Y. H. Lu, Y. P. Lu, Z. H. Lu, C. L. Luo, J. R. Luo, J. S. Luo, M. X. Luo, T. Luo, X. L. Luo, Z. Y. Lv, X. R. Lyu, Y. F. Lyu, Y. H. Lyu, F. C. Ma, H. Ma, H. L. Ma, J. L. Ma, L. L. Ma, L. R. Ma, Q. M. Ma, R. Q. Ma, R. Y. Ma, T. Ma, X. T. Ma, X. Y. Ma, Y. M. Ma, F. E. Maas, I. MacKay, M. Maggiora, S. Malde, Q. A. Malik, Y. J. Mao, Z. P. Mao, S. Marcello, F. M. Melendi, Y. H. Meng, Z. X. Meng, J. G. Messchendorp, G. Mezzadri, H. Miao, T. J. Min, R. E. Mitchell, X. H. Mo, B. Moses, N. Yu. Muchnoi, J. Muskalla, Y. Nefedov, F. Nerling, L. S. Nie, I. B. Nikolaev, Z. Ning, S. Nisar, Q. L. Niu, W. D. Niu, S. L. Olsen, Q. Ouyang, S. Pacetti, X. Pan, Y. Pan, A. Pathak, Y. P. Pei, M. Pelizaeus, H. P. Peng, Y. Y. Peng, K. Peters, J. L. Ping, R. G. Ping, S. Plura, F. Z. Qi, H. R. Qi, M. Qi, S. Qian, W. B. Qian, C. F. Qiao, J. H. Qiao, J. J. Qin, J. L. Qin, L. Q. Qin, L. Y. Qin, P. B. Qin, X. P. Qin, X. S. Qin, Z. H. Qin, J. F. Qiu, Z. H. Qu, C. F. Redmer, A. Rivetti, M. Rolo, G. Rong, S. S. Rong, F. Rosini, Ch. Rosner, M. Q. Ruan, S. N. Ruan, N. Salone, A. Sarantsev, Y. Schelhaas, K. Schoenning, M. Scodeggio, K. Y. Shan, W. Shan, X. Y. Shan, Z. J. Shang, J. F. Shangguan, L. G. Shao, M. Shao, C. P. Shen, H. F. Shen, W. H. Shen, X. Y. Shen, B. A. Shi, H. Shi, J. L. Shi, J. Y. Shi, S. Y. Shi, X. Shi, H. L. Song, J. J. Song, T. Z. Song, W. M. Song, Y. J. Song, Y. X. Song, S. Sosio, S. Spataro, F. Stieler, S. S Su, Y. J. Su, G. B. Sun, G. X. Sun, H. Sun, H. K. Sun, J. F. Sun, K. Sun, L. Sun, S. S. Sun, T. Sun, Y. C. Sun, Y. H. Sun, Y. J. Sun, Y. Z. Sun, Z. Q. Sun, Z. T. Sun, C. J. Tang, G. Y. Tang, J. Tang, J. J. Tang, L. F. Tang, Y. A. Tang, L. Y. Tao, M. Tat, J. X. Teng, J. Y. Tian, W. H. Tian, Y. Tian, Z. F. Tian, I. Uman, B. Wang, B. Wang, Bo Wang, C. Wang, Cong Wang, D. Y. Wang, H. J. Wang, J. J. Wang, K. Wang, L. L. Wang, L. W. Wang, M. Wang, M. Wang, N. Y. Wang, S. Wang, T. Wang, T. J. Wang, W. Wang, W. Wang, W. P. Wang, X. Wang, X. F. Wang, X. J. Wang, X. L. Wang, X. N. Wang, Y. Wang, Y. D. Wang, Y. F. Wang, Y. H. Wang, Y. J. Wang, Y. L. Wang, Y. N. Wang, Y. Q. Wang, Yaqian Wang, Yi Wang, Yuan Wang, Z. Wang, Z. L. Wang, Z. L. Wang, Z. Q. Wang, Z. Y. Wang, D. H. Wei, H. R. Wei, F. Weidner, S. P. Wen, Y. R. Wen, U. Wiedner, G. Wilkinson, M. Wolke, C. Wu, J. F. Wu, L. H. Wu, L. J. Wu, L. J. Wu, Lianjie Wu, S. G. Wu, S. M. Wu, X. Wu, X. H. Wu, Y. J. Wu, Z. Wu, L. Xia, X. M. Xian, B. H. Xiang, D. Xiao, G. Y. Xiao, H. Xiao, Y. L. Xiao, Z. J. Xiao, C. Xie, K. J. Xie, X. H. Xie, Y. Xie, Y. G. Xie, Y. H. Xie, Z. P. Xie, T. Y. Xing, C. F. Xu, C. J. Xu, G. F. Xu, H. Y. Xu, H. Y. Xu, M. Xu, Q. J. Xu, Q. N. Xu, T. D. Xu, W. Xu, W. L. Xu, X. P. Xu, Y. Xu, Y. Xu, Y. C. Xu, Z. S. Xu, F. Yan, H. Y. Yan, L. Yan, W. B. Yan, W. C. Yan, W. H. Yan, W. P. Yan, X. Q. Yan, H. J. Yang, H. L. Yang, H. X. Yang, J. H. Yang, R. J. Yang, T. Yang, Y. Yang, Y. F. Yang, Y. H. Yang, Y. Q. Yang, Y. X. Yang, Y. Z. Yang, M. Ye, M. H. Ye, Z. J. Ye, Junhao Yin, Z. Y. You, B. X. Yu, C. X. Yu, G. Yu, J. S. Yu, L. Q. Yu, M. C. Yu, T. Yu, X. D. Yu, Y. C. Yu, C. Z. Yuan, H. Yuan, J. Yuan, J. Yuan, L. Yuan, S. C. Yuan, X. Q. Yuan, Y. Yuan, Z. Y. Yuan, C. X. Yue, Ying Yue, A. A. Zafar, S. H. Zeng, X. Zeng, Y. Zeng, Y. J. Zeng, Y. J. Zeng, X. Y. Zhai, Y. H. Zhan, A. Q. Zhang, B. L. Zhang, B. X. Zhang, D. H. Zhang, G. Y. Zhang, G. Y. Zhang, H. Zhang, H. Zhang, H. C. Zhang, H. H. Zhang, H. Q. Zhang, H. R. Zhang, H. Y. Zhang, J. Zhang, J. Zhang, J. J. Zhang, J. L. Zhang, J. Q. Zhang, J. S. Zhang, J. W. Zhang, J. X. Zhang, J. Y. Zhang, J. Z. Zhang, Jianyu Zhang, L. M. Zhang, Lei Zhang, N. Zhang, P. Zhang, Q. Zhang, Q. Y. Zhang, R. Y. Zhang, S. H. Zhang, Shulei Zhang, X. M. Zhang, X. Y Zhang, X. Y. Zhang, Y. Zhang, Y. Zhang, Y. T. Zhang, Y. H. Zhang, Y. M. Zhang, Y. P. Zhang, Z. D. Zhang, Z. H. Zhang, Z. L. Zhang, Z. L. Zhang, Z. X. Zhang, Z. Y. Zhang, Z. Y. Zhang, Z. Z. Zhang, Zh. Zh. Zhang, G. Zhao, J. Y. Zhao, J. Z. Zhao, L. Zhao, L. Zhao, M. G. Zhao, N. Zhao, R. P. Zhao, S. J. Zhao, Y. B. Zhao, Y. L. Zhao, Y. X. Zhao, Z. G. Zhao, A. Zhemchugov, B. Zheng, B. M. Zheng, J. P. Zheng, W. J. Zheng, X. R. Zheng, Y. H. Zheng, B. Zhong, C. Zhong, H. Zhou, J. Q. Zhou, J. Y. Zhou, S. Zhou, X. Zhou, X. K. Zhou, X. R. Zhou, X. Y. Zhou, Y. Z. Zhou, A. N. Zhu, J. Zhu, K. Zhu, K. J. Zhu, K. S. Zhu, L. Zhu, L. X. Zhu, S. H. Zhu, T. J. Zhu, W. D. Zhu, W. D. Zhu, W. J. Zhu, W. Z. Zhu, Y. C. Zhu, Z. A. Zhu, X. Y. Zhuang, J. H. Zou, J. Zu
- 分类:hep-ex
- 原文链接:http://arxiv.org/abs/2503.05382v1
中文摘要:使用在BEPCII对撞机上运行的BESIII探测器收集的20.3 fb⁻¹的e⁺e⁻对撞数据,中心质心能量为3.773 GeV,首次测量了三个强子粲介子衰变的分支比:$D^+\to \phi\pi^+\pi^+\pi^-$、$D^+\to K^0_SK^+\pi^+\pi^-\pi^0$和$D^+\to K^0_SK^+\omega$,分别为$(0.54\pm0.19\pm0.02)\times 10^{-4}$、$(2.51\pm0.34\pm0.14)\times 10^{-4}$和$(2.02\pm0.35\pm0.10)\times 10^{-4}$。此外,$D^+\to K^+K^-\pi^+\pi^+\pi^-$和$D^+\to K^0_SK^+\eta$的分支比也得到了更精确的测量,分别为$(0.66\pm0.11\pm0.03)\times 10^{-4}$和$(2.27\pm0.22\pm0.05)\times 10^{-4}$。
摘要
- 原文标题:Search for Higgs boson exotic decays into Lorentz-boosted light bosons in the four-$τ$ final state at $\sqrt{s}=13$ TeV with the ATLAS detector
- 中文标题:在$\sqrt{s}=13$ TeV下使用ATLAS探测器在四$\tau$末态中寻找希格斯玻色子向洛伦兹增强的轻玻色子的奇异衰变
- 发布日期:2025-03-07 14:33:46+00:00
- 作者:ATLAS Collaboration
- 分类:hep-ex
- 原文链接:http://arxiv.org/abs/2503.05463v1
中文摘要:摘要:本文提出了一种对希格斯玻色子奇异衰变的搜索,该衰变产生一对低质量标量粒子,随后这些标量粒子衰变为$\tau$轻子,即$H\rightarrow aa\rightarrow \tau^+\tau^-\tau^+\tau^-$。在具有类Yukawa耦合的模型中,对于质量在$2m_{\tau} < m_a < 2m_{b}$范围内的轻$a$玻色子,衰变为$\tau$轻子是较为有利的。本文展示了在$4\,\mathrm{GeV} < m_a < 15\,\mathrm{GeV}$范围内,使用ATLAS探测器在大型强子对撞机Run 2期间记录的$\sqrt{s}=13$ TeV质子-质子碰撞数据($140\,\mathrm{fb}^{-1}$)的结果。该搜索重点关注双$\tau$对,其中一个$\tau$轻子衰变为强子和中微子,另一个衰变为μ子和中微子。在此质量范围内,$a\rightarrow \tau^+\tau^-$过程受到洛伦兹增强,并使用专门的μ子去除技术来重建双$\tau$对。未观察到显著超出标准模型背景预测的异常信号。本文提供了$95\%$置信水平下$(\sigma(H)/\sigma_{\mathrm{SM}}(H))\times \mathcal{B}(H\rightarrow aa\rightarrow 4\tau)$的上限,范围从$0.03$到$0.10$,具体取决于$a$玻色子的质量。
摘要
- 原文标题:Enhancing User Performance and Human Factors through Visual Guidance in AR Assembly Tasks
- 中文标题:通过视觉引导增强AR装配任务中的用户表现和人为因素
- 发布日期:2025-03-07 18:12:29+00:00
- 作者:Leon Pietschmann, Michel Schimpf, Zhu-Tian Chen, Hanspeter Pfister, Thomas Bohné
- 分类:cs.HC
- 原文链接:http://arxiv.org/abs/2503.05649v1
中文摘要:本研究通过一项受试者间实验,探讨了视觉引导(VG)对增强现实(AR)中用户表现和人为因素的影响。VG 是 AR 应用中的关键组成部分,作为数字信息与现实世界交互之间的桥梁。与以往研究通常产生不一致结果不同,我们的研究聚焦于不同类型的支持性可视化而非交互方法。我们的研究结果显示,任务完成时间减少了 31%,但错误率显著上升,突显了速度与准确性之间的权衡。此外,我们在实验设计中评估了遮挡的负面影响。除了考察认知负荷、动机和可用性等其他变量外,我们还确定了具体方向,并为未来研究提供了可操作的见解。总体而言,我们的结果强调了 VG 在提升 AR 用户表现方面的潜力,同时强调了进一步研究潜在人为因素的重要性。
摘要
- 原文标题:Spatial Distillation based Distribution Alignment (SDDA) for Cross-Headset EEG Classification
- 中文标题:基于空间蒸馏的分布对齐(SDDA)用于跨头戴设备脑电分类
- 发布日期:2025-03-07 11:44:49+00:00
- 作者:Dingkun Liu, Siyang Li, Ziwei Wang, Wei Li, Dongrui Wu
- 分类:cs.LG, cs.AI, cs.HC
- 原文链接:http://arxiv.org/abs/2503.05349v1
中文摘要:非侵入式脑机接口(BCI)通过脑电图(EEG)信号实现用户与外部设备的直接交互。然而,由于不同头戴设备电极数量和位置的差异,跨头戴设备的EEG信号解码仍然是一个重大挑战。为了解决这一挑战,我们提出了一种基于空间蒸馏的分布对齐(SDDA)方法,用于非侵入式BCI中的异构跨头戴设备迁移。SDDA首先通过空间蒸馏利用所有电极,然后通过输入/特征/输出空间的分布对齐来应对源域和目标域之间的显著差异。据我们所知,这是首次在跨头戴设备迁移中使用知识蒸馏。在两个BCI范式的六个EEG数据集上的大量实验表明,SDDA在离线无监督域适应和在线监督域适应场景中均表现出色,始终优于10种经典和最先进的迁移学习算法。
摘要
- 原文标题:Efficient Parallel Scheduling for Sparse Triangular Solvers
- 中文标题:稀疏三角求解器的高效并行调度
- 发布日期:2025-03-07 13:29:12+00:00
- 作者:Toni Böhnlein, Pál András Papp, Raphael S. Steiner, A. N. Yzelman
- 分类:cs.DC, 68W10, 65F50, C.1.4; G.1.3
- 原文链接:http://arxiv.org/abs/2503.05408v1
中文摘要:我们开发并分析了用于并行求解稀疏三角线性系统(SpTRSV)的新调度算法。我们的方法称为屏障列表调度,为前向和后向替换算法生成了高效的同步调度。与最先进的基线HDagg和SpMP相比,我们分别实现了$3.24\times$和$1.45\times$的几何平均加速。我们通过减少与HDagg相比高达$11\times$的几何平均同步屏障数量,同时保持平衡的工作负载,并通过应用矩阵重排序步骤来提高局部性,实现了这一改进。我们展示了这些改进在各种输入矩阵和硬件架构上的一致性。
摘要
- 原文标题:Multi-Fidelity Policy Gradient Algorithms
- 中文标题:多保真策略梯度算法
- 发布日期:2025-03-07 18:58:23+00:00
- 作者:Xinjie Liu, Cyrus Neary, Kushagra Gupta, Christian Ellis, Ufuk Topcu, David Fridovich-Keil
- 分类:cs.LG, cs.AI, cs.RO
- 原文链接:http://arxiv.org/abs/2503.05696v1
中文摘要:许多强化学习(RL)算法需要大量数据,这限制了它们在无法频繁与操作系统交互或高保真模拟成本高昂或不可用的应用中的使用。与此同时,低保真模拟器——如降阶模型、启发式奖励函数或生成世界模型——可以廉价地为RL训练提供有用的数据,即使它们对于直接从模拟到现实的迁移来说过于粗糙。我们提出了多保真策略梯度(MFPGs),这是一种RL框架,它将来自目标环境的少量数据与大量低保真模拟数据混合,形成无偏、低方差估计器(控制变量),用于在策略策略梯度。我们通过开发两种策略梯度算法的多保真变体来实例化该框架:REINFORCE和近端策略优化。在一系列模拟机器人基准问题的实验结果表明,当目标环境样本有限时,与仅使用高保真数据的基线相比,MFPG实现了高达3.9倍的奖励提升,并提高了训练稳定性。此外,即使基线被给予更多高保真样本——与目标环境的交互次数多达10倍——MFPG仍然能够匹配或超越它们。最后,我们观察到,即使低保真环境与目标环境截然不同,MFPG仍然能够训练出有效的策略。因此,MFPG不仅为高效的模拟到现实迁移提供了新的范式,还为管理策略性能与数据收集成本之间的权衡提供了原则性方法。
摘要
- 原文标题:Learning and generalization of robotic dual-arm manipulation of boxes from demonstrations via Gaussian Mixture Models (GMMs)
- 中文标题:通过高斯混合模型从演示中学习和泛化机器人双臂操作箱子的能力
- 发布日期:2025-03-07 17:43:27+00:00
- 作者:Qian Ying Lee, Suhas Raghavendra Kulkarni, Kenzhi Iskandar Wong, Lin Yang, Bernardo Noronha, Yongjun Wee, Tzu-Yi Hung, Domenico Campolo
- 分类:cs.RO
- 原文链接:http://arxiv.org/abs/2503.05619v1
中文摘要:从演示中学习(LfD)是一种有效的方法,可以教会机器人以类似人类的方式移动和操纵物体。这在处理复杂的机器人系统时尤其如此,例如那些具有双臂的系统,它们因其更高的有效载荷能力和可操作性而被使用。然而,一个关键的挑战是如何将机器人运动扩展到学习场景之外,以适应特定演示中的微小和重大变化。在这项工作中,我们提出了一种学习和新颖的泛化方法,该方法适应了从人类演示中学习到的高斯混合模型(GMM)参数化策略。我们的方法只需要少量的人类演示,并且在演示阶段不需要机器人系统,这可以显著降低成本和节省时间。泛化过程直接在参数空间中进行,利用GMM参数的低维表示。每个高斯分量只有三个参数,这一过程在计算上是高效的,并且在请求时立即产生结果。我们通过涉及双臂机器人操纵盒子的真实世界实验验证了我们的方法。从仅针对单个任务的五次演示开始,我们的方法成功地泛化到新的未见过的场景,包括新的目标位置、方向和盒子尺寸。这些结果突出了我们的方法在复杂操作中的实际适用性和可扩展性。