WikiEdge:ArXiv速递/2025-03-13

来自WikiEdge
Carole留言 | 贡献2025年3月14日 (五) 04:18的版本 (Updated page by Carole)
跳转到导航 跳转到搜索

摘要

  • 原文标题:References to unbiased sources increase the helpfulness of community fact-checks
  • 中文标题:引用无偏见来源提高社区事实核查的有用性
  • 发布日期:2025-03-13 17:12:01+00:00
  • 作者:Kirill Solovev, Nicolas Pröllochs
  • 分类:cs.SI
  • 原文链接http://arxiv.org/abs/2503.10560v1

中文摘要:基于社区事实核查是一种有前景的方法,可以大规模应对社交媒体上的错误信息。然而,对于什么使社区创建的事实核查对用户有帮助的理解仍处于初级阶段。在本文中,我们分析了社区创建的事实核查的有用性决定因素。为此,我们利用了一个独特的数据集,该数据集包含来自X(前身为Twitter)社区笔记平台的真实社区创建的事实核查和有用性评分。我们的实证分析表明,基于社区的事实核查中,有用性的关键决定因素是用户是否提供了外部来源的链接来支持他们的断言。平均而言,如果社区创建的事实核查提供了外部来源的链接,其被感知为有用的几率高出2.70倍。此外,我们证明了社区创建的事实核查的有用性因其政治偏见水平而异。我们发现,链接到高偏见来源(无论来自哪一政治派别)的社区创建的事实核查被认为显著不那么有用。这表明社区笔记平台上的评分机制成功地惩罚了一边倒和政治动机的推理。这些发现对社交媒体平台具有重要意义,它们可以利用我们的结果来优化其基于社区的事实核查系统。

摘要

  • 原文标题:Red Teaming Contemporary AI Models: Insights from Spanish and Basque Perspectives
  • 中文标题:当代AI模型的红队测试:来自西班牙和巴斯克视角的见解
  • 发布日期:2025-03-13 09:27:24+00:00
  • 作者:Miguel Romero-Arjona, Pablo Valle, Juan C. Alonso, Ana B. Sánchez, Miriam Ugarte, Antonia Cazalilla, Vicente Cambrón, José A. Parejo, Aitor Arrieta, Sergio Segura
  • 分类:cs.SE, cs.CL
  • 原文链接http://arxiv.org/abs/2503.10192v1

中文摘要:摘要:AI领导权的争夺战正在进行,美国OpenAI中国DeepSeek是主要竞争者。针对这些全球趋势,西班牙政府提出了ALIA,这是一个公开透明的AI基础设施,包含了支持西班牙语巴斯克语等官方语言的小型语言模型。本文展示了红队测试的结果,十名参与者运用他们的专业知识和创造力,手动测试了这些倡议中的三个最新模型——OpenAI o3-miniDeepSeek R1ALIA Salamandra——重点关注偏见安全问题。基于670次对话的结果显示,所有测试模型都存在漏洞,偏见或不安全的回应比例从o3-mini的29.5%到Salamandra的50.6%不等。这些发现凸显了开发可靠且值得信赖的AI系统,特别是那些旨在支持西班牙语巴斯克语的系统,所面临的持续挑战。