查看“WikiEdge:ArXiv-2407.15017/background”的源代码
←
WikiEdge:ArXiv-2407.15017/background
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2407.15017/background|action=edit}} 编辑]</div> 这篇文献的背景主要集中在以下几个方面: # '''大型语言模型([[Large Language Models]], LLMs)的知识机制理解''': #* 知识是智能的基石,对于构建可信赖的[[通用人工智能]]([[Artificial General Intelligence]], AGI)至关重要。大型语言模型因其在参数中蕴含丰富的知识而闻名,这些知识在应用中取得了前所未有的进展。 #* 尽管LLMs在学习和应用知识方面取得了显著成就,但它们在知识学习、存储、利用和演化方面的机制仍然充满神秘。 # '''知识机制分析的新视角和分类''': #* 本文提出了一种新的分类法,从知识利用和演化两个维度分析知识机制,旨在全面理解LLMs在特定时期内的知识利用机制,以及知识在个体和群体LLMs中的动态进展。 #* 通过分析,本文旨在揭示LLMs所学习的知识类型、参数知识脆弱性的原因,以及长期存在的潜在“暗知识”(未学习的知识)。 # '''知识在LLMs中的表示和演化''': #* 知识在LLMs中的表示和演化是构建更高效、更可信模型的关键。本文探讨了如何通过知识机制的视角来构建更高效和可信的LLMs,包括知识编辑、模型合并等技术。 #* 此外,本文还讨论了LLMs在知识表示和利用方面的局限性,以及如何通过跨学科的视角来探索更多知识,从而推动LLMs向更高级别的智能发展。 综上所述,这篇文献的背景强调了在LLMs领域中对知识机制深入理解的需求,以及现有方法的局限性。作者提出了一种新的分析框架和分类法,旨在通过全面分析知识在LLMs中的生命周期,为未来的研究提供新的视角和启示。
返回
WikiEdge:ArXiv-2407.15017/background
。
导航菜单
个人工具
创建账号
登录
命名空间
项目页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
工具
链入页面
相关更改
特殊页面
页面信息