查看“WikiEdge:ArXiv-2407.08995/abs”的源代码
←
WikiEdge:ArXiv-2407.08995/abs
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2407.08995v1/abs|action=edit}} 编辑]</div> * '''标题''':Self-Prompt Tuning: Enable Autonomous Role-Playing in [[LLMs]] * '''中文标题''':自我提示调优:实现大型语言模型的自主角色扮演 * '''发布日期''':2024-07-12 05:26:24+00:00 * '''作者''':Aobo Kong, Shiwan Zhao, Hao Chen, Qicheng Li, Yong Qin, Ruiqi Sun, Xin Zhou, Jiaming Zhou, Haoqin Sun * '''分类''':cs.CL * '''原文链接''':http://arxiv.org/abs/2407.08995v1 '''摘要''':最近在大型[[语言模型]]([[LLMs]])方面的进展展示了它们卓越的角色扮演能力,能够根据不同的指令和上下文准确模拟各种角色的对话风格和认知过程。研究表明,赋予[[LLMs]]专家角色的策略,即角色扮演提示,可以提升它们在相应领域的表现。然而,提示需要针对给定问题进行手动设计,这需要一定的专业知识和反复修改。为此,我们提出了自我提示调优,使[[LLMs]]能够通过微调自行生成角色扮演提示。我们以[[LIMA数据集]]作为基础语料库,利用[[GPT-4]]为每个数据点注释角色扮演提示,从而创建了[[LIMA-Role数据集]]。然后,我们对[[Llama-2-7B]]和[[Mistral-7B]]等[[LLMs]]进行了[[LIMA-Role]]的微调。因此,自我提示调优的[[LLMs]]能够自动为任何给定问题生成专家角色提示。我们在广泛使用的自然语言处理基准和开放式问题测试中对自我提示调优的[[LLMs]]进行了广泛评估。我们的实证结果表明,自我提示调优的[[LLMs]]在大多数数据集上优于标准指令调优的基线。这突显了利用微调使[[LLMs]]自我提示的巨大潜力,从而自动化复杂的提示策略。我们在此发布数据集、模型和代码。
返回
WikiEdge:ArXiv-2407.08995/abs
。
导航菜单
个人工具
创建账号
登录
命名空间
项目页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
工具
链入页面
相关更改
特殊页面
页面信息