查看“WikiEdge:ArXiv-2407.08995/methods”的源代码
←
WikiEdge:ArXiv-2407.08995/methods
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2407.08995/methods|action=edit}} 编辑]</div> 这篇文献的工作部分详细介绍了如何开发和评估[[自我提示调整]]([[self-prompt tuning]])方法,以提高[[大型语言模型]]([[LLMs]])在各种任务中的表现。以下是这部分的主要内容: # '''自我提示调整([[Self-Prompt Tuning]])''': #* 提出了自我提示调整的概念,即通过[[微调]]([[fine-tuning]])让LLMs能够自动生成适合特定问题的专家角色提示([[role-play prompts]]),从而提高其在相关领域的性能。 # '''LIMA-Role 数据集构建([[Construction of LIMA-Role Dataset]])''': #* 利用[[GPT-4]]为LIMA数据集中的每个数据点生成角色扮演提示,创建了LIMA-Role数据集,该数据集用于后续的LLMs微调。 # '''LLMs 微调([[Fine-tuning of LLMs]])''': #* 在LIMA-Role数据集上微调了如[[Llama-2-7B]]和[[Mistral-7B]]等LLMs,使得微调后的模型能够自动为任何给定问题生成专家角色提示。 # '''评估([[Evaluation]])''': #* 通过在8个传统的[[自然语言处理]]([[NLP]])基准测试和开放式问题测试上广泛评估自我提示调整后的LLMs,证明了该方法在大多数数据集上相较于标准指令调整基线模型的性能提升。
返回
WikiEdge:ArXiv-2407.08995/methods
。
导航菜单
个人工具
创建账号
登录
命名空间
项目页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
工具
链入页面
相关更改
特殊页面
页面信息