查看“WikiEdge:ArXiv-2407.08995/terms”的源代码
←
WikiEdge:ArXiv-2407.08995/terms
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2407.08995/terms|action=edit}} 编辑]</div> 这篇文章的术语表如下: * [[大型语言模型]](Large Language Models, LLMs):在[[自然语言处理]](NLP)领域中,大型语言模型指的是具有大量参数的深度学习模型,它们能够理解和生成文本。 * [[角色扮演提示]](Role-play prompting):一种提示策略,通过让语言模型扮演特定角色来增强其在特定任务中的性能。 * [[自我提示调整]](Self-prompt tuning):一种通过微调语言模型,使其能够自动生成适合特定问题的专家角色提示的方法。 * [[LIMA数据集]](LIMA dataset):一个用于语言模型微调的高质量小规模数据集,包含单轮和多轮对话。 * [[指令调整]](Instruction tuning):一种微调技术,通过在多样化的NLP数据集上微调LLMs,使其能够遵循人类的指令。 * [[角色扮演能力]](Role-playing Abilities):指语言模型在角色扮演任务中展现出的适应性和交互能力。 * [[最少至最多提示]](Least-to-most prompting):一种提示策略,通过将原始问题分解成更简单的子问题并依次解决它们。 * [[自我提炼提示]](Self-refine prompting):一种提示策略,首先生成输出,然后使用同一语言模型提供反馈和改进,迭代地改进初始输出。 * [[思维树提示]](Tree-of-thought prompting):一种提示策略,将潜在的推理路径表示为分支树结构,并使用搜索算法探索和识别正确的推理路径。 * [[LIMA-Role数据集]](LIMA-Role dataset):LIMA数据集的增强版本,通过[[GPT-4]]添加了角色扮演提示。
返回
WikiEdge:ArXiv-2407.08995/terms
。
导航菜单
个人工具
创建账号
登录
命名空间
项目页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
工具
链入页面
相关更改
特殊页面
页面信息