WikiEdge:ArXiv-2407.08995/methods
跳至導覽
跳至搜尋
這篇文獻的工作部分詳細介紹了如何開發和評估自我提示調整(self-prompt tuning)方法,以提高大型語言模型(LLMs)在各種任務中的表現。以下是這部分的主要內容:
- 自我提示調整(Self-Prompt Tuning):
- 提出了自我提示調整的概念,即通過微調(fine-tuning)讓LLMs能夠自動生成適合特定問題的專家角色提示(role-play prompts),從而提高其在相關領域的性能。
- LIMA-Role 數據集構建(Construction of LIMA-Role Dataset):
- 利用GPT-4為LIMA數據集中的每個數據點生成角色扮演提示,創建了LIMA-Role數據集,該數據集用於後續的LLMs微調。
- LLMs 微調(Fine-tuning of LLMs):
- 在LIMA-Role數據集上微調了如Llama-2-7B和Mistral-7B等LLMs,使得微調後的模型能夠自動為任何給定問題生成專家角色提示。
- 評估(Evaluation):