WikiEdge:ArXiv-2311.08516/background

出自WikiEdge
跳至導覽 跳至搜尋
編輯

這篇文獻的背景主要集中在以下幾個方面:

  1. 大型語言模型(Large Language Models,LLMs)在自然語言處理Natural Language Processing,NLP)領域的主導地位
    • LLMs在多種應用中取得了最先進的性能,展示了零次或少次提示的能力,催生了如思維鏈Chain-of-Thought,CoT)和自我一致性Self Consistency,SC)等多種提示方法。
    • 近期文獻關注於自我修正的概念,即讓LLMs修正自己的輸出,但現有研究表明,自我修正在邏輯或推理錯誤上常常導致正確答案變得錯誤,從而整體性能下降。
  2. 自我修正性能不佳的原因探究
    • 研究將自我修正過程分解為錯誤發現輸出修正兩部分,以更好地理解每個組成部分。
    • 錯誤發現是基礎的推理技能,在哲學心理學數學中被廣泛研究和應用,而LLMs目前還不能可靠地發現錯誤。
    • 輸出修正涉及部分或完全改變先前生成的輸出,研究顯示,即使LLMs在發現錯誤方面存在困難,但如果給出錯誤位置信息,它們能夠修正輸出。
  3. 錯誤位置信息的獲取
    • 研究展示了即使在少次提示條件下LLMs在錯誤發現上的準確性較低,也可以通過訓練小型分類器來獲得更可靠的錯誤位置信息。
    • 通過訓練一個小型的錯誤發現分類器,使用領域外數據,其表現優於直接提示大型模型,為未來工作留下了開發更複雜方法的空間。

綜上所述,這篇文獻的背景強調了在LLMs領域中對錯誤發現和自我修正能力的需求,以及現有方法的局限性。作者提出了一種創新的方法,通過訓練分類器來輔助錯誤發現,以提高LLMs在推理任務中的性能。