WikiEdge:ArXiv-2301.06627
- 標題:Dissociating language and thought in large language models
- 中文標題:解構大型語言模型中的語言和思維
- 發佈日期:2023-01-16 22:41:19+00:00
- 作者:Kyle Mahowald, Anna A. Ivanova, Idan A. Blank, Nancy Kanwisher, Joshua B. Tenenbaum, Evelina Fedorenko
- 分類:cs.CL, cs.AI
- 原文連結:http://arxiv.org/abs/2301.06627v3
摘要:大型語言模型(LLMs)在迄今為止的所有模型中,最接近於掌握人類語言,然而對它們的語言和認知能力的看法仍然存在分歧。在這裏,我們使用語言形式能力——語言規則和模式的知識——和功能語言能力——理解和使用語言——之間的區別來評估LLMs。我們將這種區別基於人類神經科學,它已經顯示出形式和功能能力依賴於不同的神經機制。儘管LLMs在形式能力上表現出驚人的優勢,但它們在功能能力任務上的表現仍然不穩定,通常需要專門的微調和/或與外部模塊的耦合。我們認為,以人類方式使用語言的模型需要掌握這兩種能力,這反過來可能需要形式語言能力的專門機制的出現,這與功能能力是不同的。