WikiEdge:ArXiv-2402.12875/terms
跳至導覽
跳至搜尋
這篇文章的術語表如下:
- 思維鏈(Chain of Thought, CoT):指在生成最終答案之前,模型生成一系列中間步驟的過程,對於提高大型語言模型在算術和符號推理任務上的準確性非常有效。
- 大型語言模型(Large Language Models, LLMs):在複雜推理任務中展現出卓越能力的模型,如數學問題解決和代碼生成。
- 自注意力機制(Self-Attention Mechanism):一種允許模型在序列的不同部分之間建立直接依賴關係的機制,是Transformer架構的關鍵組成部分。
- 並行計算(Parallel Computing):指同時使用多個計算資源來執行計算任務,以提高處理速度和效率。
- 串行計算(Serial Computing):與並行計算相對,指按順序逐步執行計算任務,通常在單個處理器上完成。
- 嵌入尺寸(Embedding Size):在自然語言處理中,指將詞彙映射到的高維空間中的維度大小。
- 精度(Precision):在計算模型中,指浮點數表示中有效數字的位數,影響計算的準確性。
- 並行時間(Parallel Time):指並行算法完成計算所需的時間,通常與問題規模和處理器數量有關。
- AC0:一種計算複雜性類,包含可以使用常數深度和多項式寬度的電路解決的問題。
- TC0:另一種計算複雜性類,與AC0類似,但允許使用MAJORITY門,這是一種可以並行計算多數函數的門。