WikiEdge:ArXiv-2402.12875/terms

出自WikiEdge
跳至導覽 跳至搜尋
編輯

這篇文章的術語表如下:

  • 思維鏈(Chain of Thought, CoT):指在生成最終答案之前,模型生成一系列中間步驟的過程,對於提高大型語言模型在算術和符號推理任務上的準確性非常有效。
  • 大型語言模型(Large Language Models, LLMs):在複雜推理任務中展現出卓越能力的模型,如數學問題解決和代碼生成。
  • 自注意力機制(Self-Attention Mechanism):一種允許模型在序列的不同部分之間建立直接依賴關係的機制,是Transformer架構的關鍵組成部分。
  • 並行計算(Parallel Computing):指同時使用多個計算資源來執行計算任務,以提高處理速度和效率。
  • 串行計算(Serial Computing):與並行計算相對,指按順序逐步執行計算任務,通常在單個處理器上完成。
  • 嵌入尺寸(Embedding Size):在自然語言處理中,指將詞彙映射到的高維空間中的維度大小。
  • 精度(Precision):在計算模型中,指浮點數表示中有效數字的位數,影響計算的準確性。
  • 並行時間(Parallel Time):指並行算法完成計算所需的時間,通常與問題規模和處理器數量有關。
  • AC0:一種計算複雜性類,包含可以使用常數深度和多項式寬度的電路解決的問題。
  • TC0:另一種計算複雜性類,與AC0類似,但允許使用MAJORITY門,這是一種可以並行計算多數函數的門。