查看“WikiEdge:ArXiv-2409.02711v1/terms”的源代码
←
WikiEdge:ArXiv-2409.02711v1/terms
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2409.02711v1/terms|action=edit}} 编辑]</div> 这篇文章的术语表如下: * [[生成性人工智能]](Generative AI):生成性人工智能是一类能够生成与训练数据相似的新数据或内容的人工智能算法。 * [[多代理系统]](Multi-Agent Systems):多代理系统是由多个具有不同能力和专业知识的代理组成的系统,这些代理能够通过交互模拟复杂现实世界环境。 * [[大型语言模型]](Large Language Models, LLMs):大型语言模型是使用变换器架构训练的人工智能模型,能够理解和生成类似人类的语言。 * [[检索增强生成]](Retrieval-Augmented Generation, RAG):检索增强生成是一种通过从外部知识库中实时检索相关文档片段来增强大型语言模型的方法。 * [[量化]](Quantization):量化是一种减少神经网络内存占用和计算需求的技术,通常涉及将模型参数的精度从32位浮点数降低到更低的位宽表示。 * [[自注意力机制]](Self-Attention Mechanism):自注意力机制是变换器模型中的一种机制,允许模型学习输入序列中每个词的重要性,无论其位置如何。 * [[编码器-解码器结构]](Encoder-Decoder Structure):编码器-解码器结构是变换器模型中的一种结构,其中编码器和解码器都使用自注意力和前馈神经网络。 * [[物流事件]](Logistic Events):物流事件是物流过程中记录的各种情况的代码,代表包裹在PostNL网络中从接收到交付的旅程。 * [[数字化转型]](Digital Transformation):数字化转型是企业利用数字技术来改造其业务模式和流程的过程,以提高效率和竞争力。 * [[生成性预训练变换器]](Generative Pre-trained Transformer, GPT):生成性预训练变换器是一种基于变换器模型的生成性人工智能,能够生成新的文本数据。
返回
WikiEdge:ArXiv-2409.02711v1/terms
。
导航菜单
个人工具
创建账号
登录
命名空间
项目页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
工具
链入页面
相关更改
特殊页面
页面信息