WikiEdge:ArXiv-2408.17180v1/terms:修订间差异

来自WikiEdge
跳转到导航 跳转到搜索
David留言 | 贡献
Saved page by David
David留言 | 贡献
Saved page by David
 
第1行: 第1行:
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17180v1/terms|action=edit}} 编辑]</div>
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17180v1/terms|action=edit}} 编辑]</div>
这篇文章的术语表如下:
这篇文章的术语表如下:
* [[玩家对战玩家]](Player versus Player, PvP):指一种游戏模式,玩家在游戏中其他玩家竞争,而非与计算机AI
* [[玩家对战玩家]](Player versus Player, PvP):指一种游戏模式,玩家在游戏中对抗其他玩家,而非电脑控制的
* [[在线战斗竞技场]](Multiplayer Online Battle Arena, MOBA):一种多人在线游戏类型通常包含两队玩家分别控制代表他们的角色,通常称为“英雄”,并尝试摧毁对方基地。
* [[团队组合]](Team Compositions):在PvP游戏玩家选择的角色英雄或单位组合
* [[卡牌游戏]](Card Game):一种使用卡牌作为主要工具的游戏,玩家通过策略性地出牌来达到游戏目标
* [[布德利-特里模型]](Bradley-Terry Model):一种统计模型,用于分析和比较两个项目或选手之间的相对实力。
* [[布德利-特里模型]](Bradley-Terry model):一种统计模型,用于分析两个项目之间的竞争结果,常用于评估玩家或团队的相对实力。
* [[向量量化]](Vector Quantization, VQ):一种数据降维技术,通过将连续的数值映射到离散的代码本向量来实现。
* [[向量量化]](Vector Quantization, VQ):一种数据压缩技术,通过将连续的数值数据映射到预先定义的一组离散的代码本向量来实现。
* [[对抗网络]](Adversarial Networks):一种使用生成对抗过程训练的神经网络,通常用于生成数据或增强模型的鲁棒性
* [[神经网络]](Neural Network):一种模仿人脑神经网络结构和功能的计算模型,用于处理和解决复杂问题
* [[多智能体化学习]](Multi-agent Reinforcement Learning):一种机器学习方法,涉及多个智能体在环境中交互并学习以达到共同各自目标
* [[标量度评分]](Scalar Strength Rating):一种评估方法,通过单一的数值来表示对象实体强度或性能
* [[纳什均衡]](Nash Equilibrium):在博弈论中,一种策略组合,其中每个玩家的策略都是对其他玩家策略最佳响应
* [[循环优势]](Cyclic Dominance):在竞争或对抗关系中,存在一种循环克制关系,如石头、剪刀、布游戏
* [[隐变量模型]](Latent Variable Model):一种统计模型,用于分析观测数据中未观测到的潜在变量对结果影响
* [[策略熵]](Entropy of Strategy):在游戏理论中,用于描述策略不确定性或复杂性,高熵表示策略分布更加均匀或不可预测
* [[自我]](Self-Play):一种训练人工智能的方法,通过让AI系统与自身复制品进对抗学习策略和提高性能。
* [[对抗性训练]](Adversarial Training):一种机器学习方法,通过模拟对手或攻击者的行模型鲁棒
* [[策略熵]](Policy Entropy):在化学习中,用于衡量策略随机性或多样性的度量,高熵表示策略具有更高不确定或探索性。

2024年9月3日 (二) 10:46的最新版本

编辑

这篇文章的术语表如下:

  • 玩家对战玩家(Player versus Player, PvP):指一种游戏模式,玩家在游戏中对抗其他玩家,而非电脑控制的对手。
  • 团队组合(Team Compositions):在PvP游戏中,指玩家选择的角色、英雄或单位的组合。
  • 布拉德利-特里模型(Bradley-Terry Model):一种统计模型,用于分析和比较两个项目或选手之间的相对实力。
  • 向量量化(Vector Quantization, VQ):一种数据降维技术,通过将连续的数值映射到离散的代码本向量来实现。
  • 对抗网络(Adversarial Networks):一种使用生成对抗过程训练的神经网络,通常用于生成数据或增强模型的鲁棒性。
  • 多智能体强化学习(Multi-agent Reinforcement Learning):一种机器学习方法,涉及多个智能体在环境中交互并学习以达到共同或各自的目标。
  • 纳什均衡(Nash Equilibrium):在博弈论中,指一种策略组合,其中每个玩家的策略都是对其他玩家策略的最佳响应。
  • 隐变量模型(Latent Variable Model):一种统计模型,用于分析观测数据中未观测到的潜在变量对结果的影响。
  • 自我对弈(Self-Play):一种训练人工智能的方法,通过让AI系统与自身的复制品进行对抗来学习策略和提高性能。
  • 策略熵(Policy Entropy):在强化学习中,用于衡量策略随机性或多样性的度量,高熵表示策略具有更高的不确定性或探索性。