WikiEdge:ArXiv-2408.17180v1/terms:修订间差异
跳转到导航
跳转到搜索
Saved page by David |
Saved page by David |
||
第1行: | 第1行: | ||
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17180v1/terms|action=edit}} 编辑]</div> | <div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17180v1/terms|action=edit}} 编辑]</div> | ||
这篇文章的术语表如下: | 这篇文章的术语表如下: | ||
* [[玩家对战玩家]](Player versus Player, PvP):指一种游戏模式,玩家在游戏中 | * [[玩家对战玩家]](Player versus Player, PvP):指一种游戏模式,玩家在游戏中对抗其他玩家,而非电脑控制的对手。 | ||
* [[ | * [[团队组合]](Team Compositions):在PvP游戏中,指玩家选择的角色、英雄或单位的组合。 | ||
* [[布拉德利-特里模型]](Bradley-Terry Model):一种统计模型,用于分析和比较两个项目或选手之间的相对实力。 | |||
* [[布 | * [[向量量化]](Vector Quantization, VQ):一种数据降维技术,通过将连续的数值映射到离散的代码本向量来实现。 | ||
* [[向量量化]](Vector Quantization, VQ):一种数据 | * [[对抗网络]](Adversarial Networks):一种使用生成对抗过程训练的神经网络,通常用于生成数据或增强模型的鲁棒性。 | ||
* [[ | * [[多智能体强化学习]](Multi-agent Reinforcement Learning):一种机器学习方法,涉及多个智能体在环境中交互并学习以达到共同或各自的目标。 | ||
* [[ | * [[纳什均衡]](Nash Equilibrium):在博弈论中,指一种策略组合,其中每个玩家的策略都是对其他玩家策略的最佳响应。 | ||
* [[ | * [[隐变量模型]](Latent Variable Model):一种统计模型,用于分析观测数据中未观测到的潜在变量对结果的影响。 | ||
* [[ | * [[自我对弈]](Self-Play):一种训练人工智能的方法,通过让AI系统与自身的复制品进行对抗来学习策略和提高性能。 | ||
* [[对 | * [[策略熵]](Policy Entropy):在强化学习中,用于衡量策略随机性或多样性的度量,高熵表示策略具有更高的不确定性或探索性。 |
2024年9月3日 (二) 10:46的最新版本
这篇文章的术语表如下:
- 玩家对战玩家(Player versus Player, PvP):指一种游戏模式,玩家在游戏中对抗其他玩家,而非电脑控制的对手。
- 团队组合(Team Compositions):在PvP游戏中,指玩家选择的角色、英雄或单位的组合。
- 布拉德利-特里模型(Bradley-Terry Model):一种统计模型,用于分析和比较两个项目或选手之间的相对实力。
- 向量量化(Vector Quantization, VQ):一种数据降维技术,通过将连续的数值映射到离散的代码本向量来实现。
- 对抗网络(Adversarial Networks):一种使用生成对抗过程训练的神经网络,通常用于生成数据或增强模型的鲁棒性。
- 多智能体强化学习(Multi-agent Reinforcement Learning):一种机器学习方法,涉及多个智能体在环境中交互并学习以达到共同或各自的目标。
- 纳什均衡(Nash Equilibrium):在博弈论中,指一种策略组合,其中每个玩家的策略都是对其他玩家策略的最佳响应。
- 隐变量模型(Latent Variable Model):一种统计模型,用于分析观测数据中未观测到的潜在变量对结果的影响。
- 自我对弈(Self-Play):一种训练人工智能的方法,通过让AI系统与自身的复制品进行对抗来学习策略和提高性能。
- 策略熵(Policy Entropy):在强化学习中,用于衡量策略随机性或多样性的度量,高熵表示策略具有更高的不确定性或探索性。