WikiEdge:ArXiv-2408.17180v1/terms:修订间差异

来自WikiEdge
跳转到导航 跳转到搜索
David留言 | 贡献
Saved page by David
 
David留言 | 贡献
Saved page by David
 
(未显示同一用户的1个中间版本)
第1行: 第1行:
<!-- 不要移除下面第一行,如果有编辑错误,请直接修改第二行以后的内容 -->
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17180v1/terms|action=edit}} 编辑]</div>
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17180v1/terms|action=edit}} 编辑]</div>
这篇文章的术语表如下:
* [[玩家对战玩家]](Player versus Player, PvP):指一种游戏模式,玩家在游戏中对抗其他玩家,而非电脑控制的对手。
* [[团队组合]](Team Compositions):在PvP游戏中,指玩家选择的角色、英雄或单位的组合。
* [[布拉德利-特里模型]](Bradley-Terry Model):一种统计模型,用于分析和比较两个项目或选手之间的相对实力。
* [[向量量化]](Vector Quantization, VQ):一种数据降维技术,通过将连续的数值映射到离散的代码本向量来实现。
* [[对抗网络]](Adversarial Networks):一种使用生成对抗过程训练的神经网络,通常用于生成数据或增强模型的鲁棒性。
* [[多智能体强化学习]](Multi-agent Reinforcement Learning):一种机器学习方法,涉及多个智能体在环境中交互并学习以达到共同或各自的目标。
* [[纳什均衡]](Nash Equilibrium):在博弈论中,指一种策略组合,其中每个玩家的策略都是对其他玩家策略的最佳响应。
* [[隐变量模型]](Latent Variable Model):一种统计模型,用于分析观测数据中未观测到的潜在变量对结果的影响。
* [[自我对弈]](Self-Play):一种训练人工智能的方法,通过让AI系统与自身的复制品进行对抗来学习策略和提高性能。
* [[策略熵]](Policy Entropy):在强化学习中,用于衡量策略随机性或多样性的度量,高熵表示策略具有更高的不确定性或探索性。

2024年9月3日 (二) 10:46的最新版本

编辑

这篇文章的术语表如下:

  • 玩家对战玩家(Player versus Player, PvP):指一种游戏模式,玩家在游戏中对抗其他玩家,而非电脑控制的对手。
  • 团队组合(Team Compositions):在PvP游戏中,指玩家选择的角色、英雄或单位的组合。
  • 布拉德利-特里模型(Bradley-Terry Model):一种统计模型,用于分析和比较两个项目或选手之间的相对实力。
  • 向量量化(Vector Quantization, VQ):一种数据降维技术,通过将连续的数值映射到离散的代码本向量来实现。
  • 对抗网络(Adversarial Networks):一种使用生成对抗过程训练的神经网络,通常用于生成数据或增强模型的鲁棒性。
  • 多智能体强化学习(Multi-agent Reinforcement Learning):一种机器学习方法,涉及多个智能体在环境中交互并学习以达到共同或各自的目标。
  • 纳什均衡(Nash Equilibrium):在博弈论中,指一种策略组合,其中每个玩家的策略都是对其他玩家策略的最佳响应。
  • 隐变量模型(Latent Variable Model):一种统计模型,用于分析观测数据中未观测到的潜在变量对结果的影响。
  • 自我对弈(Self-Play):一种训练人工智能的方法,通过让AI系统与自身的复制品进行对抗来学习策略和提高性能。
  • 策略熵(Policy Entropy):在强化学习中,用于衡量策略随机性或多样性的度量,高熵表示策略具有更高的不确定性或探索性。