近年来,人们对经验驱动的程序水平的生成越来越兴趣。已经制定了各种指标来建模玩家的经验并帮助产生个性化的水平。在这项工作中,我们质疑经验指标是否可以适应具有不同角色的代理商。我们首先审查现有的指标以评估游戏水平。然后,专注于平台游戏,我们设计了一个集成了各种代理和评估指标的框架。对\ emph {Super Mario Bros.}的实验研究表明,使用相同的评估指标,但具有不同角色的药物可以为特定角色产生水平。这意味着,对于简单的游戏而言,使用特定玩家原型的游戏代理作为水平测试仪,我们可能需要全部生成各种行为参与度的水平。
translated by 谷歌翻译
自动适应玩家的游戏内容打开新的游戏开发门。在本文中,我们提出了一种使用人物代理和经验指标的架构,这使得能够在进行针对特定玩家人物的程序生成的水平。使用我们的游戏“Grave Rave”,我们证明了这种方法成功地适应了三个不同的三种不同体验指标的基于法则的角色代理。此外,该适应性被证明是特定的,这意味着水平是人的意识,而不仅仅是关于所选度量的一般优化。
translated by 谷歌翻译
游戏由多种类型的内容组成,而不同内容类型的和谐在游戏设计中起着至关重要的作用。但是,大多数关于程序内容生成的作品一次仅考虑一种类型的内容。在本文中,我们通过音乐提出并制定了从音乐中的在线水平生成,以实时的方式将级别功能与音乐功能匹配,同时适应玩家的比赛速度。一个通用框架通过强化学习为在线玩家自适应的程序内容生成,oparl for Short是建立在经验驱动的强化学习和可控制的强化学习的基础上的,以从音乐中获得在线水平的生成。此外,提出了基于本地搜索和K-Nearest邻居的新型控制策略,并将其集成到Oparl中,以控制在线收集的播放数据的水平发电机。基于仿真的实验的结果表明,我们实施Oparl有能力在在线方式以``Energy''动态的``能量''动态来生成可玩水平。
translated by 谷歌翻译
我们研究了如何根据PlayTraces有效预测游戏角色。可以通过计算玩家与游戏行为的生成模型(所谓的程序角色)之间的动作协议比率来计算游戏角色。但这在计算上很昂贵,并假设很容易获得适当的程序性格。我们提出了两种用于估计玩家角色的方法,一种是使用定期监督的学习和启动游戏机制的汇总度量的方法,另一种是基于序列学习的序列学习的另一种方法。尽管这两种方法在预测与程序角色一致定义的游戏角色时都具有很高的精度,但它们完全无法预测玩家使用问卷的玩家本身定义的游戏风格。这个有趣的结果突出了使用计算方法定义游戏角色的价值。
translated by 谷歌翻译
Modern video games are becoming richer and more complex in terms of game mechanics. This complexity allows for the emergence of a wide variety of ways to play the game across the players. From the point of view of the game designer, this means that one needs to anticipate a lot of different ways the game could be played. Machine Learning (ML) could help address this issue. More precisely, Reinforcement Learning is a promising answer to the need of automating video game testing. In this paper we present a video game environment which lets us define multiple play-styles. We then introduce CARI: a Configurable Agent with Reward as Input. An agent able to simulate a wide continuum range of play-styles. It is not constrained to extreme archetypal behaviors like current methods using reward shaping. In addition it achieves this through a single training loop, instead of the usual one loop per play-style. We compare this novel training approach with the more classic reward shaping approach and conclude that CARI can also outperform the baseline on archetypes generation. This novel agent could be used to investigate behaviors and balancing during the production of a video game with a realistic amount of training time.
translated by 谷歌翻译
本文介绍了一种全自动的机械照明方法,以实现一般视频游戏水平的生成。使用受约束的MAP-ELITE算法和GVG-AI框架,该系统生成了最简单的基于图块的级别,该级别包含特定的游戏机制集并满足可玩性约束。我们将这种方法应用于GVG-AI的$ 4 $不同游戏的机械空间:Zelda,Solarfox,Plants和eartortals。
translated by 谷歌翻译
Real-Time Strategy (RTS) game unit generation is an unexplored area of Procedural Content Generation (PCG) research, which leaves the question of how to automatically generate interesting and balanced units unanswered. Creating unique and balanced units can be a difficult task when designing an RTS game, even for humans. Having an automated method of designing units could help developers speed up the creation process as well as find new ideas. In this work we propose a method of generating balanced and useful RTS units. We draw on Search-Based PCG and a fitness function based on Monte Carlo Tree Search (MCTS). We present ten units generated by our system designed to be used in the game microRTS, as well as results demonstrating that these units are unique, useful, and balanced.
translated by 谷歌翻译
强化学习算法在竞争挑战板和视频游戏时表现良好。越来越多的研究工作侧重于提高加强学习算法的泛化能力。普通视频游戏AI学习竞赛旨在设计能够学习在培训期间出现不同游戏水平的代理商。本文总结了五年的一般视频游戏AI学习竞争。在每个版本,设计了三场新游戏。对于每场比赛,通过扰动或组合两个训练水平来产生三个测试水平。然后,我们提出了一种新颖的加强学习框架,对一般视频游戏的双程观察,在假设中,它更有可能在不同级别而不是全局信息中观察到类似的本地信息。因此,我们所提出的框架而不是直接输入基于目前游戏屏幕的单个原始像素的屏幕截图,而是将游戏屏幕的编码,转换的全局和本地观测视为两个同时输入,旨在学习播放新级别的本地信息。我们提出的框架是用三种最先进的加强学习算法实施,并在2020年普通视频游戏AI学习竞赛的游戏集上进行了测试。消融研究表明,使用编码,转换的全局和本地观察的出色性能。总体上最好的代理商进一步用作2021次竞赛版的基线。
translated by 谷歌翻译
强化学习(RL)的最新进展使得可以在广泛的应用中开发出擅长的复杂剂。使用这种代理商的模拟可以在难以在现实世界中进行科学实验的情景中提供有价值的信息。在本文中,我们研究了足球RL代理商的游戏风格特征,并揭示了在训练期间可能发展的策略。然后将学习的策略与真正的足球运动员进行比较。我们探索通过使用聚合统计和社交网络分析(SNA)来探索使用模拟环境的学习内容。结果,我们发现(1)代理商的竞争力与各种SNA指标之间存在强烈的相关性,并且(2)RL代理商的各个方面,游戏风格与现实世界足球运动员相似,因为代理人变得更具竞争力。我们讨论了可能有必要的进一步进展,以改善我们必须充分利用RL进行足球的分析所需的理解。
translated by 谷歌翻译
哈纳比(Hanabi)是一款合作游戏,它带来了将其他玩家建模到最前沿的问题。在这个游戏中,协调的一组玩家可以利用预先建立的公约发挥出色的效果,但是在临时环境中进行比赛需要代理商适应其伴侣的策略,而没有以前的协调。在这种情况下评估代理需要各种各样的潜在伙伴人群,但是到目前为止,尚未以系统的方式考虑代理的行为多样性。本文提出了质量多样性算法作为有前途的算法类别,以生成多种人群为此目的,并使用MAP-ELITE生成一系列不同的Hanabi代理。我们还假设,在培训期间,代理商可以从多样化的人群中受益,并实施一个简单的“元策略”,以适应代理人的感知行为利基市场。我们表明,即使可以正确推断其伴侣的行为利基市场,即使培训其伴侣的行为利基市场,这种元策略也可以比通才策略更好地工作,但是在实践中,伴侣的行为取决于并干扰了元代理自己的行为,这表明是一条途径对于未来的研究,可以在游戏过程中表征另一个代理商的行为。
translated by 谷歌翻译
The increasing complexity of gameplay mechanisms in modern video games is leading to the emergence of a wider range of ways to play games. The variety of possible play-styles needs to be anticipated by designers, through automated tests. Reinforcement Learning is a promising answer to the need of automating video game testing. To that effect one needs to train an agent to play the game, while ensuring this agent will generate the same play-styles as the players in order to give meaningful feedback to the designers. We present CARMI: a Configurable Agent with Relative Metrics as Input. An agent able to emulate the players play-styles, even on previously unseen levels. Unlike current methods it does not rely on having full trajectories, but only summary data. Moreover it only requires little human data, thus compatible with the constraints of modern video game production. This novel agent could be used to investigate behaviors and balancing during the production of a video game with a realistic amount of training time.
translated by 谷歌翻译
In fighting games, individual players of the same skill level often exhibit distinct strategies from one another through their gameplay. Despite this, the majority of AI agents for fighting games have only a single strategy for each "level" of difficulty. To make AI opponents more human-like, we'd ideally like to see multiple different strategies at each level of difficulty, a concept we refer to as "multidimensional" difficulty. In this paper, we introduce a diversity-based deep reinforcement learning approach for generating a set of agents of similar difficulty that utilize diverse strategies. We find this approach outperforms a baseline trained with specialized, human-authored reward functions in both diversity and performance.
translated by 谷歌翻译
Monte Carlo Tree Search (MCTS) is a recently proposed search method that combines the precision of tree search with the generality of random sampling. It has received considerable interest due to its spectacular success in the difficult problem of computer Go, but has also proved beneficial in a range of other domains. This paper is a survey of the literature to date, intended to provide a snapshot of the state of the art after the first five years of MCTS research. We outline the core algorithm's derivation, impart some structure on the many variations and enhancements that have been proposed, and summarise the results from the key game and non-game domains to which MCTS methods have been applied. A number of open research questions indicate that the field is ripe for future work.
translated by 谷歌翻译
2021年,约翰霍普金斯大学应用物理实验室举行了内部挑战,以开发可以在合作牌游戏游戏Hanabi擅长的人工智能(AI)代理商。代理商被评估了他们与人类参与者从未遇到过的人类参与者的能力。本研究详细介绍了通过实现16.5的人类普及平均得分而赢得挑战的代理人,表现出目前的人类机器人Hanabi评分。获奖代理商的发展包括观察和准确地建立了作者在Hanabi的决策,然后用作者的行为克隆培训。值得注意的是,通过首先模仿人的决策,该代理商发现了人类互补的游戏风格,然后探讨了导致更高模拟人站分数的人类策略的变化。这项工作详细探讨了这项人类兼容的Hanabi队友的设计和实施,以及人类互补策略的存在和影响以及如何探索如何在人机团队中获得AI的更成功应用。
translated by 谷歌翻译
The success of AlphaZero (AZ) has demonstrated that neural-network-based Go AIs can surpass human performance by a large margin. Given that the state space of Go is extremely large and a human player can play the game from any legal state, we ask whether adversarial states exist for Go AIs that may lead them to play surprisingly wrong actions. In this paper, we first extend the concept of adversarial examples to the game of Go: we generate perturbed states that are ``semantically'' equivalent to the original state by adding meaningless moves to the game, and an adversarial state is a perturbed state leading to an undoubtedly inferior action that is obvious even for Go beginners. However, searching the adversarial state is challenging due to the large, discrete, and non-differentiable search space. To tackle this challenge, we develop the first adversarial attack on Go AIs that can efficiently search for adversarial states by strategically reducing the search space. This method can also be extended to other board games such as NoGo. Experimentally, we show that the actions taken by both Policy-Value neural network (PV-NN) and Monte Carlo tree search (MCTS) can be misled by adding one or two meaningless stones; for example, on 58\% of the AlphaGo Zero self-play games, our method can make the widely used KataGo agent with 50 simulations of MCTS plays a losing action by adding two meaningless stones. We additionally evaluated the adversarial examples found by our algorithm with amateur human Go players and 90\% of examples indeed lead the Go agent to play an obviously inferior action. Our code is available at \url{https://PaperCode.cc/GoAttack}.
translated by 谷歌翻译
蒙特卡洛树搜索(MCT)是设计游戏机器人或解决顺序决策问题的强大方法。该方法依赖于平衡探索和开发的智能树搜索。MCT以模拟的形式进行随机抽样,并存储动作的统计数据,以在每个随后的迭代中做出更有教育的选择。然而,该方法已成为组合游戏的最新技术,但是,在更复杂的游戏(例如那些具有较高的分支因素或实时系列的游戏)以及各种实用领域(例如,运输,日程安排或安全性)有效的MCT应用程序通常需要其与问题有关的修改或与其他技术集成。这种特定领域的修改和混合方法是本调查的主要重点。最后一项主要的MCT调查已于2012年发布。自发布以来出现的贡献特别感兴趣。
translated by 谷歌翻译
与社会推动者的强化学习的最新进展使此类模型能够在特定的互动任务上实现人级的绩效。但是,大多数交互式场景并不是单独的版本作为最终目标。取而代之的是,与人类互动时,这些代理人的社会影响是重要的,并且在很大程度上没有探索。在这方面,这项工作提出了一种基于竞争行为的社会影响的新颖强化学习机制。我们提出的模型汇总了客观和社会感知机制,以得出用于调节人造药物学习的竞争得分。为了调查我们提出的模型,我们使用厨师的帽子卡游戏设计了一个互动游戏场景,并研究竞争调制如何改变代理商的比赛风格,以及这如何影响游戏中人类玩家的体验。我们的结果表明,与普通代理人相比,与竞争对手的代理人相比,人类可以检测到特定的社会特征,这直接影响了后续游戏中人类玩家的表现。我们通过讨论构成人工竞争得分的不同社会和客观特征如何有助于我们的结果来结束我们的工作。
translated by 谷歌翻译
除了独奏游戏外,棋盘游戏至少需要其他玩家才能玩。因此,当对手失踪时,我们创建了人工智能(AI)代理商来对抗我们。这些AI代理是通过多种方式创建的,但是这些代理的一个挑战是,与我们相比,代理可以具有较高的能力。在这项工作中,我们描述了如何创建玩棋盘游戏的较弱的AI代理。我们使用Tic-Tac-toe,九名成员的莫里斯和曼卡拉,我们的技术使用了增强学习模型,代理商使用Q学习算法来学习这些游戏。我们展示了这些代理商如何学会完美地玩棋盘游戏,然后我们描述了制作这些代理商较弱版本的方法。最后,我们提供了比较AI代理的方法。
translated by 谷歌翻译
本文通过将影响建模的任务视为强化学习(RL)过程,引入了范式转变。根据拟议的范式,RL代理通过尝试通过其环境(即背景)来最大化一组奖励(即行为和情感模式)来学习政策(即情感互动)。我们的假设是,RL是交织的有效范式影响引起和与行为和情感示威的表现。重要的是,我们对达马西奥的躯体标记假设的第二个假设建设是,情绪可以成为决策的促进者。我们通过训练Go-Blend Agents来对人类的唤醒和行为进行模型来检验赛车游戏中的假设; Go-Blend是Go-explore算法的修改版本,该版本最近在硬探索任务中展示了最高性能。我们首先改变了基于唤醒的奖励功能,并观察可以根据指定的奖励有效地显示情感和行为模式调色板的代理。然后,我们使用基于唤醒的状态选择机制来偏向Go-Blend探索的策略。我们的发现表明,Go-Blend不仅是有效的影响建模范式,而且更重要的是,情感驱动的RL改善了探索并产生更高的性能剂,从而验证了Damasio在游戏领域中的假设。
translated by 谷歌翻译
Monte Carlo树搜索(MCT)是一种用于搜索最佳决策的采样最佳方法。 MCTS的受欢迎程度是基于其挑战基于两位玩家的游戏的非凡结果,这是一个比国际象棋更难的游戏,直到最近被认为是人工智能方法的不可行。 MCTS的成功大大取决于树的构建方式,选择过程在这方面发挥着重要作用。证明是可靠的一个特定选择机制是基于树的上部置信度,通常称为UCT。通过考虑存储在MCT的统计树中的值,UCT试图平衡探索和利用。但是,MCTS UCT的一些调整是必要的工作。在这项工作中,我们使用进化算法(EAS)来发展数学表达式,以替代UCT数学表达式。我们比较了我们提出的方法,称为MCTS(ES-MCTS)中的演化策略,对MCTS UCT的五种变体,算法的三种变体,算法中的算法,以及卡尔卡松游戏中的随机控制器。我们还使用所提出的基于EA的控制器的变体,被称为MCTS的ES部分集成。我们展示了ES-MCTS控制器的方式如何优于所有这10个智能控制器,包括强大的MCTS UCT控制器。
translated by 谷歌翻译