这项工作探讨了三人游戏训练动力,在哪个条件下,三人游戏融合并融合了平衡。与先前的工作相反,我们研究了三人游戏架构,所有玩家都明确地相互互动。先前的工作分析了游戏,其中三个代理只与另一个玩家互动,构成了双重玩家游戏。我们使用简化的双线性平滑游戏的扩展版本探索三人游戏训练动力学,称为简化的三线性平滑游戏。我们发现,在大多数情况下,三连线游戏不会在NASH平衡上融合,而是在固定点上汇聚,这对于两个玩家来说是最佳的,但对于第三名而言则不是。此外,我们探讨了更新的顺序如何影响融合。除了交替和同时更新外,我们还探索了一个新的更新订单 - 最大化器优先 - 仅在三人游戏中才有可能。我们发现,三人游戏可以使用最大化器优先更新在NASH平衡上收敛。最后,我们在所有三个更新订单下在三线性平滑游戏中为每个玩家的动量值不同,并表明最大化器优先更新在一组比其他更新订单的较大的播放器动量值三合会中获得了更最佳的结果。
translated by 谷歌翻译
生成对抗网络的广泛应用受益于成功的训练方法,保证对象功能会聚到本地最小值。然而,由于基于梯度的方式的循环行为和基于Hessian矩阵的这些方法的昂贵计算成本,设计了高效竞争的训练方法仍然是一个具有挑战性的任务。本文提出了自适应复合梯度(ACG)方法,在合适的设置下线性收敛。理论和玩具功能实验表明,我们的方法可以缓解循环行为,并比最近提出的算法更快地收敛。值得注意的是,ACG方法不仅用于在双线性游戏以及一般游戏中找到稳定的固定点。 ACG方法是一种新的半渐变算法,因为它不需要计算每个步骤的梯度,通过利用未来迭代中的预测信息来降低梯度和黑森州的计算成本。我们通过将ACG与线性GANS集成到现有算法来进行高斯实验的两种混合。结果显示ACG与先前的算法具有竞争力。具有DCGANS的四个普遍数据集(Mnist,Fashion-Mnist,CIFAR-10和Celeba)的现实实验表明我们的ACG方法优于多个基线,说明了我们方法的优越性和功效。
translated by 谷歌翻译
Recent work has shown local convergence of GAN training for absolutely continuous data and generator distributions. In this paper, we show that the requirement of absolute continuity is necessary: we describe a simple yet prototypical counterexample showing that in the more realistic case of distributions that are not absolutely continuous, unregularized GAN training is not always convergent. Furthermore, we discuss regularization strategies that were recently proposed to stabilize GAN training. Our analysis shows that GAN training with instance noise or zerocentered gradient penalties converges. On the other hand, we show that Wasserstein-GANs and WGAN-GP with a finite number of discriminator updates per generator update do not always converge to the equilibrium point. We discuss these results, leading us to a new explanation for the stability problems of GAN training. Based on our analysis, we extend our convergence results to more general GANs and prove local convergence for simplified gradient penalties even if the generator and data distributions lie on lower dimensional manifolds. We find these penalties to work well in practice and use them to learn highresolution generative image models for a variety of datasets with little hyperparameter tuning.
translated by 谷歌翻译
由于能够产生与实际数据的显着统计相似性的高质量数据,生成的对抗性网络(GANS)最近在AI社区中引起了相当大的关注。从根本上,GaN是在训练中以越野方式训练的两个神经网络之间的游戏,以达到零和纳什均衡轮廓。尽管在过去几年中在GAN完成了改进,但仍有几个问题仍有待解决。本文评论了GANS游戏理论方面的文献,并解决了游戏理论模型如何应对生成模型的特殊挑战,提高GAN的表现。我们首先提出一些预备,包括基本GaN模型和一些博弈论背景。然后,我们将分类系统将最先进的解决方案分为三个主要类别:修改的游戏模型,修改的架构和修改的学习方法。分类基于通过文献中提出的游戏理论方法对基本GaN模型进行的修改。然后,我们探讨每个类别的目标,并讨论每个类别的最新作品。最后,我们讨论了这一领域的剩余挑战,并提出了未来的研究方向。
translated by 谷歌翻译
最近的多人游戏的理论和应用方面的最新进步,从电子运动到多种子体生成的对抗网络,我们专注于团队零和游戏中的最大优化。在这类游戏中,玩家分为两支队伍,在同一支队内等等,对手团队的相反标志。与TextBook二手零和游戏不同,在我们的类中找到纳什均衡可以被证明是CLS-Hard,即,它不太可能具有用于计算NASH均衡的多项式时间算法。此外,在该广义框架中,使用梯度下降上升(GDA),其乐观变体和额外梯度,我们建立了即使是渐近的最后一次迭代或时间平均收敛到纳什均衡。具体来说,我们展示了一个诱导效用是\ emph {non}的团队游戏系列\ \ emph {non}有吸引力的\ {per-se}混合的纳什均衡,作为底层优化景观的严格鞍点。利用控制理论的技术,我们通过设计局部收敛的修改GDA来补充这些负面结果,以纳入均衡。最后,我们讨论了我们的框架与AI架构的联系,其中与多助理生成对冲网络这样的团队竞争结构。
translated by 谷歌翻译
We study the problem of computing an approximate Nash equilibrium of continuous-action game without access to gradients. Such game access is common in reinforcement learning settings, where the environment is typically treated as a black box. To tackle this problem, we apply zeroth-order optimization techniques that combine smoothed gradient estimators with equilibrium-finding dynamics. We model players' strategies using artificial neural networks. In particular, we use randomized policy networks to model mixed strategies. These take noise in addition to an observation as input and can flexibly represent arbitrary observation-dependent, continuous-action distributions. Being able to model such mixed strategies is crucial for tackling continuous-action games that lack pure-strategy equilibria. We evaluate the performance of our method using an approximation of the Nash convergence metric from game theory, which measures how much players can benefit from unilaterally changing their strategy. We apply our method to continuous Colonel Blotto games, single-item and multi-item auctions, and a visibility game. The experiments show that our method can quickly find high-quality approximate equilibria. Furthermore, they show that the dimensionality of the input noise is crucial for performance. To our knowledge, this paper is the first to solve general continuous-action games with unrestricted mixed strategies and without any gradient information.
translated by 谷歌翻译
We present a variety of new architectural features and training procedures that we apply to the generative adversarial networks (GANs) framework. We focus on two applications of GANs: semi-supervised learning, and the generation of images that humans find visually realistic. Unlike most work on generative models, our primary goal is not to train a model that assigns high likelihood to test data, nor do we require the model to be able to learn well without using any labels. Using our new techniques, we achieve state-of-the-art results in semi-supervised classification on MNIST, CIFAR-10 and SVHN. The generated images are of high quality as confirmed by a visual Turing test: our model generates MNIST samples that humans cannot distinguish from real data, and CIFAR-10 samples that yield a human error rate of 21.3%. We also present ImageNet samples with unprecedented resolution and show that our methods enable the model to learn recognizable features of ImageNet classes.
translated by 谷歌翻译
我们研究了最近引入的最低最大优化框架的一种变体,其中最大玩具被限制以贪婪的方式更新其参数,直到达到一阶固定点为止。我们对此框架的平衡定义取决于最小玩家使用该方向来更新其参数的方向的提案分布。我们表明,鉴于一个平稳且有界的非Convex-Nonconcave目标函数,访问Min-player的更新的任何提案分布以及最大播放器的随机梯度甲骨文,我们的算法收敛于上述近似近似近似局部平衡,以众多的局部平衡。不取决于维度的迭代。我们的算法发现的平衡点取决于提议分布,在应用我们的算法来训练gans时,我们选择提案分布作为随机梯度的分布。我们从经验上评估了我们的算法,以挑战非凸孔测试功能和GAN培训中引起的损失功能。我们的算法在这些测试功能上收敛,并在用于训练gans时会在合成和现实世界中稳定训练,并避免模式崩溃
translated by 谷歌翻译
The extragradient method has recently gained increasing attention, due to its convergence behavior on smooth games. In $n$-player differentiable games, the eigenvalues of the Jacobian of the vector field are distributed on the complex plane, exhibiting more convoluted dynamics compared to classical (i.e., single player) minimization. In this work, we take a polynomial-based analysis of the extragradient with momentum for optimizing games with \emph{cross-shaped} Jacobian spectrum on the complex plane. We show two results. First, based on the hyperparameter setup, the extragradient with momentum exhibits three different modes of convergence: when the eigenvalues are distributed $i)$ on the real line, $ii)$ both on the real line along with complex conjugates, and $iii)$ only as complex conjugates. Then, we focus on the case $ii)$, i.e., when the eigenvalues of the Jacobian have \emph{cross-shaped} structure, as observed in training generative adversarial networks. For this problem class, we derive the optimal hyperparameters of the momentum extragradient method, and show that it achieves an accelerated convergence rate.
translated by 谷歌翻译
许多经济比赛和机器学习方法可以作为竞争优化问题,其中多个代理可以最大限度地减少其各自的目标函数,这取决于所有代理的行动。虽然梯度下降是单代理优化的可靠基本工作,但它通常会导致竞争优化的振荡。在这项工作中,我们提出了PolyATrix竞争梯度下降(PCGD)作为解决涉及任意数量的代理的通用和竞争优化的方法。我们的方法的更新是通过二次正则化的局部Polypatrix近似的纳什均衡,并且可以通过求解方程的线性系统有效地计算。我们证明了PCGD的本地融合以获得$ N $ -Player General Sum Games的稳定定点,并显示它不需要将步长调整到玩家交互的强度。我们使用PCGD优化多功能钢筋学习的政策,并展示其在蛇,马尔可夫足球和电力市场游戏中的优势。由PCGD优先效果培训的代理经过培训,具有同步梯度下降,辛渐变调整和蛇和马尔可夫足球比赛的Extragradient以及电力市场游戏,PCGD列达速度比同时梯度下降和自特殊方法。
translated by 谷歌翻译
许多现代机器学习算法,例如生成的对抗网络(GANS)和对抗性培训可以制定为最低限度优化。梯度下降上升(GDA)是由于其简单性导致的最常用的算法。但是,GDA可以收敛到非最佳Minimax点。我们提出了一个新的最低限度优化框架GDA-AM,将GDadynamics视为固定点迭代,并使用Anderson混合来解决局部imemax。它解决了同时GDA的发散问题加速了交替GDA的收敛性。我们从理论上显示了该算法可以在温和条件下实现Bilinear问题的全局收敛性。我们还经验证明GDA-AMSOLVES各种极少问题,并改善了几个数据集的GaN训练
translated by 谷歌翻译
Min-Max优化问题(即,最大游戏)一直在吸引大量的注意力,因为它们适用于各种机器学习问题。虽然最近取得了重大进展,但迄今为止的文献已经专注于独立战略集的比赛;难以解决与依赖策略集的游戏的知识,可以被称为Min-Max Stackelberg游戏。我们介绍了两种一阶方法,解决了大类凸凹MIN-Max Stackelberg游戏,并表明我们的方法会聚在多项式时间。 Min-Max Stackelberg游戏首先由Wald研究,在Wald的Maximin模型的Posthumous名称下,一个变体是强大的优化中使用的主要范式,这意味着我们的方法同样可以解决许多凸起的稳健优化问题。我们观察到Fisher市场中竞争均衡的计算还包括Min-Max Stackelberg游戏。此外,我们通过在不同的公用事业结构中计算Fisher市场的竞争性均衡来证明我们的算法在实践中的功效和效率。我们的实验表明潜在的方法来扩展我们的理论结果,通过展示不同的平滑性能如何影响我们算法的收敛速度。
translated by 谷歌翻译
生成对抗网络(GAN)通过两人游戏从数据样本中学习隐含的生成模型。在本文中,我们研究了游戏的NASH平衡存在,随着数据样本的数量增长到无穷大。在一个可实现的环境中,目标是估计固定高斯过程的基本真相发生器,我们表明,始终如一的nash平衡的存在至关重要取决于歧视家族的选择。根据二阶统计力矩定义的歧视器可能导致NASH平衡不存在,存在一致的非NASH平衡,或者是始终如一的NASH平衡的存在和唯一性,具体取决于发电机家族的对称特性是否受到尊重。我们进一步研究了梯度下降方法对一致平衡的局部稳定性和全球收敛。
translated by 谷歌翻译
有限重复的游戏是一个充满活力的游戏,在该游戏中,同时玩的游戏有限多次。GAN包含两个竞争模块:对发电机模块进行了训练以生成新的示例,并训练了判别器模块以区分真实示例与生成的示例。GAN的训练过程是一个有限重复的游戏,每个模块都试图以非合作方式在每个同时游戏的情况下优化其错误。我们观察到,如果在同时游戏的每个实例中,更强大的模块与较弱的模块合作,并且只有较弱的模块只能优化其错误。
translated by 谷歌翻译
我们考虑使用有限的地平线上具有随机动力学的通用N-N-玩家线性季度游戏,并证明了自然策略梯度方法与NASH平衡的全球收敛性。为了证明该方法的收敛性,我们需要系统中有一定数量的噪声。我们给出了一个条件,基本上是在模型参数方面对噪声的协方差的下限,以确保收敛。我们通过数值实验说明了我们的结果,以表明即使在策略梯度方法可能不会在确定性设置中收敛的情况下,噪声的添加也会导致收敛。
translated by 谷歌翻译
这是关于生成对抗性网络(GaN),对抗性自身额外的教程和调查纸张及其变体。我们开始解释对抗性学习和香草甘。然后,我们解释了条件GaN和DCGAN。介绍了模式崩溃问题,介绍了各种方法,包括小纤维GaN,展开GaN,Bourgan,混合GaN,D2Gan和Wasserstein GaN,用于解决这个问题。然后,GaN中的最大似然估计与F-GaN,对抗性变分贝叶斯和贝叶斯甘甘相同。然后,我们涵盖了GaN,Infogan,Gran,Lsgan,Enfogan,Gran,Lsgan,Catgan,MMD Gan,Lapgan,Progressive Gan,Triple Gan,Lag,Gman,Adagan,Cogan,逆甘,Bigan,Ali,Sagan,Sagan,Sagan,Sagan,甘肃,甘肃,甘河的插值和评估。然后,我们介绍了GaN的一些应用,例如图像到图像转换(包括Pacchgan,Cyclegan,Deepfacedrawing,模拟GaN,Interactive GaN),文本到图像转换(包括Stackgan)和混合图像特征(包括罚球和mixnmatch)。最后,我们解释了基于对冲学习的AutoEncoders,包括对手AutoEncoder,Pixelgan和隐式AutoEncoder。
translated by 谷歌翻译
学习问题通常表现出一个有趣的反馈机制,其中人口数据对竞争决策者的行为作出反应。本文为这种现象制定了一种新的游戏理论框架,称为多人执行预测。我们专注于两个不同的解决方案概念,即(i)表现稳定稳定的均衡和(ii)纳什均衡的比赛。后者均衡可以说是更具信息性的,但只有在游戏是单调时才有效地发现。我们表明,在温和的假设下,可以通过各种算法有效地发现所需稳定的均衡,包括重复再培训和重复(随机)梯度播放。然后,我们为游戏的强大单调性建立透明的充分条件,并使用它们开发用于查找纳什均衡的算法。我们研究了衍生免费方法和自适应梯度算法,其中每个玩家在学习其分发和梯度步骤的学习的分配和梯度步骤之间交替。合成和半合成数值实验说明了结果。
translated by 谷歌翻译
游戏理论到目前为止在各个领域都发现了许多应用,包括经济学,工业,法学和人工智能,每个玩家都只关心自己对非合作或合作方式的兴趣,但对其他玩家没有明显的恶意。但是,在许多实际应用中,例如扑克,国际象棋,逃避者追求,毒品拦截,海岸警卫队,网络安全和国防,球员通常都具有对抗性立场,也就是说,每个球员的自私行动不可避免地或故意造成损失或对其他球员造成严重破坏。沿着这条线,本文对在对抗性游戏中广泛使用的三种主要游戏模型(即零和零正常形式和广泛形式游戏,stackelberg(Security)游戏,零和差异游戏)提供了系统的调查。观点,包括游戏模型的基本知识,(近似)平衡概念,问题分类,研究前沿,(近似)最佳策略寻求技术,普遍的算法和实际应用。最后,还讨论了有关对抗性游戏的有希望的未来研究方向。
translated by 谷歌翻译
Ridge Rider(RR)是一种通过遵循Hessian(“脊”)的特征向量来查找各种解决方案的优化问题算法。RR专为保守梯度系统(即,涉及单次损失函数的设置)设计,其中它在鞍座上分支 - 易于找到的分叉点。我们通过提出一种方法 - 表示的广义脊骑手(GRR)来概括该想法,以寻找任意分叉点的方法。我们通过从动态系统领域利用机械来为我们的方法提供理论动机。我们构建了新的玩具问题,我们可以在欣赏到兴趣的高维问题的同时可视化新现象。最后,我们通过在迭代的囚犯困境和相关机器学习问题中找到不同的解决方案来统一地评估我们的方法。
translated by 谷歌翻译
在本文中,我们研究了具有约束策略空间的两人双线零和游戏。这种约束的自然发生的一个实例是使用混合策略,这与概率单纯限制相对应。我们提出和分析交替的镜面下降算法,其中每个玩家都会轮流采取镜子下降算法采取行动,以进行约束优化。我们将交替的镜像下降解释为双重空间中偏斜梯度流的交替离散化,并使用凸优化和修改能量功能的工具来建立$ O(k^{ - 2/3})$绑定其平均后悔$ k $迭代。与同时版本的镜子下降算法相比,这可以定量验证该算法的更好行为,该算法的同时版本可以发散并产生$ O(k^{ - 1/2})$平均遗憾。在不受约束的特殊情况下,我们的结果恢复了在(Bailey等人,Colt 2020)中研究的零和零游戏的交替梯度下降算法的行为。
translated by 谷歌翻译