受到Mishchenko等人(2022)的最新突破的启发,他们首次表明局部梯度步骤可以导致可证明的通信加速,我们提出了一种替代算法,该算法获得了与他们的方法相同的通信加速度(Proxsskip)。但是,我们的方法非常不同:它基于Chambolle和Pock(2011)的著名方法,并具有多种不平凡的修改:i)我们允许通过适当的强烈凸出功能的代理操作员进行不精确的计算。基于梯度的方法(例如,GD,Fast GD或FSFOM),ii)我们对双重更新步骤进行仔细的修改,以保留线性收敛。我们的一般结果为强凸孔座鞍点问题提供了新的最先进率,其双线性耦合为特征,其特征是双重功能缺乏平滑度。当应用于联邦学习时,我们获得了Proxskip的理论上更好的替代方案:我们的方法需要更少的本地步骤($ O(\ kappa^{1/3})$或$ o(\ kappa^{1/4})$,与Proxskip的$ O(\ kappa^{1/2})$相比,并执行确定性的本地步骤。像Proxskip一样,我们的方法可以应用于连接网络的优化,我们在这里也获得了理论改进。
translated by 谷歌翻译
在本文中,我们研究了一个凸凹马鞍点问题$ \ min_x \ max_y f(x)+ y ^ \ top \ mathbf {a} x - g(y)$,其中$ f(x)$和$ g(y)$是平滑和凸的功能。我们提出了一种加速的原始 - 双梯度方法,用于解决该问题(i)在匹配较低复杂性绑定的强 - 凸强 - 凹形方案中实现最佳线性收敛速率(Zhang等,2021)和(ii)在只有其中一个函数$ f(x)$和$ g(y)$的情况下实现加速的线性收敛速率,而甚至没有它们。最后,我们获得了一种线性收敛算法,用于一般平滑和凸凹骑马点问题$ \ min_x \ max_y f(x,y)$,不需要强大的凸起或强凹面。
translated by 谷歌翻译
The celebrated FedAvg algorithm of McMahan et al. (2017) is based on three components: client sampling (CS), data sampling (DS) and local training (LT). While the first two are reasonably well understood, the third component, whose role is to reduce the number of communication rounds needed to train the model, resisted all attempts at a satisfactory theoretical explanation. Malinovsky et al. (2022) identified four distinct generations of LT methods based on the quality of the provided theoretical communication complexity guarantees. Despite a lot of progress in this area, none of the existing works were able to show that it is theoretically better to employ multiple local gradient-type steps (i.e., to engage in LT) than to rely on a single local gradient-type step only in the important heterogeneous data regime. In a recent breakthrough embodied in their ProxSkip method and its theoretical analysis, Mishchenko et al. (2022) showed that LT indeed leads to provable communication acceleration for arbitrarily heterogeneous data, thus jump-starting the $5^{\rm th}$ generation of LT methods. However, while these latest generation LT methods are compatible with DS, none of them support CS. We resolve this open problem in the affirmative. In order to do so, we had to base our algorithmic development on new algorithmic and theoretical foundations.
translated by 谷歌翻译
联合学习(FL)是机器学习的一个子领域,在该子机学习中,多个客户试图在通信约束下通过网络进行协作学习模型。我们考虑在二阶功能相似性条件和强凸度下联合优化的有限和联合优化,并提出了两种新算法:SVRP和催化的SVRP。这种二阶相似性条件最近越来越流行,并且在包括分布式统计学习和差异性经验风险最小化在内的许多应用中得到满足。第一种算法SVRP结合了近似随机点评估,客户采样和降低方差。我们表明,当功能相似性足够高时,SVRP是沟通有效的,并且在许多现有算法上取得了卓越的性能。我们的第二个算法,催化的SVRP,是SVRP的催化剂加速变体,在二阶相似性和强凸度下,现有的联合优化算法可实现更好的性能,并均匀地改善了现有的算法。在分析这些算法的过程中,我们提供了可能具有独立关注的随机近端方法(SPPM)的新分析。我们对SPPM的分析很简单,允许进行近似近端评估,不需要任何平滑度假设,并且在通信复杂性上比普通分布式随机梯度下降显示出明显的好处。
translated by 谷歌翻译
我们考虑最小化三个凸功能的总和,其中第一个f是光滑的,第二个f是非平滑且可近的,第三个是与线性操作员L的非光滑近似函数的组成。此模板问题具有许多应用程序,有许多应用程序,有许多应用程序,,具有许多应用程序,,具有许多应用程序。例如,在图像处理和机器学习中。首先,我们为这个问题提出了一种新的原始偶算法,我们称之为PDDY。它是通过将davis-yin分裂应用于原始二重式产品空间中的单调包含的,在特定度量下,操作员在特定度量下是单调的。我们显示了三种现有算法(Condat-VU算法的两种形式) PD3O算法)具有相同的结构,因此PDDY是这种自洽的原始偶算法中的第四个丢失链接。这种表示可以简化收敛分析:它使我们能够总体上得出sublinear收敛速率,而线性收敛导致存在强凸度的存在。此外,在我们的广泛而灵活的分析框架内,我们提出了对算法的新随机概括,其中使用了Friancation降低F梯度的随机估计值,而不是真实的梯度。此外,我们作为pddy的特殊情况获得了线性收敛算法,用于在线性约束下最小化强凸功能f。我们讨论了其对分散优化的重要应用。
translated by 谷歌翻译
我们研究基于{\ em本地培训(LT)}范式的分布式优化方法:通过在参数平均之前对客户进行基于本地梯度的培训来实现沟通效率。回顾田地的进度,我们{\ em识别5代LT方法}:1)启发式,2)均匀,3)sublinear,4)线性和5)加速。由Mishchenko,Malinovsky,Stich和Richt \'{A} Rik(2022)发起的5 $ {}^{\ rm th} $生成,由Proxskip方法发起通信加速机制。受到最近进度的启发,我们通过证明可以使用{\ em差异}进一步增强它们,为5 $ {}^{\ rm th} $生成LT方法的生成。尽管LT方法的所有以前的所有理论结果都完全忽略了本地工作的成本,并且仅根据交流回合的数量而被构成,但我们证明我们的方法在{\ em总培训成本方面都比{\ em em总培训成本}大得多当本地计算足够昂贵时,在制度中的理论和实践中,最先进的方法是proxskip。我们从理论上表征了这个阈值,并通过经验结果证实了我们的理论预测。
translated by 谷歌翻译
我们通过两种类型 - 主/工人(因此集中)架构(因此集中)架构和网格化(因此分散)网络,研究(强)凸起(强)凸起(强)凸起的鞍点问题(SPPS)的解决方案方法。由于统计数据相似度或其他,假设每个节点处的本地功能是相似的。我们为求解SPP的相当一般算法奠定了较低的复杂性界限。我们表明,在$ \ omega \ big(\ delta \ cdot \ delta / \ mu \ cdot \ log(1 / varepsilon)\ big)$ rounds over over over exoptimally $ \ epsilon> 0 $ over over master / workers网络通信,其中$ \ delta> 0 $测量本地功能的相似性,$ \ mu $是它们的强凸起常数,$ \ delta $是网络的直径。较低的通信复杂性绑定在网状网络上读取$ \ omega \ big(1 / {\ sqrt {\ rho}} \ cdot {\ delta} / {\ mu} \ cdot \ log(1 / varepsilon)\ big)$ ,$ \ rho $是用于邻近节点之间通信的八卦矩阵的(归一化)EIGENGAP。然后,我们提出算法与较低限制的网络(最多为日志因子)匹配。我们评估所提出的算法对强大的逻辑回归问题的有效性。
translated by 谷歌翻译
梯度压缩是一种流行的技术,可改善机器学习模型分布式培训中随机一阶方法的沟通复杂性。但是,现有作品仅考虑随机梯度的替换采样。相比之下,在实践中众所周知,最近从理论上证实,基于没有替代抽样的随机方法,例如随机改组方法(RR)方法,其性能要比用更换梯度进行梯度的方法更好。在这项工作中,我们在文献中缩小了这一差距,并通过梯度压缩和没有替代抽样的方法提供了第一次分析方法。我们首先使用梯度压缩(Q-RR)开发一个随机重新填充的分布式变体,并展示如何通过使用控制迭代来减少梯度量化的方差。接下来,为了更好地适合联合学习应用程序,我们结合了本地计算,并提出了一种称为Q-Nastya的Q-RR的变体。 Q-Nastya使用本地梯度步骤以及不同的本地和全球步骤。接下来,我们还展示了如何在此设置中减少压缩差异。最后,我们证明了所提出的方法的收敛结果,并概述了它们在现有算法上改进的几种设置。
translated by 谷歌翻译
二重优化发现在现代机器学习问题中发现了广泛的应用,例如超参数优化,神经体系结构搜索,元学习等。而具有独特的内部最小点(例如,内部功能是强烈凸的,都具有唯一的内在最小点)的理解,这是充分理解的,多个内部最小点的问题仍然是具有挑战性和开放的。为此问题设计的现有算法适用于限制情况,并且不能完全保证融合。在本文中,我们采用了双重优化的重新制定来限制优化,并通过原始的双二线优化(PDBO)算法解决了问题。 PDBO不仅解决了多个内部最小挑战,而且还具有完全一阶效率的情况,而无需涉及二阶Hessian和Jacobian计算,而不是大多数现有的基于梯度的二杆算法。我们进一步表征了PDBO的收敛速率,它是与多个内部最小值的双光线优化的第一个已知的非质合收敛保证。我们的实验证明了所提出的方法的预期性能。
translated by 谷歌翻译
由于分布式和联合学习的高通信成本,依赖压缩通信的方法变得越来越受欢迎。此外,最好的理论上和实际上表演梯度类型方法总是依赖某种形式的加速/动量来减少通信数量(更快的收敛)(更快的收敛),例如,Nesterov的加速梯度下降(Nesterov,1983,2004)和Adam(Kingma和Kingma) BA,2014)。为了结合通信压缩和收敛加速的好处,我们提出了基于Anita(Li,2021)的Anita {压缩和加速}梯度方法进行分布式优化,我们称之为CANITA。我们的Canita实现了\ emph {First加速率} $ o \ bigg(\ sqrt {\ big(1+ \ sqrt {\ frac {\ oomega ^ 3} {n}} \ big)\ frac {l} {\ epsilon }} + \ oomega \ big(\ frac {1} {\ epsilon} \ big)^ {\ frac {1} {3}} {3}} \ bigg)$,从而提高了最先进的非加速RAY $ o \ left((1+ \ frac {\ oomega} {n})\ frac {l} {\ epsilon} + \ frac {\ oomega ^ 2 + \ oomega} {\ omega + n} \ frac {1 } {\ epsilon} \右)美元(khaled等,2020)用于分布式一般凸面问题,其中$ \ epsilon $是目标错误,$ l $是目标的平滑参数,$ n $机器/设备的数量和$ \ omega $是压缩参数(较大的$ \ omega $意味着可以应用更多压缩,并且没有压缩意味着$ \ omega = 0 $)。我们的结果表明,只要设备数量为$ n $很大(在分布式/联合学习中经常是真实的),或者压缩$ \ omega $不是很高,Canita达到了更快的收敛速度$ o \ big(\ sqrt {\ frac {l} {\ epsilon}} \ big)$,即通信轮的数量是$ o \ big(\ sqrt {\ frac {l} {\ epsilon}} \ big)$(与$ o \ big(\ frac {l} {\ epsilon} \ big)通过以前的作品实现)。因此,天堂岛享有压缩(每轮压缩通信)和加速度(较少的通信轮)的优点。
translated by 谷歌翻译
我们提出了随机方差降低算法,以求解凸 - 凸座鞍点问题,单调变异不平等和单调夹杂物。我们的框架适用于Euclidean和Bregman设置中的外部,前向前后和前反向回复的方法。所有提出的方法都在与确定性的对应物相同的环境中收敛,并且它们要么匹配或改善了解决结构化的最低最大问题的最著名复杂性。我们的结果加强了变异不平等和最小化之间的差异之间的对应关系。我们还通过对矩阵游戏的数值评估来说明方法的改进。
translated by 谷歌翻译
我们开发和分析码头:在异构数据集中的非凸分布式学习的新通信高效方法。 Marina采用了一种基于渐变差异的新颖沟通压缩策略,这些差异让人想起,但与Mishchenko等人的Diana方法中所采用的策略不同。 (2019)。与几乎所有竞争对手的分布式一阶方法不同,包括Diana,我们的基于精心设计的偏置渐变估计,这是其卓越理论和实践性能的关键。我们向码头证明的通信复杂性界限明显比以前所有的一阶方法的方式更好。此外,我们开发和分析码头的两种变体:VR-Marina和PP-Marina。当客户所拥有的本地丢失功能是有限和期望形式的局部丢失功能时,第一种方法设计了第一种方法,并且第二种方法允许客户端的部分参与 - 在联合学习中重要的功能。我们所有的方法都优于前面的oracle /通信复杂性的最先进的方法。最后,我们提供了满足Polyak-Lojasiewicz条件的所有方法的收敛分析。
translated by 谷歌翻译
在本文中,我们提出了一种称为ANITA的新型加速梯度方法,用于解决基本的有限和优化问题。具体而言,我们同时考虑一般凸面和强烈凸面设置:i)对于一般凸有限的和有限的问题,Anita改善了Varag给定的先前最新结果(Lan等,2019)。特别是,对于大规模问题或收敛错误不是很小,即$ n \ geq \ frac {1} {\ epsilon^2} $,Anita获得\ emph {first} optimal restion $ o(n )$,匹配Woodworth and Srebro(2016)提供的下限$ \ Omega(N)$,而先前的结果为$ O(N \ log \ frac {1} {\ epsilon})$ 。 ii)对于强烈凸有限的问题,我们还表明,Anita可以实现最佳收敛速率$ o \ big(((n+\ sqrt {\ frac {\ frac {nl} {\ mu}} {\ mu}})\ log \ log \ frac {1} {1} {1} {1} { \ epsilon} \ big)$匹配下限$ \ omega \ big(((n+\ sqrt {\ frac {nl} {nl} {\ mu}})\ log \ frac {1} {\ epsilon} {\ epsilon} \ big) Lan and Zhou(2015)。此外,与以前的加速算法(如Varag(Lan等,2019)和Katyusha(Allen-Zhu,2017年),Anita享有更简单的无环算法结构。此外,我们提供了一种新颖的\ emph {动态多阶段收敛分析},这是将先前结果提高到最佳速率的关键技术。我们认为,针对基本有限和有限问题的新理论率和新颖的收敛分析将直接导致许多其他相关问题(例如分布式/联合/联合/分散的优化问题)的关键改进(例如,Li和Richt \'Arik,2021年,2021年)。最后,数值实验表明,Anita收敛的速度比以前的最先进的Varag(Lan等,2019)更快,从而验证了我们的理论结果并证实了Anita的实践优势。
translated by 谷歌翻译
Federated Averaging (FEDAVG) has emerged as the algorithm of choice for federated learning due to its simplicity and low communication cost. However, in spite of recent research efforts, its performance is not fully understood. We obtain tight convergence rates for FEDAVG and prove that it suffers from 'client-drift' when the data is heterogeneous (non-iid), resulting in unstable and slow convergence.As a solution, we propose a new algorithm (SCAFFOLD) which uses control variates (variance reduction) to correct for the 'client-drift' in its local updates. We prove that SCAFFOLD requires significantly fewer communication rounds and is not affected by data heterogeneity or client sampling. Further, we show that (for quadratics) SCAFFOLD can take advantage of similarity in the client's data yielding even faster convergence. The latter is the first result to quantify the usefulness of local-steps in distributed optimization.
translated by 谷歌翻译
This paper studies the communication complexity of risk averse optimization over a network. The problem generalizes the well-studied risk-neutral finite-sum distributed optimization problem and its importance stems from the need to handle risk in an uncertain environment. For algorithms in the literature, there exists a gap in communication complexities for solving risk-averse and risk-neutral problems. We propose two distributed algorithms, namely the distributed risk averse optimization (DRAO) method and the distributed risk averse optimization with sliding (DRAO-S) method, to close the gap. Specifically, the DRAO method achieves the optimal communication complexity by assuming a certain saddle point subproblem can be easily solved in the server node. The DRAO-S method removes the strong assumption by introducing a novel saddle point sliding subroutine which only requires the projection over the ambiguity set $P$. We observe that the number of $P$-projections performed by DRAO-S is optimal. Moreover, we develop matching lower complexity bounds to show that communication complexities of both DRAO and DRAO-S are not improvable. Numerical experiments are conducted to demonstrate the encouraging empirical performance of the DRAO-S method.
translated by 谷歌翻译
在过去的几年中,各种通信压缩技术已经出现为一个不可或缺的工具,有助于缓解分布式学习中的通信瓶颈。然而,尽管{\ em偏见}压缩机经常在实践中显示出卓越的性能,但与更多的研究和理解的{\ EM无偏见}压缩机相比,非常少见。在这项工作中,我们研究了三类偏置压缩操作员,其中两个是新的,并且它们在施加到(随机)梯度下降和分布(随机)梯度下降时的性能。我们首次展示偏置压缩机可以在单个节点和分布式设置中导致线性收敛速率。我们证明了具有错误反馈机制的分布式压缩SGD方法,享受ergodic速率$ \ mathcal {o} \ left(\ delta l \ exp [ - \ frac {\ mu k} {\ delta l}] + \ frac {(c + \ delta d)} {k \ mu} \右)$,其中$ \ delta \ ge1 $是一个压缩参数,它在应用更多压缩时增长,$ l $和$ \ mu $是平滑性和强凸常数,$ C $捕获随机渐变噪声(如果在每个节点上计算完整渐变,则$ C = 0 $如果在每个节点上计算),则$ D $以最佳($ d = 0 $ for over参数化模型)捕获渐变的方差)。此外,通过对若干合成和经验的通信梯度分布的理论研究,我们阐明了为什么和通过多少偏置压缩机优于其无偏的变体。最后,我们提出了几种具有有希望理论担保和实际表现的新型偏置压缩机。
translated by 谷歌翻译
Convex function constrained optimization has received growing research interests lately. For a special convex problem which has strongly convex function constraints, we develop a new accelerated primal-dual first-order method that obtains an $\Ocal(1/\sqrt{\vep})$ complexity bound, improving the $\Ocal(1/{\vep})$ result for the state-of-the-art first-order methods. The key ingredient to our development is some novel techniques to progressively estimate the strong convexity of the Lagrangian function, which enables adaptive step-size selection and faster convergence performance. In addition, we show that the complexity is further improvable in terms of the dependence on some problem parameter, via a restart scheme that calls the accelerated method repeatedly. As an application, we consider sparsity-inducing constrained optimization which has a separable convex objective and a strongly convex loss constraint. In addition to achieving fast convergence, we show that the restarted method can effectively identify the sparsity pattern (active-set) of the optimal solution in finite steps. To the best of our knowledge, this is the first active-set identification result for sparsity-inducing constrained optimization.
translated by 谷歌翻译
联邦学习(FL)是一种越来越受欢迎的机器学习范式,其中多个节点在隐私,通信和多个异质性约束下尝试协同学习。联邦学习中的持续存在问题是,不清楚优化目标应该:监督学习的标准平均风险最小化在处理联合学习的几个主要限制方面是不充分的,例如沟通适应性和个性化控制。我们在联合学习的框架中识别几个关键的Desiderata,并介绍了一个新的框架,Flix,考虑到联合学习所带来的独特挑战。 Flix具有标准的有限和形式,使从业者能够利用分布式优化的现有(潜在非本地)方法的巨大财富。通过不需要任何通信的智能初始化,Flix不需要使用本地步骤,但仍然可以通过本地方法执行不一致的正则化。我们提供了几种用于在通信约束下有效解决FLIX制剂的算法。最后,我们通过广泛的实验证实了我们的理论结果。
translated by 谷歌翻译
个性化联合学习(PFL)最近看到了巨大的进步,允许设计新颖的机器学习应用来保护培训数据的隐私。该领域的现有理论结果主要关注分布式优化以实现最小化问题。本文是第一个研究马鞍点问题的PFL(涵盖更广泛的优化问题),允许更丰富的应用程序,需要更多地解决最小化问题。在这项工作中,我们考虑最近提出的PFL设置与混合目标函数,一种方法将全球模型与当地分布式学习者相结合的方法。与最先前的工作不同,这仅考虑集中设置,我们在更一般和分散的设置中工作,允许我们设计和分析将设备连接到网络的更实用和联合的方法。我们提出了新的算法来解决这个问题,并在随机和确定性案例中提供平滑(强)凸起(强)凹凸点问题的理论分析。双线性问题的数值实验和对抗噪声的神经网络展示了所提出的方法的有效性。
translated by 谷歌翻译
在本文中,我们开发了使用局部Lipschitz连续梯度(LLCG)的凸优化的一阶方法,该方法超出了lipschitz连续梯度的精心研究类别的凸优化。特别是,我们首先考虑使用LLCG进行无约束的凸优化,并提出求解它的加速近端梯度(APG)方法。所提出的APG方法配备了可验证的终止标准,并享受$ {\ cal o}的操作复杂性(\ varepsilon^{ - 1/2} \ log \ log \ varepsilon^{ - 1})$和$ {\ cal o {\ cal o }(\ log \ varepsilon^{ - 1})$用于查找不受约束的凸的$ \ varepsilon $ - 剩余凸和强烈凸优化问题的解决方案。然后,我们考虑使用LLCG进行约束的凸优化,并提出了一种近端增强拉格朗日方法,通过应用我们提出的APG方法之一来求解一系列近端增强拉格朗日子问题,以解决它。所得的方法配备了可验证的终止标准,并享受$ {\ cal o}的操作复杂性(\ varepsilon^{ - 1} \ log \ log \ varepsilon^{ - 1})$和$ {\ cal o}(\ cal o}(\ Varepsilon^{ - 1/2} \ log \ varepsilon^{ - 1})$用于查找约束凸的$ \ varepsilon $ -KKT解决方案,分别是强烈的凸优化问题。本文中所有提出的方法均无参数或几乎不含参数,但需要有关凸电参数的知识。据我们所知,没有进行先前的研究来研究具有复杂性保证的加速一阶方法,可与LLCG进行凸优化。本文获得的所有复杂性结果都是全新的。
translated by 谷歌翻译