在本文中,我们考虑“最短的超人问题”(SSP)或“最短常见的超级测试问题”(SCS)。问题如下。对于正整数$ N $,给出了一系列n字符串$ s =(s ^ 1,\ dots,s ^ n)$。我们应该构建最短的字符串$ t $(我们称之为IT Superstring),它包含来自给定序列的每个字符串作为子字符串。该问题与序列组装方法相关联,用于从小碎片重建长DNA序列。我们呈现了一个运行时间$ o ^ *(1.728 ^ n)$的量子算法。$ O ^ * $表示法不考虑$ n $的多项式和$ t $的长度。
translated by 谷歌翻译
我们建立了量子算法设计与电路下限之间的第一一般连接。具体来说,让$ \ mathfrak {c} $是一类多项式大小概念,假设$ \ mathfrak {c} $可以在统一分布下的成员查询,错误$ 1/2 - \ gamma $通过时间$ t $量子算法。我们证明如果$ \ gamma ^ 2 \ cdot t \ ll 2 ^ n / n $,则$ \ mathsf {bqe} \ nsubseteq \ mathfrak {c} $,其中$ \ mathsf {bqe} = \ mathsf {bque} [2 ^ {o(n)}] $是$ \ mathsf {bqp} $的指数时间模拟。在$ \ gamma $和$ t $中,此结果是最佳的,因为它不难学习(经典)时间$ t = 2 ^ n $(没有错误) ,或在Quantum Time $ t = \ mathsf {poly}(n)$以傅立叶采样为单位为1/2美元(2 ^ { - n / 2})$。换句话说,即使对这些通用学习算法的边际改善也会导致复杂性理论的主要后果。我们的证明在学习理论,伪随机性和计算复杂性的几个作品上构建,并且至关重要地,在非凡的经典学习算法与由Oliveira和Santhanam建立的电路下限之间的联系(CCC 2017)。扩展他们对量子学习算法的方法,结果产生了重大挑战。为此,我们展示了伪随机发电机如何以通用方式意味着学习到较低的连接,构建针对均匀量子计算的第一个条件伪随机发生器,并扩展了Impagliazzo,JaiSwal的本地列表解码算法。 ,Kabanets和Wigderson(Sicomp 2010)通过微妙的分析到量子电路。我们认为,这些贡献是独立的兴趣,可能会发现其他申请。
translated by 谷歌翻译
本文研究了人工神经网络(NNS)与整流线性单元的表现力。为了将它们作为实际计算的模型,我们介绍了最大仿射算术计划的概念,并显示了它们与NNS之间的等效性有关自然复杂度措施。然后我们使用此结果表明,使用多项式NNS可以解决两个基本组合优化问题,这相当于非常特殊的强多项式时间算法。首先,我们显示,对于带有N $节点的任何无向图形,有一个NN大小$ \ Mathcal {O}(n ^ 3)$,它将边缘权重用为输入,计算最小生成树的值图表。其次,我们显示,对于任何带有$ N $节点和$ M $弧的任何定向图,都有一个尺寸$ \ mathcal {o}(m ^ 2n ^ 2)$,它将电弧容量作为输入和计算最大流量。这些结果尤其尤其暗示,相应的参数优化问题的解决方案可以在多项式空间中编码所有边缘权重或电弧容量的方法,并在多项式时间中进行评估,并且由NN提供这种编码。
translated by 谷歌翻译
最近在组合问题中寻找多样化的解决方案,最近受到了相当大的关注(Baste等人2020; Fomin等人2020; Hanaka等。2021)。在本文中,我们研究了以下类型的问题:给出了整数$ k $,问题询问了$ k $解决方案,使得这些解决方案之间的成对和汉明距离的总和最大化。这种解决方案称为各种解决方案。我们介绍了一种用于查找加权定向图中的多样性最短$ ST $ -Paths的多项式时间算法。此外,我们研究了其他经典组合问题的多样化版本,如不同的加权麦芽碱,不同加权树丛和多样化的双链匹配。我们表明这些问题也可以在多项式时间内解决。为了评估我们寻找多样性最短$ ST $ ST -Paths的算法的实际表现,我们进行了合成和现实世界的计算实验。实验表明,我们的算法在合理的计算时间内成功计算了各种解决方案。
translated by 谷歌翻译
套索和山脊是机器学习和统计数据中重要的最小化问题。它们是线性回归的版本,具有平方损耗,其中$ \ theta \ in \ mathbb {r}^d $ of系数的$ \ ell_1 $ -norm(对于lasso)或$ \ ell_2 $ norm(in $ \ ell_2 $ norm)(对于山脊)。我们研究了针对这些最小化问题的$ \ varepsilon $ - 二聚体的量子算法的复杂性。我们表明,对于拉索,我们可以通过加快弗兰克 - 沃尔夫算法的每题来获得$ d $的二次量子加速,而对于ridge来说,最好的量子算法是$ d $的线性,就像$ d $一样最好的古典算法。作为套索的量子下限的副产品,我们还证明了套索的第一个经典下限,该结构紧密地属于polyg因子。
translated by 谷歌翻译
In this paper, we reduce the complexity of approximating the correlation clustering problem from $O(m\times\left( 2+ \alpha (G) \right)+n)$ to $O(m+n)$ for any given value of $\varepsilon$ for a complete signed graph with $n$ vertices and $m$ positive edges where $\alpha(G)$ is the arboricity of the graph. Our approach gives the same output as the original algorithm and makes it possible to implement the algorithm in a full dynamic setting where edge sign flipping and vertex addition/removal are allowed. Constructing this index costs $O(m)$ memory and $O(m\times\alpha(G))$ time. We also studied the structural properties of the non-agreement measure used in the approximation algorithm. The theoretical results are accompanied by a full set of experiments concerning seven real-world graphs. These results shows superiority of our index-based algorithm to the non-index one by a decrease of %34 in time on average.
translated by 谷歌翻译
重新配置图中的两个最短路径意味着通过一次改变一个顶点来修改一个最短的路径,使得所有中间路径也是最短路径。这个问题有几个自然应用,即:(a)改造道路网络,(b)在同步多处理设置中重新排出数据包,(c)运输集装箱存货问题,以及(d)列车编组问题。在作为图形问题的建模时,(a)是最常规的情况而(b),(c)和(d)是对不同图形类的限制。我们表明(a)是棘手的,即使对于问题的轻松变体也是如此。对于(b),(c)和(d),我们提出了有效的算法来解决各自的问题。我们还将问题概括为当最多$ k $(对于固定整数$ k \ geq k \ ge $ k \ geq 2 $)一次连续的顶点一次可以一次更改。
translated by 谷歌翻译
在这项工作中,如果机器学习模型是来自任何简单分类器的集合,我们考虑使用量子算法预测二进制分类问题的结果。这种方法比古典预测更快,并使用量子和经典计算,但它基于概率算法。让$ N $来自集合模型的许多分类器,$ O(t)$是一个分类器上的运行时间。在古典案例中,集合模型从每个分类器和“平均值”得到结果。经典案例中的运行时间是$ o \ left(n \ cdot t \右)$。我们提出了一种在$ o \ left的算法(\ sqrt {n} \ cdot t \ over)$。
translated by 谷歌翻译
量子计算有可能彻底改变和改变我们的生活和理解世界的方式。该审查旨在提供对量子计算的可访问介绍,重点是统计和数据分析中的应用。我们从介绍了了解量子计算所需的基本概念以及量子和经典计算之间的差异。我们描述了用作量子算法的构建块的核心量子子程序。然后,我们审查了一系列预期的量子算法,以便在统计和机器学习中提供计算优势。我们突出了将量子计算应用于统计问题的挑战和机遇,并讨论潜在的未来研究方向。
translated by 谷歌翻译
我们考虑经典的1中心问题:给定度量空间中的n个点P,找到p中的点,最小化到P的其他要点的最大距离。我们研究了D维$ \中这个问题的复杂性。 ell_p $ -metrics和编辑和ulam度量串的长度d。我们的1中心问题的结果可以根据D分类如下。 $ \ bullet $ small d:我们提供固定维度$ \ ell_1 $指标中的1中心问题的第一线性时间算法。另一方面,假设击中集猜测(HSC),我们显示,当$ d =ω(\ log n)$时,没有子种式算法可以在任何$ \ ell_p $ -metrics中解决1中心问题,或者在编辑或ulam指标中。 $ \ bullet $大d。当$ d =ω(n)$时,我们将条件下限扩展到编辑度量标准中的1中心问题的子四分之一算法(假设量化SETH)。另一方面,我们给出了一个$(1+ \ epsilon)$ - ulam度量标准中的1美元逼近,运行时间$ \ tilde {o _ {\ epsilon}}(nd + n ^ 2 \ sqrt {d}) $。我们还通过允许近似或通过减小维度D来加强一些上述下限,而是仅针对列出所有必要解决方案的较弱的算法类别。此外,我们扩展了我们的硬度结果,以便在编辑度量标准中排除次级学习的1中位问题的亚级算法,其中给出了一组长度n的n个字符串,目标是在集合中找到一个字符串这最小化了集合中的其余字符串的编辑距离之和。
translated by 谷歌翻译
我们提出了两个关于量子计算机精确学习的新结果。首先,我们展示了如何从$ o(k ^ {1.5}(\ log k)^ 2)$统一量子示例的$ o(k ^ {1.5}(\ log k)^ 2)的$ k $ -fourier-sparse $ n $ -fourier-sparse $ n $ k $ -fourier-sparse $ n $ couber boolean函数。这改善了$ \ widetilde {\ theta}(kn)$统一的randuly \ emph {classical}示例(haviv和regev,ccc'15)。此外,我们提供了提高我们的$ \ widetilde {o}(k ^ {1.5})美元的可能方向,通过证明k $-$ -fourier-稀疏的布尔函数的改进,通过提高Chang的Lemma。其次,如果可以使用$ q $量子会员查询可以完全学习概念类$ \ mathcal {c} $,则也可以使用$ o o \ left(\ frac {q ^ 2} {\ logq} \ log | \ mathcal {c} | \右)$ \ emph {classical}会员查询。这通过$ \ log q $ -factor来改善最佳的仿真结果(Servedio和Gortler,Sicomp'04)。
translated by 谷歌翻译
因果鉴定是因果推理文献的核心,在该文献中提出了完整的算法来识别感兴趣的因果问题。这些算法的有效性取决于访问正确指定的因果结构的限制性假设。在这项工作中,我们研究了可获得因果结构概率模型的环境。具体而言,因果图中的边缘是分配的概率,例如,可能代表来自领域专家的信念程度。另外,关于边缘的不确定的可能反映了特定统计检验的置信度。在这种情况下自然出现的问题是:给定这样的概率图和感兴趣的特定因果效应,哪些具有最高合理性的子图是什么?我们表明回答这个问题减少了解决NP-HARD组合优化问题,我们称之为边缘ID问题。我们提出有效的算法来近似此问题,并评估我们针对现实世界网络和随机生成图的算法。
translated by 谷歌翻译
已经表明,可以使用具有合适的数据访问的经典算法有效地复制一些量子机器学习算法的表观优点 - 一种称为渐变化的过程。现有的追逐工作的工作比较量子算法占据N-qubit Quantum State $ | x \ rangle = \ sum_ {i} x_i | i \ rangle $的副本到具有样本和查询(Sq)访问的经典算法矢量$ x $。在本说明中,我们证明了具有SQ访问的经典算法可以比量子状态输入的量子算法呈指数级速率地实现一些学习任务。因为经典算法是量子算法的子集,所以这表明SQ接入有时可以比量子状态输入更强大。我们的研究结果表明,在某些学习任务中没有指数量子优势可能是由于相对于量子状态输入的SQ访问过于强大。如果我们将量子算法与量子状态的输入进行比较到具有对量子状态上的测量数据的经典算法,则量子优势的景观可以显着不同。
translated by 谷歌翻译
我们考虑测定点过程(DPP)的产物,该点过程,其概率质量与多矩阵的主要成本的产物成比例,作为DPP的天然有希望的推广。我们研究计算其归一化常量的计算复杂性,这是最重要的概率推理任务。我们的复杂性 - 理论结果(差不多)排除了该任务的有效算法的存在,除非输入矩阵被迫具有有利的结构。特别是,我们证明了以下内容:(1)计算$ \ sum_s \ det({\ bf a} _ {s,s,s})^ p $完全针对每个(固定)阳性甚至整数$ p $ up-hard和Mod $ _3 $ p-hard,它给Kulesza和Taskar提出的打开问题给出了否定答案。 (2)$ \ sum_s \ det({\ bf a} _ {s,s})\ det({\ bf b} _ {s,s})\ det({\ bf c} _ {s,s} )$ IS难以在2 ^ {o(| i | i | ^ {1- \ epsilon})} $或$ 2 ^ {o(n ^ {1 / epsilon})} $的任何一个$ \ epsilon> 0 $,其中$ | i | $是输入大小,$ n $是输入矩阵的顺序。这种结果比Gillenwater导出的两个矩阵的#P硬度强。 (3)有$ k ^ {o(k)} n ^ {o(1)} $ - 计算$ \ sum_s \ det的时间算法({\ bf a} _ {s,s})\ det( {\ bf b} _ {s,s})$,其中$ k $是$ \ bf a $和$ \ bf b $的最大等级,或者由$ \ bf a $的非零表项形成的图表的树宽和$ \ bf b $。据说这种参数化算法是固定参数的易解。这些结果可以扩展到固定尺寸的情况。此外,我们介绍了两个固定参数批量算法的应用程序给定矩阵$ \ bf a $ treewidth $ w $:(4)我们可以计算$ 2 ^ {\ frac {n} {2p-1} $ - 近似值到$ \ sum_s \ det({\ bf a} _ {s,s})^ p $ for任何分数$ p> 1 $以$ w ^ {o(wp)} n ^ {o(1)} $时间。 (5)我们可以在$ w ^ {o(w \ sqrt n)} n ^ {
translated by 谷歌翻译
在线二手匹配是在线算法中的一个基本问题。目的是匹配两组顶点,以最大化边缘权重的总和,在该顶点中,对于一组顶点,每个顶点及其相应的边缘重量以序列形式出现。当前,在实际的建议系统或搜索引擎中,权重是由用户的深度表示与项目深度表示之间的内部产品决定的。标准的在线匹配需要支付$ nd $的时间来线性扫描所有$ n $项目,计算重量(假设每个表示向量都有长度$ d $),然后根据权重决定匹配。但是,实际上,$ n $可能很大,例如在在线电子商务平台中。因此,改善计算权重的时间是一个实践意义的问题。在这项工作中,我们为大约计算权重的理论基础提供了基础。我们表明,借助我们提出的随机数据结构,可以在额定时间内计算权重,同时仍保留匹配算法的竞争比率。
translated by 谷歌翻译
我们考虑将每个代理分配一个项目时改革无嫉妒的匹配的问题。给定无嫉妒的匹配,我们考虑一个操作,将代理商与代理人首选的未分配项目交换,从而导致另一种无嫉妒的匹配。我们尽可能地重复此操作。我们证明,由此产生的无嫉妒匹配是唯一确定的,可以在选择初始嫉妒的匹配下进行选择,并且可以在多项式时间中找到。我们称之为由此产生的匹配,是一个不正确的嫉妒的匹配,然后我们研究了最短的序列,以从最初的无嫉妒匹配中获得无嫉妒的嫉妒匹配。我们证明,即使每个代理最多接受四个项目,最短的序列在计算上也很难获得,并且每个项目最多都被三个代理所接受。另一方面,当每个代理最多接受三个项目或最多两个代理接受每个项目时,我们给出多项式时间算法。还讨论了不可Ximibibibibibibility和固定参数(IN)的障碍性。
translated by 谷歌翻译
Kernel matrices, as well as weighted graphs represented by them, are ubiquitous objects in machine learning, statistics and other related fields. The main drawback of using kernel methods (learning and inference using kernel matrices) is efficiency -- given $n$ input points, most kernel-based algorithms need to materialize the full $n \times n$ kernel matrix before performing any subsequent computation, thus incurring $\Omega(n^2)$ runtime. Breaking this quadratic barrier for various problems has therefore, been a subject of extensive research efforts. We break the quadratic barrier and obtain $\textit{subquadratic}$ time algorithms for several fundamental linear-algebraic and graph processing primitives, including approximating the top eigenvalue and eigenvector, spectral sparsification, solving linear systems, local clustering, low-rank approximation, arboricity estimation and counting weighted triangles. We build on the recent Kernel Density Estimation framework, which (after preprocessing in time subquadratic in $n$) can return estimates of row/column sums of the kernel matrix. In particular, we develop efficient reductions from $\textit{weighted vertex}$ and $\textit{weighted edge sampling}$ on kernel graphs, $\textit{simulating random walks}$ on kernel graphs, and $\textit{importance sampling}$ on matrices to Kernel Density Estimation and show that we can generate samples from these distributions in $\textit{sublinear}$ (in the support of the distribution) time. Our reductions are the central ingredient in each of our applications and we believe they may be of independent interest. We empirically demonstrate the efficacy of our algorithms on low-rank approximation (LRA) and spectral sparsification, where we observe a $\textbf{9x}$ decrease in the number of kernel evaluations over baselines for LRA and a $\textbf{41x}$ reduction in the graph size for spectral sparsification.
translated by 谷歌翻译
本文展示了如何适应$ k $ -MEANS问题的几种简单和经典的基于采样的算法,以使用离群值设置。最近,Bhaskara等人。 (Neurips 2019)展示了如何将古典$ K $ -MEANS ++算法适应与异常值的设置。但是,他们的算法需要输出$ o(\ log(k)\ cdot z)$ outiers,其中$ z $是true Outliers的数量,以匹配$ o(\ log k)$ - 近似值的$ k的近似保证$ -Means ++。在本文中,我们以他们的想法为基础,并展示了如何适应几个顺序和分布式的$ k $ - 均值算法,但使用离群值来设置,但具有更强的理论保证:我们的算法输出$(1+ \ VAREPSILON)z $ OUTLIERS Z $ OUTLIERS在实现$ o(1 / \ varepsilon)$ - 近似目标函数的同时。在顺序世界中,我们通过改编Lattanzi和Sohler的最新算法来实现这一目标(ICML 2019)。在分布式设置中,我们适应了Guha等人的简单算法。 (IEEE Trans。知道和数据工程2003)以及Bahmani等人的流行$ K $ -Means $ \ | $。 (PVLDB 2012)。我们技术的理论应用是一种具有运行时间$ \ tilde {o}(nk^2/z)$的算法,假设$ k \ ll z \ ll n $。这与Omacle模型中此问题的$ \ Omega(NK^2/z)$的匹配下限相互补。
translated by 谷歌翻译
我们启动量子算法的研究,以优化近似凸功能。给定一个凸集$ {\ cal k} \ subseteq \ mathbb {r}^{n} $和一个函数$ f \ colon \ colon \ mathbb {r}^{n}^{n} \ to \ mathbb {r} $一个convex函数$ f \ colon \ mathcal {k} \ to \ mathbb {r} $满足$ \ sup_ {x \ in {\ cal k}}} | f(x)-f(x)-f(x)| \ leq \ epsilon/ epsilon/ n $,我们的量子算法在{\ cal k} $ in {\ cal k} $中找到$ x^{*} \,以便$ f(x^{*}) - \ min_ {x \ in {\ cal k}} f(x) \ leq \ epsilon $使用$ \ tilde {o}(n^{3})$量子评估查询到$ f $。与最著名的经典算法相比,这实现了多项式量子加速。作为一个应用程序,我们给出了$ \ tilde {o}(n^{5} \ log^{2} t)$ t $的量子算法,用于$ \ tilde {o}(n^{5} \ log^{2} t)$ hearry,与$ t $相比的指数加速经典$ \ omega(\ sqrt {t})$下限。从技术上讲,我们通过利用模拟退火的量子框架并采用了命中式步行的量子版本来实现$ n $的量子加速。我们在$ t $中的加速零订单随机凸Bistits是由于平均估计的乘法误差中的二次量子加速。
translated by 谷歌翻译
我们提出了一种新型的量子算法,用于相对于状态空间大小的对数估算肌关系时间的吉布斯分区函数。这是\ v {s} tefankovi \ v {c},vempala和vigoda [jacm,2009]的\ v {s} tefankovi \ v {c}的开创性近线性时间算法获得的第一种加速。我们的结果还通过利用量子马尔可夫链的特性来保留在先前工作中获得的二次加速和光谱差距。作为一个应用程序,我们获得了用于计算ISING模型分区功能的最著名算法的新多项式改进,并计算出$ K $ - 色,匹配或独立集的图。我们的方法依赖于开发量子相和幅度估计算法的新变体,这些变体返回几乎无偏的估计,而没有破坏其初始量子状态。我们将这些子例程扩展到几乎无偏的量子平均估计量,该估计量比经典的经验平均值更快地降低方差。在我们的工作之前,不存在这种估计量。这些具有普遍兴趣的属性会导致在计算分区函数的模拟退火范围内获得更好的收敛保证。
translated by 谷歌翻译