已经假设量子计算机可以很好地为机器学习中的应用提供很好。在本作工作中,我们分析通过量子内核定义的函数类。量子计算机提供了有效地计算符合难以计算的指数大密度运算符的内部产品。然而,具有指数大的特征空间使得普遍化的问题造成泛化的问题。此外,能够有效地评估高尺寸空间中的内部产品本身不能保证量子优势,因为已经是经典的漫步核可以对应于高或无限的维度再现核Hilbert空间(RKHS)。我们分析量子内核的频谱属性,并发现我们可以期待优势如果其RKHS低维度,并且包含很难经典计算的功能。如果已知目标函数位于该类中,则这意味着量子优势,因为量子计算机可以编码这种电感偏压,而没有同样的方式对功能类进行经典有效的方式。但是,我们表明查找合适的量子内核并不容易,因为内核评估可能需要指数倍数的测量。总之,我们的信息是有点令人发声的:我们猜测量子机器学习模型只有在我们设法将关于传递到量子电路的问题的知识编码的情况下,才能提供加速,同时将相同的偏差置于经典模型。难的。然而,在学习由量子流程生成的数据时,这些情况可能会被典雅地发生,但对于古典数据集来说,它们似乎更难。
translated by 谷歌翻译
已知量子计算机可以在某些专业设置中使用经典的最先进的机器学习方法提供加速。例如,已证明量子内核方法可以在离散对数问题的学习版本上提供指数加速。了解量子模型的概括对于实现实际利益问题的类似加速至关重要。最近的结果表明,量子特征空间的指数大小阻碍了概括。尽管这些结果表明,量子模型在量子数数量较大时无法概括,但在本文中,我们表明这些结果依赖于过度限制性的假设。我们通过改变称为量子内核带宽的超参数来考虑更广泛的模型。我们分析了大量限制,并为可以以封闭形式求解的量子模型的概括提供了明确的公式。具体而言,我们表明,更改带宽的值可以使模型从不能概括到任何目标函数到对准目标的良好概括。我们的分析表明,带宽如何控制内核积分操作员的光谱,从而如何控制模型的电感偏置。我们从经验上证明,我们的理论正确地预测带宽如何影响质量模型在具有挑战性的数据集上的概括,包括远远超出我们理论假设的数据集。我们讨论了结果对机器学习中量子优势的含义。
translated by 谷歌翻译
We study a class of dynamical systems modelled as Markov chains that admit an invariant distribution via the corresponding transfer, or Koopman, operator. While data-driven algorithms to reconstruct such operators are well known, their relationship with statistical learning is largely unexplored. We formalize a framework to learn the Koopman operator from finite data trajectories of the dynamical system. We consider the restriction of this operator to a reproducing kernel Hilbert space and introduce a notion of risk, from which different estimators naturally arise. We link the risk with the estimation of the spectral decomposition of the Koopman operator. These observations motivate a reduced-rank operator regression (RRR) estimator. We derive learning bounds for the proposed estimator, holding both in i.i.d. and non i.i.d. settings, the latter in terms of mixing coefficients. Our results suggest RRR might be beneficial over other widely used estimators as confirmed in numerical experiments both for forecasting and mode decomposition.
translated by 谷歌翻译
量子计算有可能彻底改变和改变我们的生活和理解世界的方式。该审查旨在提供对量子计算的可访问介绍,重点是统计和数据分析中的应用。我们从介绍了了解量子计算所需的基本概念以及量子和经典计算之间的差异。我们描述了用作量子算法的构建块的核心量子子程序。然后,我们审查了一系列预期的量子算法,以便在统计和机器学习中提供计算优势。我们突出了将量子计算应用于统计问题的挑战和机遇,并讨论潜在的未来研究方向。
translated by 谷歌翻译
在当前的嘈杂中间尺度量子(NISQ)时代,量子机学习正在成为基于程序门的量子计算机的主要范式。在量子机学习中,对量子电路的门进行了参数化,并且参数是根据数据和电路输出的测量来通过经典优化来调整的。参数化的量子电路(PQC)可以有效地解决组合优化问题,实施概率生成模型并进行推理(分类和回归)。该专着为具有概率和线性代数背景的工程师的观众提供了量子机学习的独立介绍。它首先描述了描述量子操作和测量所必需的必要背景,概念和工具。然后,它涵盖了参数化的量子电路,变异量子本质层以及无监督和监督的量子机学习公式。
translated by 谷歌翻译
量子机学习(QML)中的内核方法最近引起了人们的重大关注,作为在数据分析中获得量子优势的潜在候选者。在其他有吸引力的属性中,当训练基于内核的模型时,可以保证由于训练格局的凸度而找到最佳模型的参数。但是,这是基于以下假设:量子内核可以从量子硬件有效获得。在这项工作中,我们从准确估计内核值所需的资源的角度研究了量子内核的训练性。我们表明,在某些条件下,可以将量子内核在不同输入数据上的值呈指数浓缩(在量子数中)指向一些固定值,从而导致成功训练所需的测量数量的指数缩放。我们确定了可以导致集中度的四个来源,包括:数据嵌入,全球测量,纠缠和噪声的表达性。对于每个来源,分析得出量子内核的相关浓度结合。最后,我们表明,在处理经典数据时,训练用内核比对方法嵌入的参数化数据也容易受到指数浓度的影响。我们的结果通过数值仿真来验证几个QML任务。总体而言,我们提供指南,表明应避免某些功能,以确保量子内核方法的有效评估和训练性。
translated by 谷歌翻译
量子技术有可能彻底改变我们如何获取和处理实验数据以了解物理世界。一种实验设置,将来自物理系统的数据转换为稳定的量子存储器,以及使用量子计算机的数据的处理可以具有显着的优点,这些实验可以具有测量物理系统的传统实验,并且使用经典计算机处理结果。我们证明,在各种任务中,量子机器可以从指数较少的实验中学习而不是传统实验所需的实验。指数优势在预测物理系统的预测属性中,对噪声状态进行量子主成分分析,以及学习物理动态的近似模型。在一些任务中,实现指数优势所需的量子处理可能是适度的;例如,可以通过仅处理系统的两个副本来同时了解许多非信息可观察。我们表明,可以使用当今相对嘈杂的量子处理器实现大量超导QUBITS和1300个量子门的实验。我们的结果突出了量子技术如何能够实现强大的新策略来了解自然。
translated by 谷歌翻译
现代量子机学习(QML)方法涉及在训练数据集上进行各种优化参数化量子电路,并随后对测试数据集(即,泛化)进行预测。在这项工作中,我们在培训数量为N $培训数据点后,我们在QML中对QML的普遍表现进行了全面的研究。我们表明,Quantum机器学习模型的泛化误差与$ T $培训门的尺寸在$ \ sqrt {t / n} $上缩放。当只有$ k \ ll t $ gates在优化过程中经历了大量变化时,我们证明了泛化误差改善了$ \ sqrt {k / n} $。我们的结果意味着将Unitaries编制到通常使用指数训练数据的量子计算行业的多项式栅极数量,这是一项通常使用指数尺寸训练数据的大量应用程序。我们还表明,使用量子卷积神经网络的相位过渡的量子状态的分类只需要一个非常小的训练数据集。其他潜在应用包括学习量子误差校正代码或量子动态模拟。我们的工作将新的希望注入QML领域,因为较少的培训数据保证了良好的概括。
translated by 谷歌翻译
我们研究了非参数脊的最小二乘的学习属性。特别是,我们考虑常见的估计人的估计案例,由比例依赖性内核定义,并专注于规模的作用。这些估计器内插数据,可以显示规模来通过条件号控制其稳定性。我们的分析表明,这是不同的制度,具体取决于样本大小,其尺寸与问题的平滑度之间的相互作用。实际上,当样本大小小于数据维度中的指数时,可以选择比例,以便学习错误减少。随着样本尺寸变大,总体错误停止减小但有趣地可以选择规模,使得噪声引起的差异仍然存在界线。我们的分析结合了概率,具有来自插值理论的许多分析技术。
translated by 谷歌翻译
The emergence of variational quantum applications has led to the development of automatic differentiation techniques in quantum computing. Recently, Zhu et al. (PLDI 2020) have formulated differentiable quantum programming with bounded loops, providing a framework for scalable gradient calculation by quantum means for training quantum variational applications. However, promising parameterized quantum applications, e.g., quantum walk and unitary implementation, cannot be trained in the existing framework due to the natural involvement of unbounded loops. To fill in the gap, we provide the first differentiable quantum programming framework with unbounded loops, including a newly designed differentiation rule, code transformation, and their correctness proof. Technically, we introduce a randomized estimator for derivatives to deal with the infinite sum in the differentiation of unbounded loops, whose applicability in classical and probabilistic programming is also discussed. We implement our framework with Python and Q#, and demonstrate a reasonable sample efficiency. Through extensive case studies, we showcase an exciting application of our framework in automatically identifying close-to-optimal parameters for several parameterized quantum applications.
translated by 谷歌翻译
即使在数十年的量子计算开发之后,通常在经典同行中具有指数加速的通常有用量子算法的示例是稀缺的。线性代数定位量子机学习(QML)的量子算法中的最新进展作为这种有用的指数改进的潜在来源。然而,在一个意想不到的发展中,最近一系列的“追逐化”结果同样迅速消除了几个QML算法的指数加速度的承诺。这提出了关键问题是否是其他线性代数QML算法的指数加速度持续存在。在本文中,我们通过该镜头研究了Lloyd,Garnerone和Zanardi的拓扑数据分析算法后面的量子算法方法。我们提供了证据表明,该算法解决的问题通过表明其自然概括与模拟一个清洁量子位模型很难地难以进行棘手的 - 这被广泛认为需要在经典计算机上需要超时时间 - 并且非常可能免疫追逐。基于此结果,我们为等级估计和复杂网络分析等问题提供了许多新的量子算法,以及其经典侵害性的复杂性 - 理论上。此外,我们分析了近期实现的所提出的量子算法的适用性。我们的结果为全面吹嘘和限制的量子计算机提供了许多有用的应用程序,具有古典方法的保证指数加速,恢复了线性代数QML的一些潜力,以成为量子计算的杀手应用之一。
translated by 谷歌翻译
我们解决了条件平均嵌入(CME)的内核脊回归估算的一致性,这是给定$ y $ x $的条件分布的嵌入到目标重现内核hilbert space $ hilbert space $ hilbert Space $ \ Mathcal {H} _y $ $ $ $ 。 CME允许我们对目标RKHS功能的有条件期望,并已在非参数因果和贝叶斯推论中使用。我们解决了错误指定的设置,其中目标CME位于Hilbert-Schmidt操作员的空间中,该操作员从$ \ Mathcal {H} _X _x $和$ L_2 $和$ \ MATHCAL {H} _Y $ $之间的输入插值空间起作用。该操作员的空间被证明是新定义的矢量值插值空间的同构。使用这种同构,我们在未指定的设置下为经验CME估计量提供了一种新颖的自适应统计学习率。我们的分析表明,我们的费率与最佳$ o(\ log n / n)$速率匹配,而无需假设$ \ Mathcal {h} _y $是有限维度。我们进一步建立了学习率的下限,这表明所获得的上限是最佳的。
translated by 谷歌翻译
过度分化的神经网络倾向于完全符合嘈杂的训练数据,但在测试数据上概括。灵感来自这一实证观察,最近的工作试图了解在更简单的线性模型中的良性过度或无害插值的这种现象。以前的理论工作批判性地假设数据特征是统计独立的,或者输入数据是高维的;这会阻止具有结构化特征映射的一般非参数设置。在本文中,我们为再生内核希尔伯特空间中的上限回归和分类风险提供了一般和灵活的框架。关键贡献是我们的框架在数据革处矩阵上描述了精确的充分条件,在这种情况下发生无害的插值。我们的结果恢复了现有的独立功能结果(具有更简单的分析),但它们还表明,在更常规的环境中可能发生无害的插值,例如有界正常系统的功能。此外,我们的结果表明,以先前仅针对高斯特征的方式显示分类和回归性能之间的渐近分离。
translated by 谷歌翻译
量子哈密顿学习和量子吉布斯采样的双重任务与物理和化学中的许多重要问题有关。在低温方案中,这些任务的算法通常会遭受施状能力,例如因样本或时间复杂性差而遭受。为了解决此类韧性,我们将量子自然梯度下降的概括引入了参数化的混合状态,并提供了稳健的一阶近似算法,即量子 - 固定镜下降。我们使用信息几何学和量子计量学的工具证明了双重任务的数据样本效率,因此首次将经典Fisher效率的开创性结果推广到变异量子算法。我们的方法扩展了以前样品有效的技术,以允许模型选择的灵活性,包括基于量子汉密尔顿的量子模型,包括基于量子的模型,这些模型可能会规避棘手的时间复杂性。我们的一阶算法是使用经典镜下降二元性的新型量子概括得出的。两种结果都需要特殊的度量选择,即Bogoliubov-Kubo-Mori度量。为了从数值上测试我们提出的算法,我们将它们的性能与现有基准进行了关于横向场ISING模型的量子Gibbs采样任务的现有基准。最后,我们提出了一种初始化策略,利用几何局部性来建模状态的序列(例如量子 - 故事过程)的序列。我们从经验上证明了它在实际和想象的时间演化的经验上,同时定义了更广泛的潜在应用。
translated by 谷歌翻译
Efficient characterization of highly entangled multi-particle systems is an outstanding challenge in quantum science. Recent developments have shown that a modest number of randomized measurements suffices to learn many properties of a quantum many-body system. However, implementing such measurements requires complete control over individual particles, which is unavailable in many experimental platforms. In this work, we present rigorous and efficient algorithms for learning quantum many-body states in systems with any degree of control over individual particles, including when every particle is subject to the same global field and no additional ancilla particles are available. We numerically demonstrate the effectiveness of our algorithms for estimating energy densities in a U(1) lattice gauge theory and classifying topological order using very limited measurement capabilities.
translated by 谷歌翻译
量子机学习(QML)模型旨在从量子状态中编码的数据中学习。最近,已经表明,几乎没有归纳偏差的模型(即,对模型中嵌入的问题没有假设)可能存在训练性和概括性问题,尤其是对于大问题。因此,开发编码与当前问题有关的信息的方案是至关重要的。在这项工作中,我们提出了一个简单但功能强大的框架,其中数据中的基本不向导用于构建QML模型,该模型通过构造尊重这些对称性。这些所谓的组不变模型产生的输出在对称组$ \ mathfrak {g} $的任何元素的动作下保持不变。我们提出了理论结果,基于$ \ mathfrak {g} $ - 不变型模型的设计,并通过几个范式QML分类任务来体现其应用程序,包括$ \ mathfrak {g} $是一个连续的谎言组,也是一个lie group,也是一个。离散对称组。值得注意的是,我们的框架使我们能够以一种优雅的方式恢复文献的几种知名算法,并发现了新的算法。综上所述,我们期望我们的结果将有助于为QML模型设计采用更多几何和群体理论方法铺平道路。
translated by 谷歌翻译
内核方法是机器学习中最流行的技术之一,使用再现内核希尔伯特空间(RKHS)的属性来解决学习任务。在本文中,我们提出了一种新的数据分析框架,与再现内核Hilbert $ C ^ * $ - 模块(rkhm)和rkhm中的内核嵌入(kme)。由于RKHM包含比RKHS或VVRKHS)的更丰富的信息,因此使用RKHM的分析使我们能够捕获和提取诸如功能数据的结构属性。我们向RKHM展示了rkhm理论的分支,以适用于数据分析,包括代表性定理,以及所提出的KME的注射性和普遍性。我们还显示RKHM概括RKHS和VVRKHS。然后,我们提供采用RKHM和提议的KME对数据分析的具体程序。
translated by 谷歌翻译
我们研究量子存储器的力量,以了解量子系统和动态的学习性质,这在物理和化学方面具有重要意义。许多最先进的学习算法需要访问额外的外部量子存储器。虽然这种量子存储器不需要先验,但在许多情况下,不利用量子存储器的算法需要比那些更多样的数据。我们表明,这种权衡在各种学习问题中是固有的。我们的结果包括以下内容:(1)我们显示以$ M $ -Qubit状态Rho执行暗影断层扫描,以M $观察到,任何没有量子存储器的算法需要$ \ omega(\ min(m,2 ^ n) )最坏情况下Rho的标准。达到对数因子,这与[HKP20]的上限匹配,完全解决了[AAR18,AR19]中的打开问题。 (2)我们在具有和不具有量子存储器之间的算法之间建立指数分离,用于纯度测试,区分扰扰和去极化的演变,以及在物理动态中揭示对称性。我们的分离通过允许更广泛的无量子存储器的算法来改善和概括[ACQ21]的工作。 (3)我们提供量子存储器和样本复杂性之间的第一个权衡。我们证明,估计所有$ N $ -Qubit Pauli可观察到的绝对值,Qumum Memory的$ K <N $ Qubits的算法需要至少$ \ omega(2 ^ {(nk)/ 3})$样本,但在那里是使用$ n $ -Qubit量子存储器的算法,该算法只需要$ o(n)$ samples。我们展示的分离足够大,并且可能已经是显而易见的,例如,数十Qubits。这提供了一种具体的路径,朝着使用量子存储器学习算法的实际优势。
translated by 谷歌翻译
我们提出了一个算法框架,用于近距离矩阵上的量子启发的经典算法,概括了Tang的突破性量子启发算法开始的一系列结果,用于推荐系统[STOC'19]。由量子线性代数算法和gily \'en,su,low和wiebe [stoc'19]的量子奇异值转换(SVT)框架[SVT)的动机[STOC'19],我们开发了SVT的经典算法合适的量子启发的采样假设。我们的结果提供了令人信服的证据,表明在相应的QRAM数据结构输入模型中,量子SVT不会产生指数量子加速。由于量子SVT框架基本上概括了量子线性代数的所有已知技术,因此我们的结果与先前工作的采样引理相结合,足以概括所有有关取消量子机器学习算法的最新结果。特别是,我们的经典SVT框架恢复并经常改善推荐系统,主成分分析,监督聚类,支持向量机器,低秩回归和半决赛程序解决方案的取消结果。我们还为汉密尔顿低级模拟和判别分析提供了其他取消化结果。我们的改进来自识别量子启发的输入模型的关键功能,该模型是所有先前量子启发的结果的核心:$ \ ell^2 $ -Norm采样可以及时近似于其尺寸近似矩阵产品。我们将所有主要结果减少到这一事实,使我们的简洁,独立和直观。
translated by 谷歌翻译
教师 - 学生模型提供了一个框架,其中可以以封闭形式描述高维监督学习的典型情况。高斯I.I.D的假设然而,可以认为典型教师 - 学生模型的输入数据可以被认为过于限制,以捕获现实数据集的行为。在本文中,我们介绍了教师和学生可以在不同的空格上行动的模型的高斯协变态概括,以固定的,而是通用的特征映射。虽然仍处于封闭形式的仍然可解决,但这种概括能够捕获广泛的现实数据集的学习曲线,从而兑现师生框架的潜力。我们的贡献是两倍:首先,我们证明了渐近培训损失和泛化误差的严格公式。其次,我们呈现了许多情况,其中模型的学习曲线捕获了使用内​​核回归和分类学习的现实数据集之一,其中盒出开箱特征映射,例如随机投影或散射变换,或者与散射变换预先学习的 - 例如通过培训多层神经网络学到的特征。我们讨论了框架的权力和局限性。
translated by 谷歌翻译