Building a quantum analog of classical deep neural networks represents a fundamental challenge in quantum computing. A key issue is how to address the inherent non-linearity of classical deep learning, a problem in the quantum domain due to the fact that the composition of an arbitrary number of quantum gates, consisting of a series of sequential unitary transformations, is intrinsically linear. This problem has been variously approached in the literature, principally via the introduction of measurements between layers of unitary transformations. In this paper, we introduce the Quantum Path Kernel, a formulation of quantum machine learning capable of replicating those aspects of deep machine learning typically associated with superior generalization performance in the classical domain, specifically, hierarchical feature learning. Our approach generalizes the notion of Quantum Neural Tangent Kernel, which has been used to study the dynamics of classical and quantum machine learning models. The Quantum Path Kernel exploits the parameter trajectory, i.e. the curve delineated by model parameters as they evolve during training, enabling the representation of differential layer-wise convergence behaviors, or the formation of hierarchical parametric dependencies, in terms of their manifestation in the gradient space of the predictor function. We evaluate our approach with respect to variants of the classification of Gaussian XOR mixtures - an artificial but emblematic problem that intrinsically requires multilevel learning in order to achieve optimal class separation.
translated by 谷歌翻译
FIG. 1. Schematic diagram of a Variational Quantum Algorithm (VQA). The inputs to a VQA are: a cost function C(θ), with θ a set of parameters that encodes the solution to the problem, an ansatz whose parameters are trained to minimize the cost, and (possibly) a set of training data {ρ k } used during the optimization. Here, the cost can often be expressed in the form in Eq. ( 3), for some set of functions {f k }. Also, the ansatz is shown as a parameterized quantum circuit (on the left), which is analogous to a neural network (also shown schematically on the right). At each iteration of the loop one uses a quantum computer to efficiently estimate the cost (or its gradients). This information is fed into a classical computer that leverages the power of optimizers to navigate the cost landscape C(θ) and solve the optimization problem in Eq. ( 1). Once a termination condition is met, the VQA outputs an estimate of the solution to the problem. The form of the output depends on the precise task at hand. The red box indicates some of the most common types of outputs.
translated by 谷歌翻译
Quantum Kernel方法是量子机器学习的关键方法之一,这具有不需要优化的优点,并且具有理论简单。凭借这些属性,到目前为止已经开发了几种实验演示和对潜在优势的讨论。但是,正如古典机器学习所在的情况一样,并非所有量子机器学习模型都可以被视为内核方法。在这项工作中,我们探讨了具有深层参数化量子电路的量子机器学习模型,旨在超出传统量子核法。在这种情况下,预计表示功率和性能将得到增强,而培训过程可能是丢储Plateaus问题的瓶颈。然而,我们发现,在训练期间,深度足够的量子电路的参数不会从其初始值中移动到初始值,从而允许一阶扩展参数。这种行为类似于经典文献中的神经切线内核,并且可以通过另一个紧急内核,量子切线内核来描述这种深度变化量子机器学习。数值模拟表明,所提出的Quantum切线内核优于传统的Quantum核心核对ANSATZ生成的数据集。该工作提供了超出传统量子内核法的新方向,并探讨了用深层参数化量子电路的量子机器学习的潜在力量。
translated by 谷歌翻译
在通过梯度下降训练过度参数化的模型函数时,有时参数不会显着变化,并且保持接近其初始值。该现象称为懒惰训练,并激发了对模型函数围绕初始参数的线性近似的考虑。在懒惰的制度中,这种线性近似模仿了参数化函数的行为,其相关内核称为切线内核,指定了模型的训练性能。众所周知,在宽度较大的(经典)神经网络的情况下进行懒惰训练。在本文中,我们表明,几何局部参数化量子电路的训练进入了大量Qubits的懒惰制度。更准确地说,我们证明了这种几何局部参数化量子电路的变化速率,以及相关量子模型函数的线性近似的精确度;随着Qubits的数量的增加,这两个边界都趋于零。我们通过数值模拟支持我们的分析结果。
translated by 谷歌翻译
量子哈密顿学习和量子吉布斯采样的双重任务与物理和化学中的许多重要问题有关。在低温方案中,这些任务的算法通常会遭受施状能力,例如因样本或时间复杂性差而遭受。为了解决此类韧性,我们将量子自然梯度下降的概括引入了参数化的混合状态,并提供了稳健的一阶近似算法,即量子 - 固定镜下降。我们使用信息几何学和量子计量学的工具证明了双重任务的数据样本效率,因此首次将经典Fisher效率的开创性结果推广到变异量子算法。我们的方法扩展了以前样品有效的技术,以允许模型选择的灵活性,包括基于量子汉密尔顿的量子模型,包括基于量子的模型,这些模型可能会规避棘手的时间复杂性。我们的一阶算法是使用经典镜下降二元性的新型量子概括得出的。两种结果都需要特殊的度量选择,即Bogoliubov-Kubo-Mori度量。为了从数值上测试我们提出的算法,我们将它们的性能与现有基准进行了关于横向场ISING模型的量子Gibbs采样任务的现有基准。最后,我们提出了一种初始化策略,利用几何局部性来建模状态的序列(例如量子 - 故事过程)的序列。我们从经验上证明了它在实际和想象的时间演化的经验上,同时定义了更广泛的潜在应用。
translated by 谷歌翻译
数据的表示对于机器学习方法至关重要。内核方法用于丰富特征表示,从而可以更好地概括。量子内核有效地实施了在量子系统的希尔伯特空间中编码经典数据的有效复杂的转换,甚至导致指数加速。但是,我们需要对数据的先验知识来选择可以用作量子嵌入的适当参数量子电路。我们提出了一种算法,该算法通过组合优化过程自动选择最佳的量子嵌入过程,该过程修改了电路的结构,更改门的发生器,其角度(取决于数据点)以及各种门的QUBIT行为。由于组合优化在计算上是昂贵的,因此我们基于均值周围的核基质系数的指数浓度引入了一个标准,以立即丢弃任意大部分的溶液,这些溶液被认为性能较差。与基于梯度的优化(例如可训练的量子内核)相反,我们的方法不受建筑贫瘠的高原影响。我们已经使用人工和现实数据集来证明相对于随机生成的PQC的方法的提高。我们还比较了不同优化算法的效果,包括贪婪的局部搜索,模拟退火和遗传算法,表明算法选择在很大程度上影响了结果。
translated by 谷歌翻译
Hybrid quantum-classical systems make it possible to utilize existing quantum computers to their fullest extent. Within this framework, parameterized quantum circuits can be regarded as machine learning models with remarkable expressive power. This Review presents the components of these models and discusses their application to a variety of data-driven tasks, such as supervised learning and generative modeling. With an increasing number of experimental demonstrations carried out on actual quantum hardware and with software being actively developed, this rapidly growing field is poised to have a broad spectrum of real-world applications.
translated by 谷歌翻译
在当前的嘈杂中间尺度量子(NISQ)时代,量子机学习正在成为基于程序门的量子计算机的主要范式。在量子机学习中,对量子电路的门进行了参数化,并且参数是根据数据和电路输出的测量来通过经典优化来调整的。参数化的量子电路(PQC)可以有效地解决组合优化问题,实施概率生成模型并进行推理(分类和回归)。该专着为具有概率和线性代数背景的工程师的观众提供了量子机学习的独立介绍。它首先描述了描述量子操作和测量所必需的必要背景,概念和工具。然后,它涵盖了参数化的量子电路,变异量子本质层以及无监督和监督的量子机学习公式。
translated by 谷歌翻译
量子计算有可能彻底改变和改变我们的生活和理解世界的方式。该审查旨在提供对量子计算的可访问介绍,重点是统计和数据分析中的应用。我们从介绍了了解量子计算所需的基本概念以及量子和经典计算之间的差异。我们描述了用作量子算法的构建块的核心量子子程序。然后,我们审查了一系列预期的量子算法,以便在统计和机器学习中提供计算优势。我们突出了将量子计算应用于统计问题的挑战和机遇,并讨论潜在的未来研究方向。
translated by 谷歌翻译
已经假设量子计算机可以很好地为机器学习中的应用提供很好。在本作工作中,我们分析通过量子内核定义的函数类。量子计算机提供了有效地计算符合难以计算的指数大密度运算符的内部产品。然而,具有指数大的特征空间使得普遍化的问题造成泛化的问题。此外,能够有效地评估高尺寸空间中的内部产品本身不能保证量子优势,因为已经是经典的漫步核可以对应于高或无限的维度再现核Hilbert空间(RKHS)。我们分析量子内核的频谱属性,并发现我们可以期待优势如果其RKHS低维度,并且包含很难经典计算的功能。如果已知目标函数位于该类中,则这意味着量子优势,因为量子计算机可以编码这种电感偏压,而没有同样的方式对功能类进行经典有效的方式。但是,我们表明查找合适的量子内核并不容易,因为内核评估可能需要指数倍数的测量。总之,我们的信息是有点令人发声的:我们猜测量子机器学习模型只有在我们设法将关于传递到量子电路的问题的知识编码的情况下,才能提供加速,同时将相同的偏差置于经典模型。难的。然而,在学习由量子流程生成的数据时,这些情况可能会被典雅地发生,但对于古典数据集来说,它们似乎更难。
translated by 谷歌翻译
已知量子计算机可以在某些专业设置中使用经典的最先进的机器学习方法提供加速。例如,已证明量子内核方法可以在离散对数问题的学习版本上提供指数加速。了解量子模型的概括对于实现实际利益问题的类似加速至关重要。最近的结果表明,量子特征空间的指数大小阻碍了概括。尽管这些结果表明,量子模型在量子数数量较大时无法概括,但在本文中,我们表明这些结果依赖于过度限制性的假设。我们通过改变称为量子内核带宽的超参数来考虑更广泛的模型。我们分析了大量限制,并为可以以封闭形式求解的量子模型的概括提供了明确的公式。具体而言,我们表明,更改带宽的值可以使模型从不能概括到任何目标函数到对准目标的良好概括。我们的分析表明,带宽如何控制内核积分操作员的光谱,从而如何控制模型的电感偏置。我们从经验上证明,我们的理论正确地预测带宽如何影响质量模型在具有挑战性的数据集上的概括,包括远远超出我们理论假设的数据集。我们讨论了结果对机器学习中量子优势的含义。
translated by 谷歌翻译
变形量子电路用于量子机器学习和变分量子仿真任务。设计良好的变形电路或预测对给定学习或优化任务的表现如何尚不清楚。在这里,我们讨论了这些问题,使用神经切线内核理论分析变分量子电路。我们定义了量子神经切线内核,并在优化和学习任务中获得了相关损失函数的动态方程。我们分析了冻结极限或懒惰训练制度的动态,其中变分角缓慢变化,线性扰动足够好。我们将分析扩展到动态设置,包括变分角的二次校正。然后,我们考虑混合量子古典架构并定义混合核的大宽度限制,表明混合量子 - 经典神经网络可以大致高斯。这里提出的结果显示了用于量子机器学习和优化问题的变分量子电路的训练动态的分析谅解的限制。这些分析结果得到了量子机器学习实验的数值模拟支持。
translated by 谷歌翻译
量子计算机是下一代设备,有望执行超出古典计算机范围的计算。实现这一目标的主要方法是通过量子机学习,尤其是量子生成学习。由于量子力学的固有概率性质,因此可以合理地假设量子生成学习模型(QGLM)可能会超过其经典对应物。因此,QGLM正在从量子物理和计算机科学社区中受到越来越多的关注,在这些QGLM中,可以在近期量子机上有效实施各种QGLM,并提出了潜在的计算优势。在本文中,我们从机器学习的角度回顾了QGLM的当前进度。特别是,我们解释了这些QGLM,涵盖了量子电路出生的机器,量子生成的对抗网络,量子玻尔兹曼机器和量子自动编码器,作为经典生成学习模型的量子扩展。在这种情况下,我们探讨了它们的内在关系及其根本差异。我们进一步总结了QGLM在常规机器学习任务和量子物理学中的潜在应用。最后,我们讨论了QGLM的挑战和进一步研究指示。
translated by 谷歌翻译
量子机学习(QML)中的内核方法最近引起了人们的重大关注,作为在数据分析中获得量子优势的潜在候选者。在其他有吸引力的属性中,当训练基于内核的模型时,可以保证由于训练格局的凸度而找到最佳模型的参数。但是,这是基于以下假设:量子内核可以从量子硬件有效获得。在这项工作中,我们从准确估计内核值所需的资源的角度研究了量子内核的训练性。我们表明,在某些条件下,可以将量子内核在不同输入数据上的值呈指数浓缩(在量子数中)指向一些固定值,从而导致成功训练所需的测量数量的指数缩放。我们确定了可以导致集中度的四个来源,包括:数据嵌入,全球测量,纠缠和噪声的表达性。对于每个来源,分析得出量子内核的相关浓度结合。最后,我们表明,在处理经典数据时,训练用内核比对方法嵌入的参数化数据也容易受到指数浓度的影响。我们的结果通过数值仿真来验证几个QML任务。总体而言,我们提供指南,表明应避免某些功能,以确保量子内核方法的有效评估和训练性。
translated by 谷歌翻译
In this thesis, we consider two simple but typical control problems and apply deep reinforcement learning to them, i.e., to cool and control a particle which is subject to continuous position measurement in a one-dimensional quadratic potential or in a quartic potential. We compare the performance of reinforcement learning control and conventional control strategies on the two problems, and show that the reinforcement learning achieves a performance comparable to the optimal control for the quadratic case, and outperforms conventional control strategies for the quartic case for which the optimal control strategy is unknown. To our knowledge, this is the first time deep reinforcement learning is applied to quantum control problems in continuous real space. Our research demonstrates that deep reinforcement learning can be used to control a stochastic quantum system in real space effectively as a measurement-feedback closed-loop controller, and our research also shows the ability of AI to discover new control strategies and properties of the quantum systems that are not well understood, and we can gain insights into these problems by learning from the AI, which opens up a new regime for scientific research.
translated by 谷歌翻译
在量子计算中,变分量子算法(VQAS)非常适合于在从化学中寻找特定应用中的物品的最佳组合一切融资。具有梯度下降优化算法的VQA的训练显示出良好的收敛性。在早期阶段,在嘈杂的中间级量子(NISQ)器件上的变分量子电路的模拟遭受了嘈杂的输出。就像古典深度学习一样,它也遭受了消失的渐变问题。研究损失景观的拓扑结构是一种逼真的目标,以在消失梯度存在的存在下可视化这些电路的曲率信息和可训练。在本文中,我们计算了Hessian,并在参数空间中的不同点处可视化变分量子分类器的损失景观。解释变分量子分类器(VQC)的曲率信息,并显示了损耗函数的收敛。它有助于我们更好地了解变形量子电路的行为,以有效地解决优化问题。我们通过Hessian在量子计算机上调查了变形量子分类器,从一个简单的4位奇偶校验问题开始,以获得对黑森州的实际行为的洞察力,然后彻底分析了Hessian的特征值对培训糖尿病数据集的变分量子分类器的行为。最后,我们展示了自适应Hessian学习率如何在训练变分电路时影响收敛。
translated by 谷歌翻译
Quantum-enhanced data science, also known as quantum machine learning (QML), is of growing interest as an application of near-term quantum computers. Variational QML algorithms have the potential to solve practical problems on real hardware, particularly when involving quantum data. However, training these algorithms can be challenging and calls for tailored optimization procedures. Specifically, QML applications can require a large shot-count overhead due to the large datasets involved. In this work, we advocate for simultaneous random sampling over both the dataset as well as the measurement operators that define the loss function. We consider a highly general loss function that encompasses many QML applications, and we show how to construct an unbiased estimator of its gradient. This allows us to propose a shot-frugal gradient descent optimizer called Refoqus (REsource Frugal Optimizer for QUantum Stochastic gradient descent). Our numerics indicate that Refoqus can save several orders of magnitude in shot cost, even relative to optimizers that sample over measurement operators alone.
translated by 谷歌翻译
Quantum machine learning is a rapidly evolving field of research that could facilitate important applications for quantum computing and also significantly impact data-driven sciences. In our work, based on various arguments from complexity theory and physics, we demonstrate that a single Kerr mode can provide some "quantum enhancements" when dealing with kernel-based methods. Using kernel properties, neural tangent kernel theory, first-order perturbation theory of the Kerr non-linearity, and non-perturbative numerical simulations, we show that quantum enhancements could happen in terms of convergence time and generalization error. Furthermore, we make explicit indications on how higher-dimensional input data could be considered. Finally, we propose an experimental protocol, that we call \emph{quantum Kerr learning}, based on circuit QED.
translated by 谷歌翻译
基于内核的量子分类器是用于复杂数据的超线化分类的最有趣,最强大的量子机学习技术,可以在浅深度量子电路(例如交换测试分类器)中轻松实现。出乎意料的是,通过引入差异方案,可以将支持向量机固有而明确地实现,以将SVM理论的二次优化问题映射到量子古典的变分优化问题。该方案使用参数化的量子电路(PQC)实现,以创建一个不均匀的权重向量,以索引量子位,可以在线性时间内评估训练损失和分类得分。我们训练该变量量子近似支持向量机(VQASVM)的经典参数,该参数可以转移到其他VQASVM决策推理电路的许多副本中,以分类新查询数据。我们的VQASVM算法对基于云的量子计算机的玩具示例数据集进行了实验,以进行可行性评估,并进行了数值研究以评估其在标准的IRIS花朵数据集上的性能。虹膜数据分类的准确性达到98.8%。
translated by 谷歌翻译
我们提出了一种新的混合系统,用于通过使用多目标遗传算法在灰度图像上自动生成和训练量子启发的分类器。我们定义一个动态健身函数,以获得最小的电路和最高的观点数据准确性,以确保所提出的技术是可推广且健壮的。我们通过惩罚其外观来最大程度地减少生成电路的复杂性。我们使用二维降低方法减少图像的大小:主成分分析(PCA),该分析(PCA)是为了优化目的而在个体中编码的,以及一个小的卷积自动编码器(CAE)。将这两种方法相互比较,并采用经典的非线性方法来理解其行为,并确保分类能力是由于量子电路而不是用于降低维度的预处理技术引起的。
translated by 谷歌翻译