在通过梯度下降训练过度参数化的模型函数时,有时参数不会显着变化,并且保持接近其初始值。该现象称为懒惰训练,并激发了对模型函数围绕初始参数的线性近似的考虑。在懒惰的制度中,这种线性近似模仿了参数化函数的行为,其相关内核称为切线内核,指定了模型的训练性能。众所周知,在宽度较大的(经典)神经网络的情况下进行懒惰训练。在本文中,我们表明,几何局部参数化量子电路的训练进入了大量Qubits的懒惰制度。更准确地说,我们证明了这种几何局部参数化量子电路的变化速率,以及相关量子模型函数的线性近似的精确度;随着Qubits的数量的增加,这两个边界都趋于零。我们通过数值模拟支持我们的分析结果。
translated by 谷歌翻译
Quantum Kernel方法是量子机器学习的关键方法之一,这具有不需要优化的优点,并且具有理论简单。凭借这些属性,到目前为止已经开发了几种实验演示和对潜在优势的讨论。但是,正如古典机器学习所在的情况一样,并非所有量子机器学习模型都可以被视为内核方法。在这项工作中,我们探讨了具有深层参数化量子电路的量子机器学习模型,旨在超出传统量子核法。在这种情况下,预计表示功率和性能将得到增强,而培训过程可能是丢储Plateaus问题的瓶颈。然而,我们发现,在训练期间,深度足够的量子电路的参数不会从其初始值中移动到初始值,从而允许一阶扩展参数。这种行为类似于经典文献中的神经切线内核,并且可以通过另一个紧急内核,量子切线内核来描述这种深度变化量子机器学习。数值模拟表明,所提出的Quantum切线内核优于传统的Quantum核心核对ANSATZ生成的数据集。该工作提供了超出传统量子内核法的新方向,并探讨了用深层参数化量子电路的量子机器学习的潜在力量。
translated by 谷歌翻译
Building a quantum analog of classical deep neural networks represents a fundamental challenge in quantum computing. A key issue is how to address the inherent non-linearity of classical deep learning, a problem in the quantum domain due to the fact that the composition of an arbitrary number of quantum gates, consisting of a series of sequential unitary transformations, is intrinsically linear. This problem has been variously approached in the literature, principally via the introduction of measurements between layers of unitary transformations. In this paper, we introduce the Quantum Path Kernel, a formulation of quantum machine learning capable of replicating those aspects of deep machine learning typically associated with superior generalization performance in the classical domain, specifically, hierarchical feature learning. Our approach generalizes the notion of Quantum Neural Tangent Kernel, which has been used to study the dynamics of classical and quantum machine learning models. The Quantum Path Kernel exploits the parameter trajectory, i.e. the curve delineated by model parameters as they evolve during training, enabling the representation of differential layer-wise convergence behaviors, or the formation of hierarchical parametric dependencies, in terms of their manifestation in the gradient space of the predictor function. We evaluate our approach with respect to variants of the classification of Gaussian XOR mixtures - an artificial but emblematic problem that intrinsically requires multilevel learning in order to achieve optimal class separation.
translated by 谷歌翻译
预计人工神经网络的领域将强烈受益于量子计算机的最新发展。特别是Quantum Machine Learning,一类利用用于创建可训练神经网络的Qubits的量子算法,将提供更多的力量来解决模式识别,聚类和机器学习等问题。前馈神经网络的构建块由连接到输出神经元的一层神经元组成,该输出神经元根据任意激活函数被激活。相应的学习算法以Rosenblatt Perceptron的名义。具有特定激活功能的量子感知是已知的,但仍然缺乏在量子计算机上实现任意激活功能的一般方法。在这里,我们用量子算法填充这个间隙,该算法能够将任何分析激活功能近似于其功率系列的任何给定顺序。与以前的提案不同,提供不可逆转的测量和简化的激活功能,我们展示了如何将任何分析功能近似于任何所需的准确性,而无需测量编码信息的状态。由于这种结构的一般性,任何前锋神经网络都可以根据Hornik定理获取通用近似性质。我们的结果重新纳入栅极型量子计算机体系结构中的人工神经网络科学。
translated by 谷歌翻译
Variational quantum circuits have been widely employed in quantum simulation and quantum machine learning in recent years. However, quantum circuits with random structures have poor trainability due to the exponentially vanishing gradient with respect to the circuit depth and the qubit number. This result leads to a general standpoint that deep quantum circuits would not be feasible for practical tasks. In this work, we propose an initialization strategy with theoretical guarantees for the vanishing gradient problem in general deep quantum circuits. Specifically, we prove that under proper Gaussian initialized parameters, the norm of the gradient decays at most polynomially when the qubit number and the circuit depth increase. Our theoretical results hold for both the local and the global observable cases, where the latter was believed to have vanishing gradients even for very shallow circuits. Experimental results verify our theoretical findings in the quantum simulation and quantum chemistry.
translated by 谷歌翻译
变异量子算法已被认为是实现有意义的任务(包括机器学习和组合优化)的近期量子优势的领先策略。当应用于涉及经典数据的任务时,这种算法通常从用于数据编码的量子电路开始,然后训练量子神经网络(QNN)以最小化目标函数。尽管已经广泛研究了QNN,以提高这些算法在实际任务上的性能,但系统地了解编码数据对最终性能的影响存在差距。在本文中,我们通过考虑基于参数化量子电路的常见数据编码策略来填补这一空白。我们证明,在合理的假设下,平均编码状态与最大混合状态之间的距离可以明确地相对于编码电路的宽度和深度。该结果特别意味着平均编码状态将以指数速度的深度速度集中在最大混合状态上。这种浓度严重限制了量子分类器的功能,并严格限制了从量子信息的角度来看编码状态的区分性。我们通过在合成和公共数据集上验证这些结果来进一步支持我们的发现。我们的结果突出了机器学习任务中量子数据编码的重要性,并可能阐明未来的编码策略。
translated by 谷歌翻译
变形量子算法(VQAS)可以是噪声中间级量子(NISQ)计算机上的量子优势的路径。自然问题是NISQ设备的噪声是否对VQA性能的基本限制。我们严格证明对嘈杂的VQAS进行严重限制,因为噪音导致训练景观具有贫瘠高原(即消失梯度)。具体而言,对于考虑的本地Pauli噪声,我们证明梯度在Qubits $ N $的数量中呈指数呈指数增长,如果Ansatz的深度以$ N $线性增长。这些噪声诱导的贫瘠强韧(NIBPS)在概念上不同于无辐射贫瘠强度,其与随机参数初始化相关联。我们的结果是为通用Ansatz制定的,该通用ansatz包括量子交替运算符ANSATZ和酉耦合簇Ansatz等特殊情况。对于前者来说,我们的数值启发式展示了用于现实硬件噪声模型的NIBP现象。
translated by 谷歌翻译
现代量子机学习(QML)方法涉及在训练数据集上进行各种优化参数化量子电路,并随后对测试数据集(即,泛化)进行预测。在这项工作中,我们在培训数量为N $培训数据点后,我们在QML中对QML的普遍表现进行了全面的研究。我们表明,Quantum机器学习模型的泛化误差与$ T $培训门的尺寸在$ \ sqrt {t / n} $上缩放。当只有$ k \ ll t $ gates在优化过程中经历了大量变化时,我们证明了泛化误差改善了$ \ sqrt {k / n} $。我们的结果意味着将Unitaries编制到通常使用指数训练数据的量子计算行业的多项式栅极数量,这是一项通常使用指数尺寸训练数据的大量应用程序。我们还表明,使用量子卷积神经网络的相位过渡的量子状态的分类只需要一个非常小的训练数据集。其他潜在应用包括学习量子误差校正代码或量子动态模拟。我们的工作将新的希望注入QML领域,因为较少的培训数据保证了良好的概括。
translated by 谷歌翻译
量子机学习(QML)中的内核方法最近引起了人们的重大关注,作为在数据分析中获得量子优势的潜在候选者。在其他有吸引力的属性中,当训练基于内核的模型时,可以保证由于训练格局的凸度而找到最佳模型的参数。但是,这是基于以下假设:量子内核可以从量子硬件有效获得。在这项工作中,我们从准确估计内核值所需的资源的角度研究了量子内核的训练性。我们表明,在某些条件下,可以将量子内核在不同输入数据上的值呈指数浓缩(在量子数中)指向一些固定值,从而导致成功训练所需的测量数量的指数缩放。我们确定了可以导致集中度的四个来源,包括:数据嵌入,全球测量,纠缠和噪声的表达性。对于每个来源,分析得出量子内核的相关浓度结合。最后,我们表明,在处理经典数据时,训练用内核比对方法嵌入的参数化数据也容易受到指数浓度的影响。我们的结果通过数值仿真来验证几个QML任务。总体而言,我们提供指南,表明应避免某些功能,以确保量子内核方法的有效评估和训练性。
translated by 谷歌翻译
Hybrid quantum-classical systems make it possible to utilize existing quantum computers to their fullest extent. Within this framework, parameterized quantum circuits can be regarded as machine learning models with remarkable expressive power. This Review presents the components of these models and discusses their application to a variety of data-driven tasks, such as supervised learning and generative modeling. With an increasing number of experimental demonstrations carried out on actual quantum hardware and with software being actively developed, this rapidly growing field is poised to have a broad spectrum of real-world applications.
translated by 谷歌翻译
深度学习是当今机器学习中最成功和最深远的策略之一。然而,神经网络的规模和效用仍然受到用于训练它们的当前硬件的极大限制。随着常规电脑快速接近将在未来几年的情况下,常规计算机迅速接近物理限制,这些问题越来越紧。由于这些原因,科学家们已经开始探索替代计算平台,如量子计算机,用于训练神经网络。近年来,变分量子电路已成为在嘈杂的中间秤量子器件上量子深度学习的最成功的方法之一。我们提出了一种混合量子古典神经网络架构,其中每个神经元是变形量子电路。我们使用模拟通用量子计算机和艺术通用量子计算机的状态来统一地分析该混合神经网络对一系列二元分类数据集的性能。在模拟硬件上,我们观察到混合神经网络的分类精度高出10%,比各个变分量子电路更好地最小化了20%。在Quantum硬件上,我们观察到每个模型仅在Qubit和栅极计数足够小时执行良好。
translated by 谷歌翻译
在当前的嘈杂中间尺度量子(NISQ)时代,量子机学习正在成为基于程序门的量子计算机的主要范式。在量子机学习中,对量子电路的门进行了参数化,并且参数是根据数据和电路输出的测量来通过经典优化来调整的。参数化的量子电路(PQC)可以有效地解决组合优化问题,实施概率生成模型并进行推理(分类和回归)。该专着为具有概率和线性代数背景的工程师的观众提供了量子机学习的独立介绍。它首先描述了描述量子操作和测量所必需的必要背景,概念和工具。然后,它涵盖了参数化的量子电路,变异量子本质层以及无监督和监督的量子机学习公式。
translated by 谷歌翻译
In the era of noisy intermediate scale quantum devices, variational quantum circuits (VQCs) are currently one of the main strategies for building quantum machine learning models. These models are made up of a quantum part and a classical part. The quantum part is given by a parametrization $U$, which, in general, is obtained from the product of different quantum gates. By its turn, the classical part corresponds to an optimizer that updates the parameters of $U$ in order to minimize a cost function $C$. However, despite the many applications of VQCs, there are still questions to be answered, such as for example: What is the best sequence of gates to be used? How to optimize their parameters? Which cost function to use? How the architecture of the quantum chips influences the final results? In this article, we focus on answering the last question. We will show that, in general, the cost function will tend to a typical average value the closer the parameterization used is from a $2$-design. Therefore, the closer this parameterization is to a $2$-design, the less the result of the quantum neural network model will depend on its parametrization. As a consequence, we can use the own architecture of the quantum chips to defined the VQC parametrization, avoiding the use of additional swap gates and thus diminishing the VQC depth and the associated errors.
translated by 谷歌翻译
量子Gibbs状态的制备是量子计算的重要组成部分,在各种区域具有广泛的应用,包括量子仿真,量子优化和量子机器学习。在本文中,我们提出了用于量子吉布斯状态准备的变分杂化量子典型算法。我们首先利用截短的泰勒系列来评估自由能,并选择截短的自由能量作为损耗功能。然后,我们的协议训练参数化量子电路以学习所需的量子吉布斯状态。值得注意的是,该算法可以在配备有参数化量子电路的近期量子计算机上实现。通过执行数值实验,我们显示浅参数化电路,只有一个额外的量子位训练,以便准备诸如高于95%的保真度的insing链和旋转链Gibbs状态。特别地,对于ising链模型,我们发现,只有一个参数和一个额外的qubit的简化电路ansatz可以训练,以在大于2的逆温度下实现吉布斯状态准备中的99%保真度。
translated by 谷歌翻译
We propose a classical-quantum hybrid algorithm for machine learning on near-term quantum processors, which we call quantum circuit learning. A quantum circuit driven by our framework learns a given task by tuning parameters implemented on it. The iterative optimization of the parameters allows us to circumvent the high-depth circuit. Theoretical investigation shows that a quantum circuit can approximate nonlinear functions, which is further confirmed by numerical simulations. Hybridizing a low-depth quantum circuit and a classical computer for machine learning, the proposed framework paves the way toward applications of near-term quantum devices for quantum machine learning.
translated by 谷歌翻译
已经假设量子计算机可以很好地为机器学习中的应用提供很好。在本作工作中,我们分析通过量子内核定义的函数类。量子计算机提供了有效地计算符合难以计算的指数大密度运算符的内部产品。然而,具有指数大的特征空间使得普遍化的问题造成泛化的问题。此外,能够有效地评估高尺寸空间中的内部产品本身不能保证量子优势,因为已经是经典的漫步核可以对应于高或无限的维度再现核Hilbert空间(RKHS)。我们分析量子内核的频谱属性,并发现我们可以期待优势如果其RKHS低维度,并且包含很难经典计算的功能。如果已知目标函数位于该类中,则这意味着量子优势,因为量子计算机可以编码这种电感偏压,而没有同样的方式对功能类进行经典有效的方式。但是,我们表明查找合适的量子内核并不容易,因为内核评估可能需要指数倍数的测量。总之,我们的信息是有点令人发声的:我们猜测量子机器学习模型只有在我们设法将关于传递到量子电路的问题的知识编码的情况下,才能提供加速,同时将相同的偏差置于经典模型。难的。然而,在学习由量子流程生成的数据时,这些情况可能会被典雅地发生,但对于古典数据集来说,它们似乎更难。
translated by 谷歌翻译
我们研究了图形表示学习的量子电路,并提出了等级的量子图电路(EQGCS),作为一类参数化量子电路,具有强大的关系感应偏压,用于学习图形结构数据。概念上,EQGCS作为量子图表表示学习的统一框架,允许我们定义几个有趣的子类,其中包含了现有的提案。就代表性权力而言,我们证明了感兴趣的子类是界限图域中的函数的普遍近似器,并提供实验证据。我们对量子图机学习方法的理论透视开启了许多方向以进行进一步的工作,可能导致具有超出古典方法的能力的模型。
translated by 谷歌翻译
基于内核的量子分类器是用于复杂数据的超线化分类的最有趣,最强大的量子机学习技术,可以在浅深度量子电路(例如交换测试分类器)中轻松实现。出乎意料的是,通过引入差异方案,可以将支持向量机固有而明确地实现,以将SVM理论的二次优化问题映射到量子古典的变分优化问题。该方案使用参数化的量子电路(PQC)实现,以创建一个不均匀的权重向量,以索引量子位,可以在线性时间内评估训练损失和分类得分。我们训练该变量量子近似支持向量机(VQASVM)的经典参数,该参数可以转移到其他VQASVM决策推理电路的许多副本中,以分类新查询数据。我们的VQASVM算法对基于云的量子计算机的玩具示例数据集进行了实验,以进行可行性评估,并进行了数值研究以评估其在标准的IRIS花朵数据集上的性能。虹膜数据分类的准确性达到98.8%。
translated by 谷歌翻译
在量子计算中,变分量子算法(VQAS)非常适合于在从化学中寻找特定应用中的物品的最佳组合一切融资。具有梯度下降优化算法的VQA的训练显示出良好的收敛性。在早期阶段,在嘈杂的中间级量子(NISQ)器件上的变分量子电路的模拟遭受了嘈杂的输出。就像古典深度学习一样,它也遭受了消失的渐变问题。研究损失景观的拓扑结构是一种逼真的目标,以在消失梯度存在的存在下可视化这些电路的曲率信息和可训练。在本文中,我们计算了Hessian,并在参数空间中的不同点处可视化变分量子分类器的损失景观。解释变分量子分类器(VQC)的曲率信息,并显示了损耗函数的收敛。它有助于我们更好地了解变形量子电路的行为,以有效地解决优化问题。我们通过Hessian在量子计算机上调查了变形量子分类器,从一个简单的4位奇偶校验问题开始,以获得对黑森州的实际行为的洞察力,然后彻底分析了Hessian的特征值对培训糖尿病数据集的变分量子分类器的行为。最后,我们展示了自适应Hessian学习率如何在训练变分电路时影响收敛。
translated by 谷歌翻译
优化参数化量子电路(PQC)是使用近期量子计算机的领先方法。但是,对于PQC的成本函数景观知之甚少,这阻碍了量子意识到的优化器的进展。在这项工作中,我们研究了PQCS已观察到的三种不同景观特征之间的联系:(1)指数呈指数消失的梯度(称为贫瘠的高原),(2)关于平均值的成本成本集中,以及(3)(3)指数的狭窄小小的(称为狭窄的峡谷)。我们在分析上证明,这三个现象一起出现,即当发生一个现象时,其他两个现象也是如此。该结果的一个关键含义是,可以通过成本差而不是通过计算更昂贵的梯度来数字诊断贫瘠的高原。更广泛地说,我们的工作表明,量子力学排除了某些成本景观(否则在数学上可能是可能的),因此从量子基础的角度来看,我们的结果很有趣。
translated by 谷歌翻译