We propose a classical-quantum hybrid algorithm for machine learning on near-term quantum processors, which we call quantum circuit learning. A quantum circuit driven by our framework learns a given task by tuning parameters implemented on it. The iterative optimization of the parameters allows us to circumvent the high-depth circuit. Theoretical investigation shows that a quantum circuit can approximate nonlinear functions, which is further confirmed by numerical simulations. Hybridizing a low-depth quantum circuit and a classical computer for machine learning, the proposed framework paves the way toward applications of near-term quantum devices for quantum machine learning.
translated by 谷歌翻译
Hybrid quantum-classical systems make it possible to utilize existing quantum computers to their fullest extent. Within this framework, parameterized quantum circuits can be regarded as machine learning models with remarkable expressive power. This Review presents the components of these models and discusses their application to a variety of data-driven tasks, such as supervised learning and generative modeling. With an increasing number of experimental demonstrations carried out on actual quantum hardware and with software being actively developed, this rapidly growing field is poised to have a broad spectrum of real-world applications.
translated by 谷歌翻译
FIG. 1. Schematic diagram of a Variational Quantum Algorithm (VQA). The inputs to a VQA are: a cost function C(θ), with θ a set of parameters that encodes the solution to the problem, an ansatz whose parameters are trained to minimize the cost, and (possibly) a set of training data {ρ k } used during the optimization. Here, the cost can often be expressed in the form in Eq. ( 3), for some set of functions {f k }. Also, the ansatz is shown as a parameterized quantum circuit (on the left), which is analogous to a neural network (also shown schematically on the right). At each iteration of the loop one uses a quantum computer to efficiently estimate the cost (or its gradients). This information is fed into a classical computer that leverages the power of optimizers to navigate the cost landscape C(θ) and solve the optimization problem in Eq. ( 1). Once a termination condition is met, the VQA outputs an estimate of the solution to the problem. The form of the output depends on the precise task at hand. The red box indicates some of the most common types of outputs.
translated by 谷歌翻译
Quantum Kernel方法是量子机器学习的关键方法之一,这具有不需要优化的优点,并且具有理论简单。凭借这些属性,到目前为止已经开发了几种实验演示和对潜在优势的讨论。但是,正如古典机器学习所在的情况一样,并非所有量子机器学习模型都可以被视为内核方法。在这项工作中,我们探讨了具有深层参数化量子电路的量子机器学习模型,旨在超出传统量子核法。在这种情况下,预计表示功率和性能将得到增强,而培训过程可能是丢储Plateaus问题的瓶颈。然而,我们发现,在训练期间,深度足够的量子电路的参数不会从其初始值中移动到初始值,从而允许一阶扩展参数。这种行为类似于经典文献中的神经切线内核,并且可以通过另一个紧急内核,量子切线内核来描述这种深度变化量子机器学习。数值模拟表明,所提出的Quantum切线内核优于传统的Quantum核心核对ANSATZ生成的数据集。该工作提供了超出传统量子内核法的新方向,并探讨了用深层参数化量子电路的量子机器学习的潜在力量。
translated by 谷歌翻译
在过去的十年中,机器学习取得了巨大的成功,其应用程序从面部识别到自然语言处理不等。同时,在量子计算领域已经取得了快速的进步,包括开发强大的量子算法和高级量子设备。机器学习与量子物理学之间的相互作用具有将实际应用带给现代社会的有趣潜力。在这里,我们以参数化量子电路的形式关注量子神经网络。我们将主要讨论各种结构和编码量子神经网络的策略,以进行监督学习任务,并利用Yao.jl进行基准测试,这是用朱莉娅语言编写的量子模拟软件包。这些代码是有效的,旨在为科学工作中的初学者提供便利,例如开发强大的变分量子学习模型并协助相应的实验演示。
translated by 谷歌翻译
数据装配过程是量子机学习的瓶颈之一,可能会否定任何量子加速。鉴于此,必须采用更有效的数据编码策略。我们提出了一种基于光子的骨气数据编码方案,该方案使用较少的编码层嵌入经典数据点,并通过将数据点映射到高维FOCK空间中,从而规避非线性光学组件的需求。电路的表达能力可以通过输入光子的数量来控制。我们的工作阐明了量子光子学在量子机学习模型的表达能力方面提供的独特优势。通过利用光子数依赖的表达能力,我们提出了三种不同的中间尺度量子兼容二进制分类方法,其所需资源适用于不同监督分类任务。
translated by 谷歌翻译
量子计算有可能彻底改变和改变我们的生活和理解世界的方式。该审查旨在提供对量子计算的可访问介绍,重点是统计和数据分析中的应用。我们从介绍了了解量子计算所需的基本概念以及量子和经典计算之间的差异。我们描述了用作量子算法的构建块的核心量子子程序。然后,我们审查了一系列预期的量子算法,以便在统计和机器学习中提供计算优势。我们突出了将量子计算应用于统计问题的挑战和机遇,并讨论潜在的未来研究方向。
translated by 谷歌翻译
作为量子优势的应用,对动态模拟和量子机学习(QML)的关注很大,而使用QML来增强动态模拟的可能性尚未得到彻底研究。在这里,我们开发了一个框架,用于使用QML方法模拟近期量子硬件上的量子动力学。我们使用概括范围,即机器学习模型在看不见的数据上遇到的错误,以严格分析此框架内算法的训练数据要求。这提供了一种保证,就量子和数据要求而言,我们的算法是资源有效的。我们的数字具有问题大小的有效缩放,我们模拟了IBMQ-Bogota上的Trotterization的20倍。
translated by 谷歌翻译
量子Gibbs状态的制备是量子计算的重要组成部分,在各种区域具有广泛的应用,包括量子仿真,量子优化和量子机器学习。在本文中,我们提出了用于量子吉布斯状态准备的变分杂化量子典型算法。我们首先利用截短的泰勒系列来评估自由能,并选择截短的自由能量作为损耗功能。然后,我们的协议训练参数化量子电路以学习所需的量子吉布斯状态。值得注意的是,该算法可以在配备有参数化量子电路的近期量子计算机上实现。通过执行数值实验,我们显示浅参数化电路,只有一个额外的量子位训练,以便准备诸如高于95%的保真度的insing链和旋转链Gibbs状态。特别地,对于ising链模型,我们发现,只有一个参数和一个额外的qubit的简化电路ansatz可以训练,以在大于2的逆温度下实现吉布斯状态准备中的99%保真度。
translated by 谷歌翻译
近术量子器件在机器学习(ML)中的应用引起了很多关注。在一个这样的尝试中,mitarai等。(2018)提出了一个框架,用于使用量子电路进行监督ML任务,称为量子电路学习(QCL)。由于使用量子电路,QCL可以采用指数上高维的希尔伯特空间作为其特征空间。然而,与古典算法相比的效率仍未探索。在本研究中,使用称为计数草图的统计技术,我们提出了一种使用相同的Hilbert空间的典型ML算法。在数值模拟中,我们所提出的算法对QCL表示类似的QCL,对于几毫安任务。这提供了一种新的视角,其要考虑量子M1算法的计算和内存效率。
translated by 谷歌翻译
Quantum Machine Learning(QML)提供了一种强大的灵活的范式,可用于编程近期量子计算机,具有化学,计量,材料科学,数据科学和数学的应用。这里,一个以参数化量子电路的形式训练ANSATZ,以实现感兴趣的任务。然而,最近出现了挑战表明,由于随机性或硬件噪声引起的平坦训练景观,因此难以训练深度尖锐钽。这激励了我们的工作,在那里我们提出了一种可变的结构方法来构建QML的Ansatzes。我们的方法称为VANS(可变ANSATZ),将一组规则应用于在优化期间以知识的方式在增长和(至关重要的)中删除量子门。因此,VANS非常适合通过保持ANSATZ浅扫描来缓解训练性和与噪声相关的问题。我们在变分量子Eigensolver中使用Vans进行冷凝物质和量子化学应用,并且还在量子自身化学器中进行数据压缩,显示所有情况的成功结果。
translated by 谷歌翻译
Variational quantum circuits have been widely employed in quantum simulation and quantum machine learning in recent years. However, quantum circuits with random structures have poor trainability due to the exponentially vanishing gradient with respect to the circuit depth and the qubit number. This result leads to a general standpoint that deep quantum circuits would not be feasible for practical tasks. In this work, we propose an initialization strategy with theoretical guarantees for the vanishing gradient problem in general deep quantum circuits. Specifically, we prove that under proper Gaussian initialized parameters, the norm of the gradient decays at most polynomially when the qubit number and the circuit depth increase. Our theoretical results hold for both the local and the global observable cases, where the latter was believed to have vanishing gradients even for very shallow circuits. Experimental results verify our theoretical findings in the quantum simulation and quantum chemistry.
translated by 谷歌翻译
对状态$ \ lvert \ psi \ rangle $的对称性是单一操作员,其中$ \ lvert \ psi \ rangle $是特征者。当$ \ lvert \ psi \ rangle $是黑盒甲骨文提供的未知状态时,该州的对称性可用于表征它,并且通常会降级有关$ \ lvert \ psi \ rangle $的许多所需信息。在本文中,我们开发了一种变性杂种量子式学习方案,以系统地探测$ \ lvert \ psi \ rangle $的对称性,而没有对状态的先验假设。此过程可用于同时学习各种对称性。为了避免重新学习已经知道的对称性,我们引入了一种具有经典深神经网的交互式协议。因此,经典的网络针对重复的发现进行了正规化,并允许我们的算法通过发现的所有可能对称性终止经验。我们的方案可以平均通过非本地交换门有效地实施;我们还提供了仅使用本地操作的效率较低的算法,这可能更适合当前的噪声量子设备。我们展示了我们对代表国家的算法。
translated by 谷歌翻译
有望在近期量子计算机上建立有价值的应用程序。但是,最近的作品指出,VQA的性能极大地依赖于Ansatzes的表现性,并且受到优化问题(例如贫瘠的高原(即消失的梯度))的严重限制。这项工作提出了国家有效的ANSATZ(SEA),以改善训练性,以进行准确的基态制备。我们表明,海洋可以产生一个任意纯状态,其参数比通用的安萨兹少得多,从而使其适合基态估计等任务有效。然后,我们证明可以通过灵活地调节海洋的纠缠能力来有效地通过海洋有效地减轻贫瘠的高原,并可以最大程度地提高训练性。最后,我们研究了大量的示例,在基础状态估计中,我们在成本梯度和收敛速度的幅度上得到了显着改善。
translated by 谷歌翻译
基于内核的量子分类器是用于复杂数据的超线化分类的最有趣,最强大的量子机学习技术,可以在浅深度量子电路(例如交换测试分类器)中轻松实现。出乎意料的是,通过引入差异方案,可以将支持向量机固有而明确地实现,以将SVM理论的二次优化问题映射到量子古典的变分优化问题。该方案使用参数化的量子电路(PQC)实现,以创建一个不均匀的权重向量,以索引量子位,可以在线性时间内评估训练损失和分类得分。我们训练该变量量子近似支持向量机(VQASVM)的经典参数,该参数可以转移到其他VQASVM决策推理电路的许多副本中,以分类新查询数据。我们的VQASVM算法对基于云的量子计算机的玩具示例数据集进行了实验,以进行可行性评估,并进行了数值研究以评估其在标准的IRIS花朵数据集上的性能。虹膜数据分类的准确性达到98.8%。
translated by 谷歌翻译
量子计算机是下一代设备,有望执行超出古典计算机范围的计算。实现这一目标的主要方法是通过量子机学习,尤其是量子生成学习。由于量子力学的固有概率性质,因此可以合理地假设量子生成学习模型(QGLM)可能会超过其经典对应物。因此,QGLM正在从量子物理和计算机科学社区中受到越来越多的关注,在这些QGLM中,可以在近期量子机上有效实施各种QGLM,并提出了潜在的计算优势。在本文中,我们从机器学习的角度回顾了QGLM的当前进度。特别是,我们解释了这些QGLM,涵盖了量子电路出生的机器,量子生成的对抗网络,量子玻尔兹曼机器和量子自动编码器,作为经典生成学习模型的量子扩展。在这种情况下,我们探讨了它们的内在关系及其根本差异。我们进一步总结了QGLM在常规机器学习任务和量子物理学中的潜在应用。最后,我们讨论了QGLM的挑战和进一步研究指示。
translated by 谷歌翻译
Pennylane是用于量子计算机可区分编程的Python 3软件框架。该库为近期量子计算设备提供了统一的体系结构,支持量子和连续变化的范例。 Pennylane的核心特征是能够以与经典技术(例如反向传播)兼容的方式来计算变异量子电路的梯度。因此,Pennylane扩展了在优化和机器学习中常见的自动分化算法,以包括量子和混合计算。插件系统使该框架与任何基于门的量子模拟器或硬件兼容。我们为硬件提供商提供插件,包括Xanadu Cloud,Amazon Braket和IBM Quantum,允许Pennylane优化在公开访问的量子设备上运行。在古典方面,Pennylane与加速的机器学习库(例如Tensorflow,Pytorch,Jax和Autograd)接口。 Pennylane可用于优化变分的量子本素体,量子近似优化,量子机学习模型和许多其他应用。
translated by 谷歌翻译
深度学习是当今机器学习中最成功和最深远的策略之一。然而,神经网络的规模和效用仍然受到用于训练它们的当前硬件的极大限制。随着常规电脑快速接近将在未来几年的情况下,常规计算机迅速接近物理限制,这些问题越来越紧。由于这些原因,科学家们已经开始探索替代计算平台,如量子计算机,用于训练神经网络。近年来,变分量子电路已成为在嘈杂的中间秤量子器件上量子深度学习的最成功的方法之一。我们提出了一种混合量子古典神经网络架构,其中每个神经元是变形量子电路。我们使用模拟通用量子计算机和艺术通用量子计算机的状态来统一地分析该混合神经网络对一系列二元分类数据集的性能。在模拟硬件上,我们观察到混合神经网络的分类精度高出10%,比各个变分量子电路更好地最小化了20%。在Quantum硬件上,我们观察到每个模型仅在Qubit和栅极计数足够小时执行良好。
translated by 谷歌翻译
变异量子算法已被认为是实现有意义的任务(包括机器学习和组合优化)的近期量子优势的领先策略。当应用于涉及经典数据的任务时,这种算法通常从用于数据编码的量子电路开始,然后训练量子神经网络(QNN)以最小化目标函数。尽管已经广泛研究了QNN,以提高这些算法在实际任务上的性能,但系统地了解编码数据对最终性能的影响存在差距。在本文中,我们通过考虑基于参数化量子电路的常见数据编码策略来填补这一空白。我们证明,在合理的假设下,平均编码状态与最大混合状态之间的距离可以明确地相对于编码电路的宽度和深度。该结果特别意味着平均编码状态将以指数速度的深度速度集中在最大混合状态上。这种浓度严重限制了量子分类器的功能,并严格限制了从量子信息的角度来看编码状态的区分性。我们通过在合成和公共数据集上验证这些结果来进一步支持我们的发现。我们的结果突出了机器学习任务中量子数据编码的重要性,并可能阐明未来的编码策略。
translated by 谷歌翻译
In the era of noisy intermediate scale quantum devices, variational quantum circuits (VQCs) are currently one of the main strategies for building quantum machine learning models. These models are made up of a quantum part and a classical part. The quantum part is given by a parametrization $U$, which, in general, is obtained from the product of different quantum gates. By its turn, the classical part corresponds to an optimizer that updates the parameters of $U$ in order to minimize a cost function $C$. However, despite the many applications of VQCs, there are still questions to be answered, such as for example: What is the best sequence of gates to be used? How to optimize their parameters? Which cost function to use? How the architecture of the quantum chips influences the final results? In this article, we focus on answering the last question. We will show that, in general, the cost function will tend to a typical average value the closer the parameterization used is from a $2$-design. Therefore, the closer this parameterization is to a $2$-design, the less the result of the quantum neural network model will depend on its parametrization. As a consequence, we can use the own architecture of the quantum chips to defined the VQC parametrization, avoiding the use of additional swap gates and thus diminishing the VQC depth and the associated errors.
translated by 谷歌翻译