旨在在低维潜在空间中压缩量子信息的量子自动编码器位于量子信息领域的自动数据压缩的核心。在本文中,我们为给定的量子自动编码器建立了压缩率的上限,并提出了一种学习控制方法,用于训练自动编码器以达到最大压缩率。理论上使用特征分解和基质分化来证明压缩率的上限,这取决于输入状态的密度矩阵表示的特征值。提出了2 Q量和3 Q量系统的数值结果,以演示如何训练量子自动编码器以实现理论上最大的压缩,并比较使用不同的机器学习算法的训练性能。说明了使用量子光学系统的量子自动编码器的实验结果,以将两个2 Q Q Q Q Qubit的状态压缩为两个1 Quit状态。
translated by 谷歌翻译
量子计算机是下一代设备,有望执行超出古典计算机范围的计算。实现这一目标的主要方法是通过量子机学习,尤其是量子生成学习。由于量子力学的固有概率性质,因此可以合理地假设量子生成学习模型(QGLM)可能会超过其经典对应物。因此,QGLM正在从量子物理和计算机科学社区中受到越来越多的关注,在这些QGLM中,可以在近期量子机上有效实施各种QGLM,并提出了潜在的计算优势。在本文中,我们从机器学习的角度回顾了QGLM的当前进度。特别是,我们解释了这些QGLM,涵盖了量子电路出生的机器,量子生成的对抗网络,量子玻尔兹曼机器和量子自动编码器,作为经典生成学习模型的量子扩展。在这种情况下,我们探讨了它们的内在关系及其根本差异。我们进一步总结了QGLM在常规机器学习任务和量子物理学中的潜在应用。最后,我们讨论了QGLM的挑战和进一步研究指示。
translated by 谷歌翻译
FIG. 1. Schematic diagram of a Variational Quantum Algorithm (VQA). The inputs to a VQA are: a cost function C(θ), with θ a set of parameters that encodes the solution to the problem, an ansatz whose parameters are trained to minimize the cost, and (possibly) a set of training data {ρ k } used during the optimization. Here, the cost can often be expressed in the form in Eq. ( 3), for some set of functions {f k }. Also, the ansatz is shown as a parameterized quantum circuit (on the left), which is analogous to a neural network (also shown schematically on the right). At each iteration of the loop one uses a quantum computer to efficiently estimate the cost (or its gradients). This information is fed into a classical computer that leverages the power of optimizers to navigate the cost landscape C(θ) and solve the optimization problem in Eq. ( 1). Once a termination condition is met, the VQA outputs an estimate of the solution to the problem. The form of the output depends on the precise task at hand. The red box indicates some of the most common types of outputs.
translated by 谷歌翻译
量子计算有可能彻底改变和改变我们的生活和理解世界的方式。该审查旨在提供对量子计算的可访问介绍,重点是统计和数据分析中的应用。我们从介绍了了解量子计算所需的基本概念以及量子和经典计算之间的差异。我们描述了用作量子算法的构建块的核心量子子程序。然后,我们审查了一系列预期的量子算法,以便在统计和机器学习中提供计算优势。我们突出了将量子计算应用于统计问题的挑战和机遇,并讨论潜在的未来研究方向。
translated by 谷歌翻译
在当前的嘈杂中间尺度量子(NISQ)时代,量子机学习正在成为基于程序门的量子计算机的主要范式。在量子机学习中,对量子电路的门进行了参数化,并且参数是根据数据和电路输出的测量来通过经典优化来调整的。参数化的量子电路(PQC)可以有效地解决组合优化问题,实施概率生成模型并进行推理(分类和回归)。该专着为具有概率和线性代数背景的工程师的观众提供了量子机学习的独立介绍。它首先描述了描述量子操作和测量所必需的必要背景,概念和工具。然后,它涵盖了参数化的量子电路,变异量子本质层以及无监督和监督的量子机学习公式。
translated by 谷歌翻译
探索近期量子设备的量子应用是具有理论和实际利益的量子信息科学的快速增长领域。建立这种近期量子应用的领先范式是变异量子算法(VQAS)。这些算法使用经典优化器来训练参数化的量子电路以完成某些任务,其中电路通常是随机初始初始初始化的。在这项工作中,我们证明,对于一系列此类随机电路,成本函数的变化范围通过调整电路中的任何局部量子门在具有很高概率的Qubits数量中呈指数级消失。该结果可以自然地统一对基于梯度和无梯度的优化的限制,并揭示对VQA的训练景观的额外严格限制。因此,对VQA的训练性的基本限制是拆开的,这表明具有指数尺寸的希尔伯特空间中优化硬度的基本机制。我们通过代表性VQA的数值模拟进一步展示了结果的有效性。我们认为,这些结果将加深我们对VQA的可扩展性的理解,并阐明了搜索具有优势的近期量子应用程序。
translated by 谷歌翻译
量子Gibbs状态的制备是量子计算的重要组成部分,在各种区域具有广泛的应用,包括量子仿真,量子优化和量子机器学习。在本文中,我们提出了用于量子吉布斯状态准备的变分杂化量子典型算法。我们首先利用截短的泰勒系列来评估自由能,并选择截短的自由能量作为损耗功能。然后,我们的协议训练参数化量子电路以学习所需的量子吉布斯状态。值得注意的是,该算法可以在配备有参数化量子电路的近期量子计算机上实现。通过执行数值实验,我们显示浅参数化电路,只有一个额外的量子位训练,以便准备诸如高于95%的保真度的insing链和旋转链Gibbs状态。特别地,对于ising链模型,我们发现,只有一个参数和一个额外的qubit的简化电路ansatz可以训练,以在大于2的逆温度下实现吉布斯状态准备中的99%保真度。
translated by 谷歌翻译
Quantum-enhanced data science, also known as quantum machine learning (QML), is of growing interest as an application of near-term quantum computers. Variational QML algorithms have the potential to solve practical problems on real hardware, particularly when involving quantum data. However, training these algorithms can be challenging and calls for tailored optimization procedures. Specifically, QML applications can require a large shot-count overhead due to the large datasets involved. In this work, we advocate for simultaneous random sampling over both the dataset as well as the measurement operators that define the loss function. We consider a highly general loss function that encompasses many QML applications, and we show how to construct an unbiased estimator of its gradient. This allows us to propose a shot-frugal gradient descent optimizer called Refoqus (REsource Frugal Optimizer for QUantum Stochastic gradient descent). Our numerics indicate that Refoqus can save several orders of magnitude in shot cost, even relative to optimizers that sample over measurement operators alone.
translated by 谷歌翻译
有望在近期量子计算机上建立有价值的应用程序。但是,最近的作品指出,VQA的性能极大地依赖于Ansatzes的表现性,并且受到优化问题(例如贫瘠的高原(即消失的梯度))的严重限制。这项工作提出了国家有效的ANSATZ(SEA),以改善训练性,以进行准确的基态制备。我们表明,海洋可以产生一个任意纯状态,其参数比通用的安萨兹少得多,从而使其适合基态估计等任务有效。然后,我们证明可以通过灵活地调节海洋的纠缠能力来有效地通过海洋有效地减轻贫瘠的高原,并可以最大程度地提高训练性。最后,我们研究了大量的示例,在基础状态估计中,我们在成本梯度和收敛速度的幅度上得到了显着改善。
translated by 谷歌翻译
现代量子机学习(QML)方法涉及在训练数据集上进行各种优化参数化量子电路,并随后对测试数据集(即,泛化)进行预测。在这项工作中,我们在培训数量为N $培训数据点后,我们在QML中对QML的普遍表现进行了全面的研究。我们表明,Quantum机器学习模型的泛化误差与$ T $培训门的尺寸在$ \ sqrt {t / n} $上缩放。当只有$ k \ ll t $ gates在优化过程中经历了大量变化时,我们证明了泛化误差改善了$ \ sqrt {k / n} $。我们的结果意味着将Unitaries编制到通常使用指数训练数据的量子计算行业的多项式栅极数量,这是一项通常使用指数尺寸训练数据的大量应用程序。我们还表明,使用量子卷积神经网络的相位过渡的量子状态的分类只需要一个非常小的训练数据集。其他潜在应用包括学习量子误差校正代码或量子动态模拟。我们的工作将新的希望注入QML领域,因为较少的培训数据保证了良好的概括。
translated by 谷歌翻译
作为量子优势的应用,对动态模拟和量子机学习(QML)的关注很大,而使用QML来增强动态模拟的可能性尚未得到彻底研究。在这里,我们开发了一个框架,用于使用QML方法模拟近期量子硬件上的量子动力学。我们使用概括范围,即机器学习模型在看不见的数据上遇到的错误,以严格分析此框架内算法的训练数据要求。这提供了一种保证,就量子和数据要求而言,我们的算法是资源有效的。我们的数字具有问题大小的有效缩放,我们模拟了IBMQ-Bogota上的Trotterization的20倍。
translated by 谷歌翻译
量子技术有可能彻底改变我们如何获取和处理实验数据以了解物理世界。一种实验设置,将来自物理系统的数据转换为稳定的量子存储器,以及使用量子计算机的数据的处理可以具有显着的优点,这些实验可以具有测量物理系统的传统实验,并且使用经典计算机处理结果。我们证明,在各种任务中,量子机器可以从指数较少的实验中学习而不是传统实验所需的实验。指数优势在预测物理系统的预测属性中,对噪声状态进行量子主成分分析,以及学习物理动态的近似模型。在一些任务中,实现指数优势所需的量子处理可能是适度的;例如,可以通过仅处理系统的两个副本来同时了解许多非信息可观察。我们表明,可以使用当今相对嘈杂的量子处理器实现大量超导QUBITS和1300个量子门的实验。我们的结果突出了量子技术如何能够实现强大的新策略来了解自然。
translated by 谷歌翻译
The emergence of variational quantum applications has led to the development of automatic differentiation techniques in quantum computing. Recently, Zhu et al. (PLDI 2020) have formulated differentiable quantum programming with bounded loops, providing a framework for scalable gradient calculation by quantum means for training quantum variational applications. However, promising parameterized quantum applications, e.g., quantum walk and unitary implementation, cannot be trained in the existing framework due to the natural involvement of unbounded loops. To fill in the gap, we provide the first differentiable quantum programming framework with unbounded loops, including a newly designed differentiation rule, code transformation, and their correctness proof. Technically, we introduce a randomized estimator for derivatives to deal with the infinite sum in the differentiation of unbounded loops, whose applicability in classical and probabilistic programming is also discussed. We implement our framework with Python and Q#, and demonstrate a reasonable sample efficiency. Through extensive case studies, we showcase an exciting application of our framework in automatically identifying close-to-optimal parameters for several parameterized quantum applications.
translated by 谷歌翻译
变异量子算法已被认为是实现有意义的任务(包括机器学习和组合优化)的近期量子优势的领先策略。当应用于涉及经典数据的任务时,这种算法通常从用于数据编码的量子电路开始,然后训练量子神经网络(QNN)以最小化目标函数。尽管已经广泛研究了QNN,以提高这些算法在实际任务上的性能,但系统地了解编码数据对最终性能的影响存在差距。在本文中,我们通过考虑基于参数化量子电路的常见数据编码策略来填补这一空白。我们证明,在合理的假设下,平均编码状态与最大混合状态之间的距离可以明确地相对于编码电路的宽度和深度。该结果特别意味着平均编码状态将以指数速度的深度速度集中在最大混合状态上。这种浓度严重限制了量子分类器的功能,并严格限制了从量子信息的角度来看编码状态的区分性。我们通过在合成和公共数据集上验证这些结果来进一步支持我们的发现。我们的结果突出了机器学习任务中量子数据编码的重要性,并可能阐明未来的编码策略。
translated by 谷歌翻译
由于量子计算的超古典能力,量子机学习是独立应用的,或嵌入了经典模型中以进行决策,尤其是在金融领域。公平和其他道德问题通常是决策的主要关注点之一。在这项工作中,我们为量子机器学习决策模型的公平验证和分析定义了一个正式的框架,我们根据直觉采用了文献中最受欢迎的公平概念之一 - 任何两个类似的人都必须接受类似的对待因此是公正的。我们表明,量子噪声可以提高公平性并开发出一种算法来检查(嘈杂的)量子机学习模型是否公平。特别是,该算法可以在检查过程中找到量子数据(编码个体)的偏置核。这些偏置内核产生无限的偏置对,以研究模型的不公平性。我们的算法是基于高效的数据结构(张量网络)设计的,并在Google的TensorFlow量子上实现。我们的算法的实用性和有效性通过实验结果确认,包括对现实世界数据的收入预测和信用评分,用于一类随机(嘈杂)量子决策模型,具有27个Qubits($ 2^{27} $ - 尺寸状态)空间)三倍($ 2^{18} $乘以$倍的$倍),用于验证量子机学习模型的最新算法。
translated by 谷歌翻译
当我们继续找到当前可用的嘈杂设备比其经典配音具有优势的应用程序时,高效利用量子资源是非常可取的。提出了量子自动编码器的概念,是压缩量子信息以减少资源需求的一种方式。在这里,我们提出了一种使用进化算法来设计量子自动编码器的策略,以将量子信息转换为较低维表示。我们成功地证明了该算法在压缩量子状态的不同家族中的初始应用。特别是,我们指出,使用算法中的限制门设置可以有效地模拟生成的电路。这种方法可以使用更少的计算资源来使用经典逻辑来找到量子数据的低表示。
translated by 谷歌翻译
Hybrid quantum-classical systems make it possible to utilize existing quantum computers to their fullest extent. Within this framework, parameterized quantum circuits can be regarded as machine learning models with remarkable expressive power. This Review presents the components of these models and discusses their application to a variety of data-driven tasks, such as supervised learning and generative modeling. With an increasing number of experimental demonstrations carried out on actual quantum hardware and with software being actively developed, this rapidly growing field is poised to have a broad spectrum of real-world applications.
translated by 谷歌翻译
量子机学习(QML)中的内核方法最近引起了人们的重大关注,作为在数据分析中获得量子优势的潜在候选者。在其他有吸引力的属性中,当训练基于内核的模型时,可以保证由于训练格局的凸度而找到最佳模型的参数。但是,这是基于以下假设:量子内核可以从量子硬件有效获得。在这项工作中,我们从准确估计内核值所需的资源的角度研究了量子内核的训练性。我们表明,在某些条件下,可以将量子内核在不同输入数据上的值呈指数浓缩(在量子数中)指向一些固定值,从而导致成功训练所需的测量数量的指数缩放。我们确定了可以导致集中度的四个来源,包括:数据嵌入,全球测量,纠缠和噪声的表达性。对于每个来源,分析得出量子内核的相关浓度结合。最后,我们表明,在处理经典数据时,训练用内核比对方法嵌入的参数化数据也容易受到指数浓度的影响。我们的结果通过数值仿真来验证几个QML任务。总体而言,我们提供指南,表明应避免某些功能,以确保量子内核方法的有效评估和训练性。
translated by 谷歌翻译
变形量子算法(VQAS)可以是噪声中间级量子(NISQ)计算机上的量子优势的路径。自然问题是NISQ设备的噪声是否对VQA性能的基本限制。我们严格证明对嘈杂的VQAS进行严重限制,因为噪音导致训练景观具有贫瘠高原(即消失梯度)。具体而言,对于考虑的本地Pauli噪声,我们证明梯度在Qubits $ N $的数量中呈指数呈指数增长,如果Ansatz的深度以$ N $线性增长。这些噪声诱导的贫瘠强韧(NIBPS)在概念上不同于无辐射贫瘠强度,其与随机参数初始化相关联。我们的结果是为通用Ansatz制定的,该通用ansatz包括量子交替运算符ANSATZ和酉耦合簇Ansatz等特殊情况。对于前者来说,我们的数值启发式展示了用于现实硬件噪声模型的NIBP现象。
translated by 谷歌翻译
已经提出了一些用于量子神经网络(QNN)的体系结构,目的是有效地执行机器学习任务。对于特定的QNN结构,迫切需要进行严格的缩放结果,以了解哪种(如果有的话)可以大规模训练。在这里,我们为最近提出的架构分析了梯度缩放(以及训练性),该体系结构称为耗散QNNS(DQNNS),其中每层的输入量子位在该图层的输出处丢弃。我们发现DQNNS可以表现出贫瘠的高原,即在量子数量中呈指数级消失的梯度。此外,我们在不同条件下(例如不同的成本函数和电路深度)的DQNN梯度的缩放范围提供定量界限,并表明并非总是可以保证可训练性。
translated by 谷歌翻译