找到给定目标状态的最近可分离状态是一个臭名昭着的困难任务,比决定状态是否缠绕或可分离更困难。为了解决这项任务,我们使用神经网络参加可分离状态,并训练它相对于微量距离,例如迹线距离或希尔伯特施密特距离最小化到给定目标状态的距离。通过检查算法的输出,我们可以推断目标状态是否缠绕在外,并构建其最近可分离状态的近似。我们在各种着名的两性阶段的方法上基准测试,找到了很好的协议,甚至可以达到$ d = 10 $的局部维度。此外,考虑到不同的可分离概念,我们展示了我们在多分钟案件中有效的方法。检查三个和四方GHz和W状态,我们恢复了已知的范围,并获得了新颖的边界,例如进行三维可解性。最后,我们展示了如何使用神经网络的结果来获得分析洞察力。
translated by 谷歌翻译
FIG. 1. Schematic diagram of a Variational Quantum Algorithm (VQA). The inputs to a VQA are: a cost function C(θ), with θ a set of parameters that encodes the solution to the problem, an ansatz whose parameters are trained to minimize the cost, and (possibly) a set of training data {ρ k } used during the optimization. Here, the cost can often be expressed in the form in Eq. ( 3), for some set of functions {f k }. Also, the ansatz is shown as a parameterized quantum circuit (on the left), which is analogous to a neural network (also shown schematically on the right). At each iteration of the loop one uses a quantum computer to efficiently estimate the cost (or its gradients). This information is fed into a classical computer that leverages the power of optimizers to navigate the cost landscape C(θ) and solve the optimization problem in Eq. ( 1). Once a termination condition is met, the VQA outputs an estimate of the solution to the problem. The form of the output depends on the precise task at hand. The red box indicates some of the most common types of outputs.
translated by 谷歌翻译
Quantum entanglement is a fundamental property commonly used in various quantum information protocols and algorithms. Nonetheless, the problem of quantifying entanglement has still not reached general solution for systems larger than two qubits. In this paper, we investigate the possibility of detecting entanglement with the use of the supervised machine learning method, namely the deep convolutional neural networks. We build a model consisting of convolutional layers, which is able to recognize and predict the presence of entanglement for any bipartition of the given multi-qubit system. We demonstrate that training our model on synthetically generated datasets collecting random density matrices, which either include or exclude challenging positive-under-partial-transposition entangled states (PPTES), leads to the different accuracy of the model and its possibility to detect such states. Moreover, it is shown that enforcing entanglement-preserving symmetry operations (local operations on qubit or permutations of qubits) by using triple Siamese network, can significantly increase the model performance and ability to generalize on types of states not seen during the training stage. We perform numerical calculations for 3,4 and 5-qubit systems, therefore proving the scalability of the proposed approach.
translated by 谷歌翻译
现代量子机学习(QML)方法涉及在训练数据集上进行各种优化参数化量子电路,并随后对测试数据集(即,泛化)进行预测。在这项工作中,我们在培训数量为N $培训数据点后,我们在QML中对QML的普遍表现进行了全面的研究。我们表明,Quantum机器学习模型的泛化误差与$ T $培训门的尺寸在$ \ sqrt {t / n} $上缩放。当只有$ k \ ll t $ gates在优化过程中经历了大量变化时,我们证明了泛化误差改善了$ \ sqrt {k / n} $。我们的结果意味着将Unitaries编制到通常使用指数训练数据的量子计算行业的多项式栅极数量,这是一项通常使用指数尺寸训练数据的大量应用程序。我们还表明,使用量子卷积神经网络的相位过渡的量子状态的分类只需要一个非常小的训练数据集。其他潜在应用包括学习量子误差校正代码或量子动态模拟。我们的工作将新的希望注入QML领域,因为较少的培训数据保证了良好的概括。
translated by 谷歌翻译
量子技术有可能彻底改变我们如何获取和处理实验数据以了解物理世界。一种实验设置,将来自物理系统的数据转换为稳定的量子存储器,以及使用量子计算机的数据的处理可以具有显着的优点,这些实验可以具有测量物理系统的传统实验,并且使用经典计算机处理结果。我们证明,在各种任务中,量子机器可以从指数较少的实验中学习而不是传统实验所需的实验。指数优势在预测物理系统的预测属性中,对噪声状态进行量子主成分分析,以及学习物理动态的近似模型。在一些任务中,实现指数优势所需的量子处理可能是适度的;例如,可以通过仅处理系统的两个副本来同时了解许多非信息可观察。我们表明,可以使用当今相对嘈杂的量子处理器实现大量超导QUBITS和1300个量子门的实验。我们的结果突出了量子技术如何能够实现强大的新策略来了解自然。
translated by 谷歌翻译
已经假设量子计算机可以很好地为机器学习中的应用提供很好。在本作工作中,我们分析通过量子内核定义的函数类。量子计算机提供了有效地计算符合难以计算的指数大密度运算符的内部产品。然而,具有指数大的特征空间使得普遍化的问题造成泛化的问题。此外,能够有效地评估高尺寸空间中的内部产品本身不能保证量子优势,因为已经是经典的漫步核可以对应于高或无限的维度再现核Hilbert空间(RKHS)。我们分析量子内核的频谱属性,并发现我们可以期待优势如果其RKHS低维度,并且包含很难经典计算的功能。如果已知目标函数位于该类中,则这意味着量子优势,因为量子计算机可以编码这种电感偏压,而没有同样的方式对功能类进行经典有效的方式。但是,我们表明查找合适的量子内核并不容易,因为内核评估可能需要指数倍数的测量。总之,我们的信息是有点令人发声的:我们猜测量子机器学习模型只有在我们设法将关于传递到量子电路的问题的知识编码的情况下,才能提供加速,同时将相同的偏差置于经典模型。难的。然而,在学习由量子流程生成的数据时,这些情况可能会被典雅地发生,但对于古典数据集来说,它们似乎更难。
translated by 谷歌翻译
在当前的嘈杂中间尺度量子(NISQ)时代,量子机学习正在成为基于程序门的量子计算机的主要范式。在量子机学习中,对量子电路的门进行了参数化,并且参数是根据数据和电路输出的测量来通过经典优化来调整的。参数化的量子电路(PQC)可以有效地解决组合优化问题,实施概率生成模型并进行推理(分类和回归)。该专着为具有概率和线性代数背景的工程师的观众提供了量子机学习的独立介绍。它首先描述了描述量子操作和测量所必需的必要背景,概念和工具。然后,它涵盖了参数化的量子电路,变异量子本质层以及无监督和监督的量子机学习公式。
translated by 谷歌翻译
高品质,大型数据集在古典机器学习的发展和成功中发挥了至关重要的作用。量子机器学习(QML)是一个新的领域,旨在使用量子计算机进行数据分析,希望获得某种量子的量子优势。虽然大多数提议的QML架构是使用经典数据集的基准测试,但仍存在古典数据集上的QML是否会实现这样的优势。在这项工作中,我们争辩说,应该使用由量子状态组成的量子数据集。为此目的,我们介绍了由量子状态组成的Ntangled DataSet,其数量和多分纠缠的类型。我们首先展示如何培训量子神经网络,以在Ntangled DataSet中生成状态。然后,我们使用Ntangled DataSet来获得用于监督学习分类任务的基准测试QML模型。我们还考虑一个基于替代的纠缠基数据集,其是可扩展的,并且由量子电路准备的状态与不同深度的状态组成。作为我们的结果的副产品,我们介绍了一种用于产生多重石纠缠态的新方法,为量子纠缠理论提供量子神经网络的用例。
translated by 谷歌翻译
量子哈密顿学习和量子吉布斯采样的双重任务与物理和化学中的许多重要问题有关。在低温方案中,这些任务的算法通常会遭受施状能力,例如因样本或时间复杂性差而遭受。为了解决此类韧性,我们将量子自然梯度下降的概括引入了参数化的混合状态,并提供了稳健的一阶近似算法,即量子 - 固定镜下降。我们使用信息几何学和量子计量学的工具证明了双重任务的数据样本效率,因此首次将经典Fisher效率的开创性结果推广到变异量子算法。我们的方法扩展了以前样品有效的技术,以允许模型选择的灵活性,包括基于量子汉密尔顿的量子模型,包括基于量子的模型,这些模型可能会规避棘手的时间复杂性。我们的一阶算法是使用经典镜下降二元性的新型量子概括得出的。两种结果都需要特殊的度量选择,即Bogoliubov-Kubo-Mori度量。为了从数值上测试我们提出的算法,我们将它们的性能与现有基准进行了关于横向场ISING模型的量子Gibbs采样任务的现有基准。最后,我们提出了一种初始化策略,利用几何局部性来建模状态的序列(例如量子 - 故事过程)的序列。我们从经验上证明了它在实际和想象的时间演化的经验上,同时定义了更广泛的潜在应用。
translated by 谷歌翻译
在为经典计算提供可证明的安全保证时,差异隐私一直是一个非常成功的概念。最近,该概念被推广到量子计算。尽管经典的计算本质上是无嘈杂的,并且通常通过人为地添加噪声来实现差异隐私,但近期量子计算机本质上是嘈杂的,并且观察到这会导致自然差异隐私作为功能。在这项工作中,我们通过将量子差异作为量子差异来讨论量子差异隐私。这种方法的一个主要优点是,差异隐私仅基于计算的输出状态成为属性,而无需对其进行每个测量。这导致了更简单的证明和对其性质的广义陈述,以及一般和特定噪声模型的几个新界限。特别是,这些包括量子电路和量子机学习概念的共同表示。在这里,我们专注于实现一定级别的差异隐私所需的噪声量与使任何计算无用的量的差异。最后,我们还将当地差异隐私,r \'enyi差异隐私和假设测试解释的经典概念推广到量子设置,从而提供了几种新的属性和见解。
translated by 谷歌翻译
即使在数十年的量子计算开发之后,通常在经典同行中具有指数加速的通常有用量子算法的示例是稀缺的。线性代数定位量子机学习(QML)的量子算法中的最新进展作为这种有用的指数改进的潜在来源。然而,在一个意想不到的发展中,最近一系列的“追逐化”结果同样迅速消除了几个QML算法的指数加速度的承诺。这提出了关键问题是否是其他线性代数QML算法的指数加速度持续存在。在本文中,我们通过该镜头研究了Lloyd,Garnerone和Zanardi的拓扑数据分析算法后面的量子算法方法。我们提供了证据表明,该算法解决的问题通过表明其自然概括与模拟一个清洁量子位模型很难地难以进行棘手的 - 这被广泛认为需要在经典计算机上需要超时时间 - 并且非常可能免疫追逐。基于此结果,我们为等级估计和复杂网络分析等问题提供了许多新的量子算法,以及其经典侵害性的复杂性 - 理论上。此外,我们分析了近期实现的所提出的量子算法的适用性。我们的结果为全面吹嘘和限制的量子计算机提供了许多有用的应用程序,具有古典方法的保证指数加速,恢复了线性代数QML的一些潜力,以成为量子计算的杀手应用之一。
translated by 谷歌翻译
已知量子计算机可以在某些专业设置中使用经典的最先进的机器学习方法提供加速。例如,已证明量子内核方法可以在离散对数问题的学习版本上提供指数加速。了解量子模型的概括对于实现实际利益问题的类似加速至关重要。最近的结果表明,量子特征空间的指数大小阻碍了概括。尽管这些结果表明,量子模型在量子数数量较大时无法概括,但在本文中,我们表明这些结果依赖于过度限制性的假设。我们通过改变称为量子内核带宽的超参数来考虑更广泛的模型。我们分析了大量限制,并为可以以封闭形式求解的量子模型的概括提供了明确的公式。具体而言,我们表明,更改带宽的值可以使模型从不能概括到任何目标函数到对准目标的良好概括。我们的分析表明,带宽如何控制内核积分操作员的光谱,从而如何控制模型的电感偏置。我们从经验上证明,我们的理论正确地预测带宽如何影响质量模型在具有挑战性的数据集上的概括,包括远远超出我们理论假设的数据集。我们讨论了结果对机器学习中量子优势的含义。
translated by 谷歌翻译
Quantum-enhanced data science, also known as quantum machine learning (QML), is of growing interest as an application of near-term quantum computers. Variational QML algorithms have the potential to solve practical problems on real hardware, particularly when involving quantum data. However, training these algorithms can be challenging and calls for tailored optimization procedures. Specifically, QML applications can require a large shot-count overhead due to the large datasets involved. In this work, we advocate for simultaneous random sampling over both the dataset as well as the measurement operators that define the loss function. We consider a highly general loss function that encompasses many QML applications, and we show how to construct an unbiased estimator of its gradient. This allows us to propose a shot-frugal gradient descent optimizer called Refoqus (REsource Frugal Optimizer for QUantum Stochastic gradient descent). Our numerics indicate that Refoqus can save several orders of magnitude in shot cost, even relative to optimizers that sample over measurement operators alone.
translated by 谷歌翻译
基于参数化量子电路的量子机器学习(QML)模型通常被突出显示为量子计算的近期“杀手应用”的候选者。然而,对这些模型的实证和泛化表现的理解仍处于起步阶段。在本文中,我们研究了如何为HAVL \'I \ V {C} EK等人介绍的两个突出的QML模型之间的培训准确性和泛化性能(也称为结构风险最小化)之间的平衡。 (自然,2019年)和Schuld和Killoran(PRL,2019)。首先,利用与良好的古典模型的关系,我们证明了两个模型参数 - 即图像使用的图像和弗罗布尼乌斯的规范 - 模型使用的可观察的规范 - 密切控制模型的复杂性,因此其泛化表现。其次,使用受工艺断层扫描的启发的想法,我们证明这些模型参数还密切控制模型捕获培训示例中相关性的能力。总之,我们的结果引起了对QML模型的结构风险最小化的新选择。
translated by 谷歌翻译
量子机学习(QML)模型旨在从量子状态中编码的数据中学习。最近,已经表明,几乎没有归纳偏差的模型(即,对模型中嵌入的问题没有假设)可能存在训练性和概括性问题,尤其是对于大问题。因此,开发编码与当前问题有关的信息的方案是至关重要的。在这项工作中,我们提出了一个简单但功能强大的框架,其中数据中的基本不向导用于构建QML模型,该模型通过构造尊重这些对称性。这些所谓的组不变模型产生的输出在对称组$ \ mathfrak {g} $的任何元素的动作下保持不变。我们提出了理论结果,基于$ \ mathfrak {g} $ - 不变型模型的设计,并通过几个范式QML分类任务来体现其应用程序,包括$ \ mathfrak {g} $是一个连续的谎言组,也是一个lie group,也是一个。离散对称组。值得注意的是,我们的框架使我们能够以一种优雅的方式恢复文献的几种知名算法,并发现了新的算法。综上所述,我们期望我们的结果将有助于为QML模型设计采用更多几何和群体理论方法铺平道路。
translated by 谷歌翻译
量子机学习(QML)中的内核方法最近引起了人们的重大关注,作为在数据分析中获得量子优势的潜在候选者。在其他有吸引力的属性中,当训练基于内核的模型时,可以保证由于训练格局的凸度而找到最佳模型的参数。但是,这是基于以下假设:量子内核可以从量子硬件有效获得。在这项工作中,我们从准确估计内核值所需的资源的角度研究了量子内核的训练性。我们表明,在某些条件下,可以将量子内核在不同输入数据上的值呈指数浓缩(在量子数中)指向一些固定值,从而导致成功训练所需的测量数量的指数缩放。我们确定了可以导致集中度的四个来源,包括:数据嵌入,全球测量,纠缠和噪声的表达性。对于每个来源,分析得出量子内核的相关浓度结合。最后,我们表明,在处理经典数据时,训练用内核比对方法嵌入的参数化数据也容易受到指数浓度的影响。我们的结果通过数值仿真来验证几个QML任务。总体而言,我们提供指南,表明应避免某些功能,以确保量子内核方法的有效评估和训练性。
translated by 谷歌翻译
量子技术需要准备和操纵纠缠多片状状态的方法。但是,确定给定量子状态是否纠缠还是可分离的问题通常是NP硬性问题,甚至很难检测到给定量子状态的纠缠崩溃的任务。在这项工作中,我们开发了一种使用机器学习技术来揭示纠缠崩溃的方法,该技术被称为“混乱学习”。我们考虑了一个量子状态的家庭,该量子已被参数化,因此在该家族中有一个临界值将单个临界价值分为单独和纠缠。我们证明了“通过混乱的学习”计划使我们能够确定关键价值。具体而言,我们研究了两分,两Qutrit和两分点纠缠状态的方法的性能。此外,我们研究了混淆方案框架中局部去极化和广义振幅阻尼通道的特性。在我们的方法和设置特殊轨迹的参数化中,我们获得了量子通道的纠缠破裂的“相图”,该通道指示纠缠(可分离)状态和纠缠破裂区域的区域。然后,我们扩展了使用“通过混乱的学习”方案来识别任意给定状态是纠缠还是可分离的方式。我们表明,开发的方法为各种状态提供了正确的答案,包括具有积极部分转置的纠缠状态。我们还提出了该方法的更实用的版本,该版本适合研究嘈杂的中间量子设备中的纠缠崩溃。我们使用可用的基于云的IBM量子处理器演示其性能。
translated by 谷歌翻译
量子计算有可能彻底改变和改变我们的生活和理解世界的方式。该审查旨在提供对量子计算的可访问介绍,重点是统计和数据分析中的应用。我们从介绍了了解量子计算所需的基本概念以及量子和经典计算之间的差异。我们描述了用作量子算法的构建块的核心量子子程序。然后,我们审查了一系列预期的量子算法,以便在统计和机器学习中提供计算优势。我们突出了将量子计算应用于统计问题的挑战和机遇,并讨论潜在的未来研究方向。
translated by 谷歌翻译
量子计算为某些问题提供了指数加速的潜力。但是,许多具有可证明加速的现有算法都需要当前不可用的耐故障量子计算机。我们提出了NISQ-TDA,这是第一个完全实现的量子机学习算法,其在任意经典(非手动)数据上具有可证明的指数加速,并且仅需要线性电路深度。我们报告了我们的NISQ-TDA算法的成功执行,该算法应用于在量子计算设备以及嘈杂的量子模拟器上运行的小数据集。我们从经验上证实,该算法对噪声是可靠的,并提供了目标深度和噪声水平,以实现现实世界中问题的近期,无耐受耐受性的量子优势。我们独特的数据加载投影方法是噪声鲁棒性的主要来源,引入了一种新的自我校正数据加载方法。
translated by 谷歌翻译
我们通过使用KRAUS操作员学习过程表示,对离散和连续变量量子系统执行量子过程断层扫描(QPT)。克劳斯形式确保重建过程是完全积极的。为了使过程保持痕量保护,我们在优化期间在所谓的stiefel歧管上使用约束的梯度散发(GD)方法,以获得Kraus oberators。我们的Ansatz使用一些KRAUS操作员来避免直接估计大型过程矩阵,例如Choi矩阵,用于低级别量子过程。 GD-QPT匹配压缩 - 感应(CS)和投影最小二乘(PLS)QPT的基准测试中的性能,并具有两Q量的随机过程,但是通过结合这两种方法的最佳功能来发光。与CS相似(但与PLS不同),GD-QPT可以从少量随机测量中重建一个过程,并且类似于PLS(但与CS不同),它也适用于更大的系统尺寸,最多可达至少五个Qubits。我们设想,GD-QPT的数据驱动方法可以成为一种实用工具,可大大降低中等规模量子系统中QPT的成本和计算工作。
translated by 谷歌翻译