量子技术需要准备和操纵纠缠多片状状态的方法。但是,确定给定量子状态是否纠缠还是可分离的问题通常是NP硬性问题,甚至很难检测到给定量子状态的纠缠崩溃的任务。在这项工作中,我们开发了一种使用机器学习技术来揭示纠缠崩溃的方法,该技术被称为“混乱学习”。我们考虑了一个量子状态的家庭,该量子已被参数化,因此在该家族中有一个临界值将单个临界价值分为单独和纠缠。我们证明了“通过混乱的学习”计划使我们能够确定关键价值。具体而言,我们研究了两分,两Qutrit和两分点纠缠状态的方法的性能。此外,我们研究了混淆方案框架中局部去极化和广义振幅阻尼通道的特性。在我们的方法和设置特殊轨迹的参数化中,我们获得了量子通道的纠缠破裂的“相图”,该通道指示纠缠(可分离)状态和纠缠破裂区域的区域。然后,我们扩展了使用“通过混乱的学习”方案来识别任意给定状态是纠缠还是可分离的方式。我们表明,开发的方法为各种状态提供了正确的答案,包括具有积极部分转置的纠缠状态。我们还提出了该方法的更实用的版本,该版本适合研究嘈杂的中间量子设备中的纠缠崩溃。我们使用可用的基于云的IBM量子处理器演示其性能。
translated by 谷歌翻译
在当前的嘈杂中间尺度量子(NISQ)时代,量子机学习正在成为基于程序门的量子计算机的主要范式。在量子机学习中,对量子电路的门进行了参数化,并且参数是根据数据和电路输出的测量来通过经典优化来调整的。参数化的量子电路(PQC)可以有效地解决组合优化问题,实施概率生成模型并进行推理(分类和回归)。该专着为具有概率和线性代数背景的工程师的观众提供了量子机学习的独立介绍。它首先描述了描述量子操作和测量所必需的必要背景,概念和工具。然后,它涵盖了参数化的量子电路,变异量子本质层以及无监督和监督的量子机学习公式。
translated by 谷歌翻译
Quantum entanglement is a fundamental property commonly used in various quantum information protocols and algorithms. Nonetheless, the problem of quantifying entanglement has still not reached general solution for systems larger than two qubits. In this paper, we investigate the possibility of detecting entanglement with the use of the supervised machine learning method, namely the deep convolutional neural networks. We build a model consisting of convolutional layers, which is able to recognize and predict the presence of entanglement for any bipartition of the given multi-qubit system. We demonstrate that training our model on synthetically generated datasets collecting random density matrices, which either include or exclude challenging positive-under-partial-transposition entangled states (PPTES), leads to the different accuracy of the model and its possibility to detect such states. Moreover, it is shown that enforcing entanglement-preserving symmetry operations (local operations on qubit or permutations of qubits) by using triple Siamese network, can significantly increase the model performance and ability to generalize on types of states not seen during the training stage. We perform numerical calculations for 3,4 and 5-qubit systems, therefore proving the scalability of the proposed approach.
translated by 谷歌翻译
在量子通道歧视的问题中,人们区分给定数量的量子通道,这是通过通过通道发送输入状态并测量输出状态来完成的。这项工作研究了跨量子电路和机器学习技术的应用,用于区分此类渠道。特别是,我们探讨了(i)将此任务嵌入到变化量子计算的框架中的实际实施,(ii)培训基于变异量子电路的量子分类器,以及(iii)应用量子核估计技术。为了测试这三种通道歧视方法,我们考虑了两种不同的去极化因子的一对纠缠破裂的通道和去极化通道。对于方法(i),我们使用广泛讨论的平行和顺序策略来解决解决量子通道歧视问题。我们在更好地收敛与量量较少的量子资源方面展示了后者的优势。具有变分量子分类器(II)的量子通道歧视即使使用随机和混合输入状态以及简单的变异电路也可以运行。基于内核的分类方法(III)也被发现有效,因为它允许人们区分不仅与去极化因子的固定值相关的去极化通道,而是与其范围相关的。此外,我们发现对一种常用核之一的简单修改显着提高了该方法的效率。最后,我们的数值发现表明,通道歧视的变分方法的性能取决于输出态乘积的痕迹。这些发现表明,量子机学习可用于区分通道,例如代表物理噪声过程的通道。
translated by 谷歌翻译
Quantum computers promise to enhance machine learning for practical applications. Quantum machine learning for real-world data has to handle extensive amounts of high-dimensional data. However, conventional methods for measuring quantum kernels are impractical for large datasets as they scale with the square of the dataset size. Here, we measure quantum kernels using randomized measurements. The quantum computation time scales linearly with dataset size and quadratic for classical post-processing. While our method scales in general exponentially in qubit number, we gain a substantial speed-up when running on intermediate-sized quantum computers. Further, we efficiently encode high-dimensional data into quantum computers with the number of features scaling linearly with the circuit depth. The encoding is characterized by the quantum Fisher information metric and is related to the radial basis function kernel. Our approach is robust to noise via a cost-free error mitigation scheme. We demonstrate the advantages of our methods for noisy quantum computers by classifying images with the IBM quantum computer. To achieve further speedups we distribute the quantum computational tasks between different quantum computers. Our method enables benchmarking of quantum machine learning algorithms with large datasets on currently available quantum computers.
translated by 谷歌翻译
量子技术有可能彻底改变我们如何获取和处理实验数据以了解物理世界。一种实验设置,将来自物理系统的数据转换为稳定的量子存储器,以及使用量子计算机的数据的处理可以具有显着的优点,这些实验可以具有测量物理系统的传统实验,并且使用经典计算机处理结果。我们证明,在各种任务中,量子机器可以从指数较少的实验中学习而不是传统实验所需的实验。指数优势在预测物理系统的预测属性中,对噪声状态进行量子主成分分析,以及学习物理动态的近似模型。在一些任务中,实现指数优势所需的量子处理可能是适度的;例如,可以通过仅处理系统的两个副本来同时了解许多非信息可观察。我们表明,可以使用当今相对嘈杂的量子处理器实现大量超导QUBITS和1300个量子门的实验。我们的结果突出了量子技术如何能够实现强大的新策略来了解自然。
translated by 谷歌翻译
高品质,大型数据集在古典机器学习的发展和成功中发挥了至关重要的作用。量子机器学习(QML)是一个新的领域,旨在使用量子计算机进行数据分析,希望获得某种量子的量子优势。虽然大多数提议的QML架构是使用经典数据集的基准测试,但仍存在古典数据集上的QML是否会实现这样的优势。在这项工作中,我们争辩说,应该使用由量子状态组成的量子数据集。为此目的,我们介绍了由量子状态组成的Ntangled DataSet,其数量和多分纠缠的类型。我们首先展示如何培训量子神经网络,以在Ntangled DataSet中生成状态。然后,我们使用Ntangled DataSet来获得用于监督学习分类任务的基准测试QML模型。我们还考虑一个基于替代的纠缠基数据集,其是可扩展的,并且由量子电路准备的状态与不同深度的状态组成。作为我们的结果的副产品,我们介绍了一种用于产生多重石纠缠态的新方法,为量子纠缠理论提供量子神经网络的用例。
translated by 谷歌翻译
深神经网络是量子状态表征的强大工具。现有网络通常是通过从需要表征的特定量子状态收集的实验数据来训练的。但是,除了用于培训的量子状态以外,是否可以离线训练神经网络并对量子状态进行预测?在这里,我们介绍了一个网络模型,该模型可以接受来自基准状态和测量结果的经典模拟数据训练,然后可以用来表征与基准集中与状态共享结构相似性的量子状态。在很少的量子物理指导下,该网络构建了自己的数据驱动的量子状态表示,然后使用它来预测尚未执行的量子测量结果的结果统计。网络产生的状态表示也可以用于超出预测结果统计数据的任务,包括量子状态的聚类和物质不同阶段的识别。我们的网络模型提供了一种灵活的方法,可以应用于在线学习方案,在该场景中,必须在实验数据可用后立即生成预测,以及学习者只能访问对量子硬件的加密描述的盲目学习场景。
translated by 谷歌翻译
现代量子机学习(QML)方法涉及在训练数据集上进行各种优化参数化量子电路,并随后对测试数据集(即,泛化)进行预测。在这项工作中,我们在培训数量为N $培训数据点后,我们在QML中对QML的普遍表现进行了全面的研究。我们表明,Quantum机器学习模型的泛化误差与$ T $培训门的尺寸在$ \ sqrt {t / n} $上缩放。当只有$ k \ ll t $ gates在优化过程中经历了大量变化时,我们证明了泛化误差改善了$ \ sqrt {k / n} $。我们的结果意味着将Unitaries编制到通常使用指数训练数据的量子计算行业的多项式栅极数量,这是一项通常使用指数尺寸训练数据的大量应用程序。我们还表明,使用量子卷积神经网络的相位过渡的量子状态的分类只需要一个非常小的训练数据集。其他潜在应用包括学习量子误差校正代码或量子动态模拟。我们的工作将新的希望注入QML领域,因为较少的培训数据保证了良好的概括。
translated by 谷歌翻译
FIG. 1. Schematic diagram of a Variational Quantum Algorithm (VQA). The inputs to a VQA are: a cost function C(θ), with θ a set of parameters that encodes the solution to the problem, an ansatz whose parameters are trained to minimize the cost, and (possibly) a set of training data {ρ k } used during the optimization. Here, the cost can often be expressed in the form in Eq. ( 3), for some set of functions {f k }. Also, the ansatz is shown as a parameterized quantum circuit (on the left), which is analogous to a neural network (also shown schematically on the right). At each iteration of the loop one uses a quantum computer to efficiently estimate the cost (or its gradients). This information is fed into a classical computer that leverages the power of optimizers to navigate the cost landscape C(θ) and solve the optimization problem in Eq. ( 1). Once a termination condition is met, the VQA outputs an estimate of the solution to the problem. The form of the output depends on the precise task at hand. The red box indicates some of the most common types of outputs.
translated by 谷歌翻译
量子机学习(QML)模型旨在从量子状态中编码的数据中学习。最近,已经表明,几乎没有归纳偏差的模型(即,对模型中嵌入的问题没有假设)可能存在训练性和概括性问题,尤其是对于大问题。因此,开发编码与当前问题有关的信息的方案是至关重要的。在这项工作中,我们提出了一个简单但功能强大的框架,其中数据中的基本不向导用于构建QML模型,该模型通过构造尊重这些对称性。这些所谓的组不变模型产生的输出在对称组$ \ mathfrak {g} $的任何元素的动作下保持不变。我们提出了理论结果,基于$ \ mathfrak {g} $ - 不变型模型的设计,并通过几个范式QML分类任务来体现其应用程序,包括$ \ mathfrak {g} $是一个连续的谎言组,也是一个lie group,也是一个。离散对称组。值得注意的是,我们的框架使我们能够以一种优雅的方式恢复文献的几种知名算法,并发现了新的算法。综上所述,我们期望我们的结果将有助于为QML模型设计采用更多几何和群体理论方法铺平道路。
translated by 谷歌翻译
找到给定目标状态的最近可分离状态是一个臭名昭着的困难任务,比决定状态是否缠绕或可分离更困难。为了解决这项任务,我们使用神经网络参加可分离状态,并训练它相对于微量距离,例如迹线距离或希尔伯特施密特距离最小化到给定目标状态的距离。通过检查算法的输出,我们可以推断目标状态是否缠绕在外,并构建其最近可分离状态的近似。我们在各种着名的两性阶段的方法上基准测试,找到了很好的协议,甚至可以达到$ d = 10 $的局部维度。此外,考虑到不同的可分离概念,我们展示了我们在多分钟案件中有效的方法。检查三个和四方GHz和W状态,我们恢复了已知的范围,并获得了新颖的边界,例如进行三维可解性。最后,我们展示了如何使用神经网络的结果来获得分析洞察力。
translated by 谷歌翻译
量子计算为某些问题提供了指数加速的潜力。但是,许多具有可证明加速的现有算法都需要当前不可用的耐故障量子计算机。我们提出了NISQ-TDA,这是第一个完全实现的量子机学习算法,其在任意经典(非手动)数据上具有可证明的指数加速,并且仅需要线性电路深度。我们报告了我们的NISQ-TDA算法的成功执行,该算法应用于在量子计算设备以及嘈杂的量子模拟器上运行的小数据集。我们从经验上证实,该算法对噪声是可靠的,并提供了目标深度和噪声水平,以实现现实世界中问题的近期,无耐受耐受性的量子优势。我们独特的数据加载投影方法是噪声鲁棒性的主要来源,引入了一种新的自我校正数据加载方法。
translated by 谷歌翻译
旨在在低维潜在空间中压缩量子信息的量子自动编码器位于量子信息领域的自动数据压缩的核心。在本文中,我们为给定的量子自动编码器建立了压缩率的上限,并提出了一种学习控制方法,用于训练自动编码器以达到最大压缩率。理论上使用特征分解和基质分化来证明压缩率的上限,这取决于输入状态的密度矩阵表示的特征值。提出了2 Q量和3 Q量系统的数值结果,以演示如何训练量子自动编码器以实现理论上最大的压缩,并比较使用不同的机器学习算法的训练性能。说明了使用量子光学系统的量子自动编码器的实验结果,以将两个2 Q Q Q Q Qubit的状态压缩为两个1 Quit状态。
translated by 谷歌翻译
近年来,机器学习的巨大进步已经开始对许多科学和技术的许多领域产生重大影响。在本文的文章中,我们探讨了量子技术如何从这项革命中受益。我们在说明性示例中展示了过去几年的科学家如何开始使用机器学习和更广泛的人工智能方法来分析量子测量,估计量子设备的参数,发现新的量子实验设置,协议和反馈策略,以及反馈策略,以及通常改善量子计算,量子通信和量子模拟的各个方面。我们重点介绍了公开挑战和未来的可能性,并在未来十年的一些投机愿景下得出结论。
translated by 谷歌翻译
量子点(QDS)阵列是一个有前途的候选系统,实现可扩展的耦合码头系统,并用作量子计算机的基本构建块。在这种半导体量子系统中,设备现在具有数十个,必须仔细地将系统仔细设置为单电子制度并实现良好的Qubit操作性能。必要点位置的映射和栅极电压的电荷提出了一个具有挑战性的经典控制问题。随着QD Qubits越来越多的QD Qubits,相关参数空间的增加充分以使启发式控制不可行。近年来,有一个相当大的努力自动化与机器学习(ML)技术相结合的基于脚本的算法。在这一讨论中,我们概述了QD器件控制自动化进展的全面概述,特别强调了在二维电子气体中形成的基于硅和GaAs的QD。将基于物理的型号与现代数值优化和ML相结合,证明在屈服高效,可扩展的控制方面已经证明非常有效。通过计算机科学和ML的理论,计算和实验努力的进一步整合,在推进半导体和量子计算平台方面具有巨大的潜力。
translated by 谷歌翻译
Hybrid quantum-classical systems make it possible to utilize existing quantum computers to their fullest extent. Within this framework, parameterized quantum circuits can be regarded as machine learning models with remarkable expressive power. This Review presents the components of these models and discusses their application to a variety of data-driven tasks, such as supervised learning and generative modeling. With an increasing number of experimental demonstrations carried out on actual quantum hardware and with software being actively developed, this rapidly growing field is poised to have a broad spectrum of real-world applications.
translated by 谷歌翻译
量子计算是使用量子力学执行计算的过程。该领域研究某些亚杀菌粒子的量子行为,以便随后在执行计算,以及大规模信息处理中使用。这些能力可以在计算时间和经典计算机上的成本方面提供量子计算机的优势。如今,由于计算复杂性或计算所需的时间,具有科学挑战,这是由于古典计算而无法执行,并且量子计算是可能的答案之一。然而,电流量子器件尚未实现必要的QUBITS,并且没有足够的容错才能实现这些目标。尽管如此,还有其他领域,如机器学习或化学,其中量子计算对电流量子器件有用。本手稿旨在展示2017年和2021年之间发布的论文的系统文献综述,以确定,分析和分类量子机器学习和其应用中使用的不同算法。因此,该研究确定了使用量子机器学习技术和算法的52篇文章。发现算法的主要类型是经典机器学习算法的量子实现,例如支持向量机或K最近邻模型,以及古典的深度学习算法,如量子神经网络。许多文章试图解决目前通过古典机器学习回答的问题,但使用量子设备和算法。即使结果很有希望,量子机器学习也远未实现其全部潜力。由于现有量子计算机缺乏足够的质量,速度和比例以允许量子计算来实现其全部潜力,因此需要提高量子硬件。
translated by 谷歌翻译
Machine learning (ML) has recently facilitated many advances in solving problems related to many-body physical systems. Given the intrinsic quantum nature of these problems, it is natural to speculate that quantum-enhanced machine learning will enable us to unveil even greater details than we currently have. With this motivation, this paper examines a quantum machine learning approach based on shallow variational ansatz inspired by tensor networks for supervised learning tasks. In particular, we first look at the standard image classification tasks using the Fashion-MNIST dataset and study the effect of repeating tensor network layers on ansatz's expressibility and performance. Finally, we use this strategy to tackle the problem of quantum phase recognition for the transverse-field Ising and Heisenberg spin models in one and two dimensions, where we were able to reach $\geq 98\%$ test-set accuracies with both multi-scale entanglement renormalization ansatz (MERA) and tree tensor network (TTN) inspired parametrized quantum circuits.
translated by 谷歌翻译
张量网络是一种用于表达和近似大量数据的分解类型。给定的数据集,量子状态或更高维的多线性图是由较小的多线性图组成的组成和近似的。这让人联想到如何将布尔函数分解为栅极阵列:这代表了张量分解的特殊情况,其中张量输入的条目被0、1替换,并且分解化精确。相关技术的收集称为张量网络方法:该主题在几个不同的研究领域中独立开发,这些领域最近通过张量网络的语言变得相互关联。该领域中的Tantamount问题涉及张量网络的可表达性和减少计算开销。张量网络与机器学习的合并是自然的。一方面,机器学习可以帮助确定近似数据集的张量网络的分解。另一方面,可以将给定的张量网络结构视为机器学习模型。本文中,调整了张量网络参数以学习或分类数据集。在这项调查中,我们恢复了张量网络的基础知识,并解释了开发机器学习中张量网络理论的持续努力。
translated by 谷歌翻译