诸如纠缠和连贯性的量子属性是各种量子信息处理任务中的不可或缺的资源。然而,仍然缺乏有效和可扩展的方法来检测这些有用的特征,特别是对于高维和多分钟量子系统。在这项工作中,我们利用样品的凸性,没有所需的量子特征,并设计无监督的机器学习方法,以检测异常等特征的存在。特别是,在纠缠检测的背景下,我们提出了一种由伪暹罗网络和生成的对抗网组成的复合性神经网络,然后仅使用可分离状态培训,以构建非线性证人来纠缠的纠缠。通过数值示例显示,从两种时序到十个QUB比特系统,我们的网络能够实现高于97.5%的高检测精度.ORORE,它能够揭示富有的缠结结构,例如子系统中的部分纠缠。我们的结果是随时适用于检测其他量子资源,如Bell Nonelocity和Steravency,因此我们的工作可以提供强大的工具,以提取隐藏在多分钟量子数据中的量子特征。
translated by 谷歌翻译
Quantum entanglement is a fundamental property commonly used in various quantum information protocols and algorithms. Nonetheless, the problem of quantifying entanglement has still not reached general solution for systems larger than two qubits. In this paper, we investigate the possibility of detecting entanglement with the use of the supervised machine learning method, namely the deep convolutional neural networks. We build a model consisting of convolutional layers, which is able to recognize and predict the presence of entanglement for any bipartition of the given multi-qubit system. We demonstrate that training our model on synthetically generated datasets collecting random density matrices, which either include or exclude challenging positive-under-partial-transposition entangled states (PPTES), leads to the different accuracy of the model and its possibility to detect such states. Moreover, it is shown that enforcing entanglement-preserving symmetry operations (local operations on qubit or permutations of qubits) by using triple Siamese network, can significantly increase the model performance and ability to generalize on types of states not seen during the training stage. We perform numerical calculations for 3,4 and 5-qubit systems, therefore proving the scalability of the proposed approach.
translated by 谷歌翻译
量子计算机是下一代设备,有望执行超出古典计算机范围的计算。实现这一目标的主要方法是通过量子机学习,尤其是量子生成学习。由于量子力学的固有概率性质,因此可以合理地假设量子生成学习模型(QGLM)可能会超过其经典对应物。因此,QGLM正在从量子物理和计算机科学社区中受到越来越多的关注,在这些QGLM中,可以在近期量子机上有效实施各种QGLM,并提出了潜在的计算优势。在本文中,我们从机器学习的角度回顾了QGLM的当前进度。特别是,我们解释了这些QGLM,涵盖了量子电路出生的机器,量子生成的对抗网络,量子玻尔兹曼机器和量子自动编码器,作为经典生成学习模型的量子扩展。在这种情况下,我们探讨了它们的内在关系及其根本差异。我们进一步总结了QGLM在常规机器学习任务和量子物理学中的潜在应用。最后,我们讨论了QGLM的挑战和进一步研究指示。
translated by 谷歌翻译
找到给定目标状态的最近可分离状态是一个臭名昭着的困难任务,比决定状态是否缠绕或可分离更困难。为了解决这项任务,我们使用神经网络参加可分离状态,并训练它相对于微量距离,例如迹线距离或希尔伯特施密特距离最小化到给定目标状态的距离。通过检查算法的输出,我们可以推断目标状态是否缠绕在外,并构建其最近可分离状态的近似。我们在各种着名的两性阶段的方法上基准测试,找到了很好的协议,甚至可以达到$ d = 10 $的局部维度。此外,考虑到不同的可分离概念,我们展示了我们在多分钟案件中有效的方法。检查三个和四方GHz和W状态,我们恢复了已知的范围,并获得了新颖的边界,例如进行三维可解性。最后,我们展示了如何使用神经网络的结果来获得分析洞察力。
translated by 谷歌翻译
高品质,大型数据集在古典机器学习的发展和成功中发挥了至关重要的作用。量子机器学习(QML)是一个新的领域,旨在使用量子计算机进行数据分析,希望获得某种量子的量子优势。虽然大多数提议的QML架构是使用经典数据集的基准测试,但仍存在古典数据集上的QML是否会实现这样的优势。在这项工作中,我们争辩说,应该使用由量子状态组成的量子数据集。为此目的,我们介绍了由量子状态组成的Ntangled DataSet,其数量和多分纠缠的类型。我们首先展示如何培训量子神经网络,以在Ntangled DataSet中生成状态。然后,我们使用Ntangled DataSet来获得用于监督学习分类任务的基准测试QML模型。我们还考虑一个基于替代的纠缠基数据集,其是可扩展的,并且由量子电路准备的状态与不同深度的状态组成。作为我们的结果的副产品,我们介绍了一种用于产生多重石纠缠态的新方法,为量子纠缠理论提供量子神经网络的用例。
translated by 谷歌翻译
在当前的嘈杂中间尺度量子(NISQ)时代,量子机学习正在成为基于程序门的量子计算机的主要范式。在量子机学习中,对量子电路的门进行了参数化,并且参数是根据数据和电路输出的测量来通过经典优化来调整的。参数化的量子电路(PQC)可以有效地解决组合优化问题,实施概率生成模型并进行推理(分类和回归)。该专着为具有概率和线性代数背景的工程师的观众提供了量子机学习的独立介绍。它首先描述了描述量子操作和测量所必需的必要背景,概念和工具。然后,它涵盖了参数化的量子电路,变异量子本质层以及无监督和监督的量子机学习公式。
translated by 谷歌翻译
量子技术需要准备和操纵纠缠多片状状态的方法。但是,确定给定量子状态是否纠缠还是可分离的问题通常是NP硬性问题,甚至很难检测到给定量子状态的纠缠崩溃的任务。在这项工作中,我们开发了一种使用机器学习技术来揭示纠缠崩溃的方法,该技术被称为“混乱学习”。我们考虑了一个量子状态的家庭,该量子已被参数化,因此在该家族中有一个临界值将单个临界价值分为单独和纠缠。我们证明了“通过混乱的学习”计划使我们能够确定关键价值。具体而言,我们研究了两分,两Qutrit和两分点纠缠状态的方法的性能。此外,我们研究了混淆方案框架中局部去极化和广义振幅阻尼通道的特性。在我们的方法和设置特殊轨迹的参数化中,我们获得了量子通道的纠缠破裂的“相图”,该通道指示纠缠(可分离)状态和纠缠破裂区域的区域。然后,我们扩展了使用“通过混乱的学习”方案来识别任意给定状态是纠缠还是可分离的方式。我们表明,开发的方法为各种状态提供了正确的答案,包括具有积极部分转置的纠缠状态。我们还提出了该方法的更实用的版本,该版本适合研究嘈杂的中间量子设备中的纠缠崩溃。我们使用可用的基于云的IBM量子处理器演示其性能。
translated by 谷歌翻译
Hybrid quantum-classical systems make it possible to utilize existing quantum computers to their fullest extent. Within this framework, parameterized quantum circuits can be regarded as machine learning models with remarkable expressive power. This Review presents the components of these models and discusses their application to a variety of data-driven tasks, such as supervised learning and generative modeling. With an increasing number of experimental demonstrations carried out on actual quantum hardware and with software being actively developed, this rapidly growing field is poised to have a broad spectrum of real-world applications.
translated by 谷歌翻译
Quantum语言模型(QLMS),其中单词被建模为SEQUEMES的量子叠加,已经证明了高水平的模型透明度和良好的性能解释性。然而,在当前的文献字序列中,基本上模拟为单词状态的经典混合物,这不能完全利用量子概率描述的潜力。尚未开发完整量子模型以明确地捕获单词序列内的非古典相关性。我们提出了一种具有新颖纠缠嵌入(EE)模块的神经网络模型,其功能是将单词序列转换为许多身体量子系统的缠结纯状态。在单词序列内观察到强量子缠结,即量子信息的中心信息的中心概念和单词之间的并行相关相关性的指示。数值实验表明,与EE(QLM-EE)的提议的QLM与古典深神经网络模型和问题接听(QA)数据集的其他QLMS相比实现了卓越的性能。此外,可以通过量化词语之间的缠结程度来提高模型的后HOC可解释性。
translated by 谷歌翻译
我们提出了一种新的混合系统,用于通过使用多目标遗传算法在灰度图像上自动生成和训练量子启发的分类器。我们定义一个动态健身函数,以获得最小的电路和最高的观点数据准确性,以确保所提出的技术是可推广且健壮的。我们通过惩罚其外观来最大程度地减少生成电路的复杂性。我们使用二维降低方法减少图像的大小:主成分分析(PCA),该分析(PCA)是为了优化目的而在个体中编码的,以及一个小的卷积自动编码器(CAE)。将这两种方法相互比较,并采用经典的非线性方法来理解其行为,并确保分类能力是由于量子电路而不是用于降低维度的预处理技术引起的。
translated by 谷歌翻译
Anomaly detection is a classical problem in computer vision, namely the determination of the normal from the abnormal when datasets are highly biased towards one class (normal) due to the insufficient sample size of the other class (abnormal). While this can be addressed as a supervised learning problem, a significantly more challenging problem is that of detecting the unknown/unseen anomaly case that takes us instead into the space of a one-class, semi-supervised learning paradigm. We introduce such a novel anomaly detection model, by using a conditional generative adversarial network that jointly learns the generation of high-dimensional image space and the inference of latent space. Employing encoder-decoder-encoder sub-networks in the generator network enables the model to map the input image to a lower dimension vector, which is then used to reconstruct the generated output image. The use of the additional encoder network maps this generated image to its latent representation. Minimizing the distance between these images and the latent vectors during training aids in learning the data distribution for the normal samples. As a result, a larger distance metric from this learned data distribution at inference time is indicative of an outlier from that distribution -an anomaly. Experimentation over several benchmark datasets, from varying domains, shows the model efficacy and superiority over previous state-of-the-art approaches.
translated by 谷歌翻译
张量网络是一种用于表达和近似大量数据的分解类型。给定的数据集,量子状态或更高维的多线性图是由较小的多线性图组成的组成和近似的。这让人联想到如何将布尔函数分解为栅极阵列:这代表了张量分解的特殊情况,其中张量输入的条目被0、1替换,并且分解化精确。相关技术的收集称为张量网络方法:该主题在几个不同的研究领域中独立开发,这些领域最近通过张量网络的语言变得相互关联。该领域中的Tantamount问题涉及张量网络的可表达性和减少计算开销。张量网络与机器学习的合并是自然的。一方面,机器学习可以帮助确定近似数据集的张量网络的分解。另一方面,可以将给定的张量网络结构视为机器学习模型。本文中,调整了张量网络参数以学习或分类数据集。在这项调查中,我们恢复了张量网络的基础知识,并解释了开发机器学习中张量网络理论的持续努力。
translated by 谷歌翻译
我们分析和分类从电影评论构建的文本数据的观点。为此,我们使用量子机学习算法的基于内核的方法。为了组合量子内核,我们使用使用不同Pauli旋转门组合构造的电路,其中旋转参数是从文本数据获得的数据点的经典非线性函数。为了分析提出的模型的性能,我们使用决策树,增强分类器以及经典和量子支持向量机分析量子模型。我们的结果表明,就所有评估指标而言,量子内核模型或量子支持向量机优于用于分析的所有其他算法。与经典的支持向量机相比,量子支持向量机也会带来明显更好的结果,即使功能数量增加或尺寸增加。结果清楚地表明,如果功能的数量为$ 15 $,则使用量子支持向量机使用量子支持向量机的精度分数提高了$ 9.4 \%$,而经典支持向量机则将其提高。
translated by 谷歌翻译
The Hamiltonian of an isolated quantum mechanical system determines its dynamics and physical behaviour. This study investigates the possibility of learning and utilising a system's Hamiltonian and its variational thermal state estimation for data analysis techniques. For this purpose, we employ the method of Quantum Hamiltonian-Based Models for the generative modelling of simulated Large Hadron Collider data and demonstrate the representability of such data as a mixed state. In a further step, we use the learned Hamiltonian for anomaly detection, showing that different sample types can form distinct dynamical behaviours once treated as a quantum many-body system. We exploit these characteristics to quantify the difference between sample types. Our findings show that the methodologies designed for field theory computations can be utilised in machine learning applications to employ theoretical approaches in data analysis techniques.
translated by 谷歌翻译
量子计算是使用量子力学执行计算的过程。该领域研究某些亚杀菌粒子的量子行为,以便随后在执行计算,以及大规模信息处理中使用。这些能力可以在计算时间和经典计算机上的成本方面提供量子计算机的优势。如今,由于计算复杂性或计算所需的时间,具有科学挑战,这是由于古典计算而无法执行,并且量子计算是可能的答案之一。然而,电流量子器件尚未实现必要的QUBITS,并且没有足够的容错才能实现这些目标。尽管如此,还有其他领域,如机器学习或化学,其中量子计算对电流量子器件有用。本手稿旨在展示2017年和2021年之间发布的论文的系统文献综述,以确定,分析和分类量子机器学习和其应用中使用的不同算法。因此,该研究确定了使用量子机器学习技术和算法的52篇文章。发现算法的主要类型是经典机器学习算法的量子实现,例如支持向量机或K最近邻模型,以及古典的深度学习算法,如量子神经网络。许多文章试图解决目前通过古典机器学习回答的问题,但使用量子设备和算法。即使结果很有希望,量子机器学习也远未实现其全部潜力。由于现有量子计算机缺乏足够的质量,速度和比例以允许量子计算来实现其全部潜力,因此需要提高量子硬件。
translated by 谷歌翻译
这是一门专门针对STEM学生开发的介绍性机器学习课程。我们的目标是为有兴趣的读者提供基础知识,以在自己的项目中使用机器学习,并将自己熟悉术语作为进一步阅读相关文献的基础。在这些讲义中,我们讨论受监督,无监督和强化学习。注释从没有神经网络的机器学习方法的说明开始,例如原理分析,T-SNE,聚类以及线性回归和线性分类器。我们继续介绍基本和先进的神经网络结构,例如密集的进料和常规神经网络,经常性的神经网络,受限的玻尔兹曼机器,(变性)自动编码器,生成的对抗性网络。讨论了潜在空间表示的解释性问题,并使用梦和对抗性攻击的例子。最后一部分致力于加强学习,我们在其中介绍了价值功能和政策学习的基本概念。
translated by 谷歌翻译
机器学习模型通常会遇到与训练分布不同的样本。无法识别分布(OOD)样本,因此将该样本分配给课堂标签会显着损害模​​型的可靠性。由于其对在开放世界中的安全部署模型的重要性,该问题引起了重大关注。由于对所有可能的未知分布进行建模的棘手性,检测OOD样品是具有挑战性的。迄今为止,一些研究领域解决了检测陌生样本的问题,包括异常检测,新颖性检测,一级学习,开放式识别识别和分布外检测。尽管有相似和共同的概念,但分别分布,开放式检测和异常检测已被独立研究。因此,这些研究途径尚未交叉授粉,创造了研究障碍。尽管某些调查打算概述这些方法,但它们似乎仅关注特定领域,而无需检查不同领域之间的关系。这项调查旨在在确定其共同点的同时,对各个领域的众多著名作品进行跨域和全面的审查。研究人员可以从不同领域的研究进展概述中受益,并协同发展未来的方法。此外,据我们所知,虽然进行异常检测或单级学习进行了调查,但没有关于分布外检测的全面或最新的调查,我们的调查可广泛涵盖。最后,有了统一的跨域视角,我们讨论并阐明了未来的研究线,打算将这些领域更加紧密地融为一体。
translated by 谷歌翻译
Quantum computers promise to enhance machine learning for practical applications. Quantum machine learning for real-world data has to handle extensive amounts of high-dimensional data. However, conventional methods for measuring quantum kernels are impractical for large datasets as they scale with the square of the dataset size. Here, we measure quantum kernels using randomized measurements. The quantum computation time scales linearly with dataset size and quadratic for classical post-processing. While our method scales in general exponentially in qubit number, we gain a substantial speed-up when running on intermediate-sized quantum computers. Further, we efficiently encode high-dimensional data into quantum computers with the number of features scaling linearly with the circuit depth. The encoding is characterized by the quantum Fisher information metric and is related to the radial basis function kernel. Our approach is robust to noise via a cost-free error mitigation scheme. We demonstrate the advantages of our methods for noisy quantum computers by classifying images with the IBM quantum computer. To achieve further speedups we distribute the quantum computational tasks between different quantum computers. Our method enables benchmarking of quantum machine learning algorithms with large datasets on currently available quantum computers.
translated by 谷歌翻译
Quantum machine learning (QML) has received increasing attention due to its potential to outperform classical machine learning methods in various problems. A subclass of QML methods is quantum generative adversarial networks (QGANs) which have been studied as a quantum counterpart of classical GANs widely used in image manipulation and generation tasks. The existing work on QGANs is still limited to small-scale proof-of-concept examples based on images with significant down-scaling. Here we integrate classical and quantum techniques to propose a new hybrid quantum-classical GAN framework. We demonstrate its superior learning capabilities by generating $28 \times 28$ pixels grey-scale images without dimensionality reduction or classical pre/post-processing on multiple classes of the standard MNIST and Fashion MNIST datasets, which achieves comparable results to classical frameworks with 3 orders of magnitude less trainable generator parameters. To gain further insight into the working of our hybrid approach, we systematically explore the impact of its parameter space by varying the number of qubits, the size of image patches, the number of layers in the generator, the shape of the patches and the choice of prior distribution. Our results show that increasing the quantum generator size generally improves the learning capability of the network. The developed framework provides a foundation for future design of QGANs with optimal parameter set tailored for complex image generation tasks.
translated by 谷歌翻译
深神经网络是量子状态表征的强大工具。现有网络通常是通过从需要表征的特定量子状态收集的实验数据来训练的。但是,除了用于培训的量子状态以外,是否可以离线训练神经网络并对量子状态进行预测?在这里,我们介绍了一个网络模型,该模型可以接受来自基准状态和测量结果的经典模拟数据训练,然后可以用来表征与基准集中与状态共享结构相似性的量子状态。在很少的量子物理指导下,该网络构建了自己的数据驱动的量子状态表示,然后使用它来预测尚未执行的量子测量结果的结果统计。网络产生的状态表示也可以用于超出预测结果统计数据的任务,包括量子状态的聚类和物质不同阶段的识别。我们的网络模型提供了一种灵活的方法,可以应用于在线学习方案,在该场景中,必须在实验数据可用后立即生成预测,以及学习者只能访问对量子硬件的加密描述的盲目学习场景。
translated by 谷歌翻译