Recent developments in quantum computing and machine learning have propelled the interdisciplinary study of quantum machine learning. Sequential modeling is an important task with high scientific and commercial value. Existing VQC or QNN-based methods require significant computational resources to perform the gradient-based optimization of a larger number of quantum circuit parameters. The major drawback is that such quantum gradient calculation requires a large amount of circuit evaluation, posing challenges in current near-term quantum hardware and simulation software. In this work, we approach sequential modeling by applying a reservoir computing (RC) framework to quantum recurrent neural networks (QRNN-RC) that are based on classical RNN, LSTM and GRU. The main idea to this RC approach is that the QRNN with randomly initialized weights is treated as a dynamical system and only the final classical linear layer is trained. Our numerical simulations show that the QRNN-RC can reach results comparable to fully trained QRNN models for several function approximation and time series prediction tasks. Since the QRNN training complexity is significantly reduced, the proposed model trains notably faster. In this work we also compare to corresponding classical RNN-based RC implementations and show that the quantum version learns faster by requiring fewer training epochs in most cases. Our results demonstrate a new possibility to utilize quantum neural network for sequential modeling with greater quantum hardware efficiency, an important design consideration for noisy intermediate-scale quantum (NISQ) computers.
translated by 谷歌翻译
使用量子计算,本文解决了两个科学压迫和日常相关问题,即化学逆转录,这是半导体供应链的药物/材料发现和安全性的重要一步。我们表明,量子长短期内存(QLSTM)是逆转录合成的可行工具。我们使用QLSTM实现了65%的培训准确性,而经典的LSTM可以达到100%。但是,在测试中,我们使用QLSTM实现80%的精度,而经典LSTM仅以70%的精度达到峰值!我们还展示了量子神经网络(QNN)在硬件安全域中的应用,特别是使用一组功率和区域特洛伊木马功能在硬件特洛伊木马(HT)检测中。QNN模型可实现高达97.27%的检测准确性。
translated by 谷歌翻译
嘈杂的中间级量子(NISQ)计算机的出现对设计量子神经网络进行了全量子学习任务来提高一个至关重要的挑战。为了弥合差距,这项工作提出了一种通过在变分量子电路(VQC)上的Quantum嵌入量子嵌入量子嵌入的可训练量子张量网络(QTN)来提出名为QTN-VQC的端到端学习框架。QTN的架构由参数张力列车网络组成,用于特征提取和普罗斯嵌入的张量产品。我们在两个观点突出显示QTN的QTN:(1)我们通过分析输入特征的表示功率理论上表征QTN;(2)QTN使端到端的参数模型管道,即QTN-VQC,从生成估计输出测量。我们在Mnist DataSet上的实验证明了QTN对Quantum嵌入其他量子嵌入方法的优点。
translated by 谷歌翻译
量子计算机是下一代设备,有望执行超出古典计算机范围的计算。实现这一目标的主要方法是通过量子机学习,尤其是量子生成学习。由于量子力学的固有概率性质,因此可以合理地假设量子生成学习模型(QGLM)可能会超过其经典对应物。因此,QGLM正在从量子物理和计算机科学社区中受到越来越多的关注,在这些QGLM中,可以在近期量子机上有效实施各种QGLM,并提出了潜在的计算优势。在本文中,我们从机器学习的角度回顾了QGLM的当前进度。特别是,我们解释了这些QGLM,涵盖了量子电路出生的机器,量子生成的对抗网络,量子玻尔兹曼机器和量子自动编码器,作为经典生成学习模型的量子扩展。在这种情况下,我们探讨了它们的内在关系及其根本差异。我们进一步总结了QGLM在常规机器学习任务和量子物理学中的潜在应用。最后,我们讨论了QGLM的挑战和进一步研究指示。
translated by 谷歌翻译
我们设计和分析了量子变压器,扩展了最先进的经典变压器神经网络体系结构,已知在自然语言处理和图像分析中表现出色。在先前用于数据加载和正交神经层的参数化量子电路的工作的基础上,我们引入了三种量子注意机制,包括基于复合矩阵的量子变压器。这些量子体系结构可以使用浅量子电路构建,并可以提供定性不同的分类模型。与最佳的经典变压器和其他经典基准相比,我们对标准医疗图像数据集进行了量子变压器的广泛模拟,这些量子变压器表现出竞争力,有时表现更好。与经典算法相对于分类图像的大小,我们的量子注意层的计算复杂性被证明是有利的。与拥有数百万参数的最佳经典方法相比,我们的量子体系结构具有数千个参数。最后,我们在超导量子计算机上实施了量子变压器,并获得了多达六个量子实验的令人鼓舞的结果。
translated by 谷歌翻译
Hybrid quantum-classical systems make it possible to utilize existing quantum computers to their fullest extent. Within this framework, parameterized quantum circuits can be regarded as machine learning models with remarkable expressive power. This Review presents the components of these models and discusses their application to a variety of data-driven tasks, such as supervised learning and generative modeling. With an increasing number of experimental demonstrations carried out on actual quantum hardware and with software being actively developed, this rapidly growing field is poised to have a broad spectrum of real-world applications.
translated by 谷歌翻译
量子计算是使用量子力学执行计算的过程。该领域研究某些亚杀菌粒子的量子行为,以便随后在执行计算,以及大规模信息处理中使用。这些能力可以在计算时间和经典计算机上的成本方面提供量子计算机的优势。如今,由于计算复杂性或计算所需的时间,具有科学挑战,这是由于古典计算而无法执行,并且量子计算是可能的答案之一。然而,电流量子器件尚未实现必要的QUBITS,并且没有足够的容错才能实现这些目标。尽管如此,还有其他领域,如机器学习或化学,其中量子计算对电流量子器件有用。本手稿旨在展示2017年和2021年之间发布的论文的系统文献综述,以确定,分析和分类量子机器学习和其应用中使用的不同算法。因此,该研究确定了使用量子机器学习技术和算法的52篇文章。发现算法的主要类型是经典机器学习算法的量子实现,例如支持向量机或K最近邻模型,以及古典的深度学习算法,如量子神经网络。许多文章试图解决目前通过古典机器学习回答的问题,但使用量子设备和算法。即使结果很有希望,量子机器学习也远未实现其全部潜力。由于现有量子计算机缺乏足够的质量,速度和比例以允许量子计算来实现其全部潜力,因此需要提高量子硬件。
translated by 谷歌翻译
在这项工作中,我们利用量子深的增强学习作为方法,以在三个模拟的复杂性的模拟环境中为简单的,轮式机器人学习导航任务。我们显示了与经典基线相比,在混合量子古典设置中训练有良好建立的深钢筋学习技术的参数化量子电路的相似性能。据我们所知,这是用于机器人行为的量子机学习(QML)的首次演示。因此,我们将机器人技术建立为QML算法的可行研究领域,此后量子计算和量子机学习是自治机器人技术未来进步的潜在技术。除此之外,我们讨论了当前的方法的限制以及自动机器人量子机学习领域的未来研究方向。
translated by 谷歌翻译
近年来,机器学习的巨大进步已经开始对许多科学和技术的许多领域产生重大影响。在本文的文章中,我们探讨了量子技术如何从这项革命中受益。我们在说明性示例中展示了过去几年的科学家如何开始使用机器学习和更广泛的人工智能方法来分析量子测量,估计量子设备的参数,发现新的量子实验设置,协议和反馈策略,以及反馈策略,以及通常改善量子计算,量子通信和量子模拟的各个方面。我们重点介绍了公开挑战和未来的可能性,并在未来十年的一些投机愿景下得出结论。
translated by 谷歌翻译
Powerful hardware services and software libraries are vital tools for quickly and affordably designing, testing, and executing quantum algorithms. A robust large-scale study of how the performance of these platforms scales with the number of qubits is key to providing quantum solutions to challenging industry problems. Such an evaluation is difficult owing to the availability and price of physical quantum processing units. This work benchmarks the runtime and accuracy for a representative sample of specialized high-performance simulated and physical quantum processing units. Results show the QMware cloud computing service can reduce the runtime for executing a quantum circuit by up to 78% compared to the next fastest option for algorithms with fewer than 27 qubits. The AWS SV1 simulator offers a runtime advantage for larger circuits, up to the maximum 34 qubits available with SV1. Beyond this limit, QMware provides the ability to execute circuits as large as 40 qubits. Physical quantum devices, such as Rigetti's Aspen-M2, can provide an exponential runtime advantage for circuits with more than 30. However, the high financial cost of physical quantum processing units presents a serious barrier to practical use. Moreover, of the four quantum devices tested, only IonQ's Harmony achieves high fidelity with more than four qubits. This study paves the way to understanding the optimal combination of available software and hardware for executing practical quantum algorithms.
translated by 谷歌翻译
For a large number of tasks, quantum computing demonstrates the potential for exponential acceleration over classical computing. In the NISQ era, variable-component subcircuits enable applications of quantum computing. To reduce the inherent noise and qubit size limitations of quantum computers, existing research has improved the accuracy and efficiency of Variational Quantum Algorithm (VQA). In this paper, we explore the various ansatz improvement methods for VQAs at the gate level and pulse level, and classify, evaluate and summarize them.
translated by 谷歌翻译
最近的工作已经开始探索参数化量子电路(PQC)作为一般函数近似器的潜力。在这项工作中,我们提出了一种量子古典的深网络结构,以提高经典的CNN模型辨别性。卷积层使用线性滤波器来扫描输入数据。此外,我们构建PQC,这是一种更有效的函数近似器,具有更复杂的结构,以捕获接收领域内的特征。通过以与CNN类似的方式将PQC滑过输入来获得特征图。我们还为所提出的模型提供培训算法。我们设计中使用的混合模型通过数值模拟验证。我们展示了MNIST上合理的分类性能,我们将性能与不同的设置中的模型进行比较。结果揭示了具有高表现性的ANSATZ模型实现了更低的成本和更高的准确性。
translated by 谷歌翻译
生成建模是近期量子设备的一项有前途的任务,可以将量子测量的随机性作为随机来源。所谓的出生机器是纯粹的量子模型,并承诺以量子的方式生成概率分布,而对经典计算机无法访问。本文介绍了出生的机器在蒙特卡洛模拟中的应用,并将其覆盖范围扩展到多元和有条件的分布。模型在(嘈杂)模拟器和IBM量子超导量子硬件上运行。更具体地说,出生的机器用于生成由Muons和探测器材料之间的散射过程和高能量物理颜料实验中的探测器材料产生的事件。 MFC是出现在标准模型理论框架中的玻色子,它们是暗物质的候选者。经验证据表明,诞生的机器可以从蒙特卡洛模拟中重现数据集的边际分布和相关性。
translated by 谷歌翻译
FIG. 1. Schematic diagram of a Variational Quantum Algorithm (VQA). The inputs to a VQA are: a cost function C(θ), with θ a set of parameters that encodes the solution to the problem, an ansatz whose parameters are trained to minimize the cost, and (possibly) a set of training data {ρ k } used during the optimization. Here, the cost can often be expressed in the form in Eq. ( 3), for some set of functions {f k }. Also, the ansatz is shown as a parameterized quantum circuit (on the left), which is analogous to a neural network (also shown schematically on the right). At each iteration of the loop one uses a quantum computer to efficiently estimate the cost (or its gradients). This information is fed into a classical computer that leverages the power of optimizers to navigate the cost landscape C(θ) and solve the optimization problem in Eq. ( 1). Once a termination condition is met, the VQA outputs an estimate of the solution to the problem. The form of the output depends on the precise task at hand. The red box indicates some of the most common types of outputs.
translated by 谷歌翻译
储层计算机(RCS)是所有神经网络训练最快的计算机之一,尤其是当它们与其他经常性神经网络进行比较时。 RC具有此优势,同时仍能很好地处理顺序数据。但是,由于该模型对其超参数(HPS)的敏感性,RC的采用率滞后于其他神经网络模型。文献中缺少一个自动调谐这些参数的现代统一软件包。手动调整这些数字非常困难,传统网格搜索方法的成本呈指数增长,随着所考虑的HP数量,劝阻RC的使用并限制了可以设计的RC模型的复杂性。我们通过引入RCTORCH来解决这些问题,Rctorch是一种基于Pytorch的RC神经网络软件包,具有自动HP调整。在本文中,我们通过使用它来预测不同力的驱动摆的复杂动力学来证明rctorch的实用性。这项工作包括编码示例。示例Python Jupyter笔记本可以在我们的GitHub存储库https://github.com/blindedjoy/rctorch上找到,可以在https://rctorch.readthedocs.io/上找到文档。
translated by 谷歌翻译
对机器学习模型训练的栅极基量子电路的发展越来越兴趣。然而,关于电路设计的参数,噪声和其他测量误差对量子机器学习模型性能的影响很少。在本文中,我们探讨了使用多个标准机器学习数据集和IBM的Qiskit模拟器的关键电路设计参数(Qubits,Deposit等)的实际意义。总的来,我们评估超过6500个独特电路,以$ n \约120700美元。我们发现,一般浅(低深度)宽(更多Qubits)电路拓扑倾向于在没有噪声的情况下更优于更深的内容。我们还探讨了不同噪声概念的影响和影响,并讨论了对分类机学习任务的噪声更多/较低的电路拓扑。基于该研究结果,我们定义了使用基于门的NISQ量子计算机来实现近期承诺的电路拓扑指南。
translated by 谷歌翻译
本文旨在研究基于电路的混合量子卷积神经网络(QCNNS)如何在遥感的上下文中成功地在图像分类器中成功使用。通过在标准神经网络内引入量子层来丰富CNN的经典架构。本工作中提出的新型QCNN应用于土地使用和陆地覆盖(LULC)分类,选择为地球观测(EO)用例,并在欧元区数据集上测试用作参考基准。通过证明QCNN性能高于经典对应物,多标量分类的结果证明了所提出的方法的有效性。此外,各种量子电路的研究表明,利用量子纠缠的诸如最佳分类评分。本研究强调了将量子计算应用于EO案例研究的潜在能力,并为期货调查提供了理论和实验背景。
translated by 谷歌翻译
Quantum Computing在古典计算机上解决困难的计算任务的显着改进承诺。然而,为实际使用设计量子电路不是琐碎的目标,并且需要专家级知识。为了帮助这一努力,提出了一种基于机器学习的方法来构建量子电路架构。以前的作品已经证明,经典的深度加强学习(DRL)算法可以成功构建量子电路架构而没有编码的物理知识。但是,这些基于DRL的作品不完全在更换设备噪声中的设置,从而需要大量的培训资源来保持RL模型最新。考虑到这一点,我们持续学习,以提高算法的性能。在本文中,我们介绍了深度Q-Learning(PPR-DQL)框架的概率策略重用来解决这个电路设计挑战。通过通过各种噪声模式进行数值模拟,我们证明了具有PPR的RL代理能够找到量子栅极序列,以比从划痕训练的代理更快地生成双量标铃声状态。所提出的框架是一般的,可以应用于其他量子栅极合成或控制问题 - 包括量子器件的自动校准。
translated by 谷歌翻译
在过去的十年中,机器学习取得了巨大的成功,其应用程序从面部识别到自然语言处理不等。同时,在量子计算领域已经取得了快速的进步,包括开发强大的量子算法和高级量子设备。机器学习与量子物理学之间的相互作用具有将实际应用带给现代社会的有趣潜力。在这里,我们以参数化量子电路的形式关注量子神经网络。我们将主要讨论各种结构和编码量子神经网络的策略,以进行监督学习任务,并利用Yao.jl进行基准测试,这是用朱莉娅语言编写的量子模拟软件包。这些代码是有效的,旨在为科学工作中的初学者提供便利,例如开发强大的变分量子学习模型并协助相应的实验演示。
translated by 谷歌翻译
量子计算已经从理论阶段转变为实用阶段,在实施物理量子位时提出了艰巨的挑战,物理量子位受到周围环境的噪音。这些量子噪声在量子设备中无处不在,并在量子计算模型中产生不利影响,从而对其校正和缓解技术进行了广泛的研究。但是,这些量子声总是会提供缺点吗?我们通过提出一个称为量子噪声诱导的储层计算的框架来解决此问题,并表明某些抽象量子噪声模型可以诱导时间输入数据的有用信息处理功能。我们在几个典型的基准中证明了这种能力,并研究了信息处理能力,以阐明框架的处理机制和内存概况。我们通过在许多IBM量子处理器中实现框架,并通过模型分析获得了相似的特征内存配置文件来验证我们的观点。令人惊讶的是,随着量子设备的较高噪声水平和错误率,信息处理能力增加了。我们的研究为将有用的信息从量子计算机的噪音转移到更复杂的信息处理器上开辟了一条新的道路。
translated by 谷歌翻译