使用量子计算,本文解决了两个科学压迫和日常相关问题,即化学逆转录,这是半导体供应链的药物/材料发现和安全性的重要一步。我们表明,量子长短期内存(QLSTM)是逆转录合成的可行工具。我们使用QLSTM实现了65%的培训准确性,而经典的LSTM可以达到100%。但是,在测试中,我们使用QLSTM实现80%的精度,而经典LSTM仅以70%的精度达到峰值!我们还展示了量子神经网络(QNN)在硬件安全域中的应用,特别是使用一组功率和区域特洛伊木马功能在硬件特洛伊木马(HT)检测中。QNN模型可实现高达97.27%的检测准确性。
translated by 谷歌翻译
本文旨在研究基于电路的混合量子卷积神经网络(QCNNS)如何在遥感的上下文中成功地在图像分类器中成功使用。通过在标准神经网络内引入量子层来丰富CNN的经典架构。本工作中提出的新型QCNN应用于土地使用和陆地覆盖(LULC)分类,选择为地球观测(EO)用例,并在欧元区数据集上测试用作参考基准。通过证明QCNN性能高于经典对应物,多标量分类的结果证明了所提出的方法的有效性。此外,各种量子电路的研究表明,利用量子纠缠的诸如最佳分类评分。本研究强调了将量子计算应用于EO案例研究的潜在能力,并为期货调查提供了理论和实验背景。
translated by 谷歌翻译
量子计算是使用量子力学执行计算的过程。该领域研究某些亚杀菌粒子的量子行为,以便随后在执行计算,以及大规模信息处理中使用。这些能力可以在计算时间和经典计算机上的成本方面提供量子计算机的优势。如今,由于计算复杂性或计算所需的时间,具有科学挑战,这是由于古典计算而无法执行,并且量子计算是可能的答案之一。然而,电流量子器件尚未实现必要的QUBITS,并且没有足够的容错才能实现这些目标。尽管如此,还有其他领域,如机器学习或化学,其中量子计算对电流量子器件有用。本手稿旨在展示2017年和2021年之间发布的论文的系统文献综述,以确定,分析和分类量子机器学习和其应用中使用的不同算法。因此,该研究确定了使用量子机器学习技术和算法的52篇文章。发现算法的主要类型是经典机器学习算法的量子实现,例如支持向量机或K最近邻模型,以及古典的深度学习算法,如量子神经网络。许多文章试图解决目前通过古典机器学习回答的问题,但使用量子设备和算法。即使结果很有希望,量子机器学习也远未实现其全部潜力。由于现有量子计算机缺乏足够的质量,速度和比例以允许量子计算来实现其全部潜力,因此需要提高量子硬件。
translated by 谷歌翻译
我们提出了一种新的混合系统,用于通过使用多目标遗传算法在灰度图像上自动生成和训练量子启发的分类器。我们定义一个动态健身函数,以获得最小的电路和最高的观点数据准确性,以确保所提出的技术是可推广且健壮的。我们通过惩罚其外观来最大程度地减少生成电路的复杂性。我们使用二维降低方法减少图像的大小:主成分分析(PCA),该分析(PCA)是为了优化目的而在个体中编码的,以及一个小的卷积自动编码器(CAE)。将这两种方法相互比较,并采用经典的非线性方法来理解其行为,并确保分类能力是由于量子电路而不是用于降低维度的预处理技术引起的。
translated by 谷歌翻译
In recent times, Variational Quantum Circuits (VQC) have been widely adopted to different tasks in machine learning such as Combinatorial Optimization and Supervised Learning. With the growing interest, it is pertinent to study the boundaries of the classical simulation of VQCs to effectively benchmark the algorithms. Classically simulating VQCs can also provide the quantum algorithms with a better initialization reducing the amount of quantum resources needed to train the algorithm. This manuscript proposes an algorithm that compresses the quantum state within a circuit using a tensor ring representation which allows for the implementation of VQC based algorithms on a classical simulator at a fraction of the usual storage and computational complexity. Using the tensor ring approximation of the input quantum state, we propose a method that applies the parametrized unitary operations while retaining the low-rank structure of the tensor ring corresponding to the transformed quantum state, providing an exponential improvement of storage and computational time in the number of qubits and layers. This approximation is used to implement the tensor ring VQC for the task of supervised learning on Iris and MNIST datasets to demonstrate the comparable performance as that of the implementations from classical simulator using Matrix Product States.
translated by 谷歌翻译
Recent developments in quantum computing and machine learning have propelled the interdisciplinary study of quantum machine learning. Sequential modeling is an important task with high scientific and commercial value. Existing VQC or QNN-based methods require significant computational resources to perform the gradient-based optimization of a larger number of quantum circuit parameters. The major drawback is that such quantum gradient calculation requires a large amount of circuit evaluation, posing challenges in current near-term quantum hardware and simulation software. In this work, we approach sequential modeling by applying a reservoir computing (RC) framework to quantum recurrent neural networks (QRNN-RC) that are based on classical RNN, LSTM and GRU. The main idea to this RC approach is that the QRNN with randomly initialized weights is treated as a dynamical system and only the final classical linear layer is trained. Our numerical simulations show that the QRNN-RC can reach results comparable to fully trained QRNN models for several function approximation and time series prediction tasks. Since the QRNN training complexity is significantly reduced, the proposed model trains notably faster. In this work we also compare to corresponding classical RNN-based RC implementations and show that the quantum version learns faster by requiring fewer training epochs in most cases. Our results demonstrate a new possibility to utilize quantum neural network for sequential modeling with greater quantum hardware efficiency, an important design consideration for noisy intermediate-scale quantum (NISQ) computers.
translated by 谷歌翻译
Cancer is one of the leading causes of death worldwide. It is caused by a variety of genetic mutations, which makes every instance of the disease unique. Since chemotherapy can have extremely severe side effects, each patient requires a personalized treatment plan. Finding the dosages that maximize the beneficial effects of the drugs and minimize their adverse side effects is vital. Deep neural networks automate and improve drug selection. However, they require a lot of data to be trained on. Therefore, there is a need for machine-learning approaches that require less data. Hybrid quantum neural networks were shown to provide a potential advantage in problems where training data availability is limited. We propose a novel hybrid quantum neural network for drug response prediction, based on a combination of convolutional, graph convolutional, and deep quantum neural layers of 8 qubits with 363 layers. We test our model on the reduced Genomics of Drug Sensitivity in Cancer dataset and show that the hybrid quantum model outperforms its classical analog by 15% in predicting IC50 drug effectiveness values. The proposed hybrid quantum machine learning model is a step towards deep quantum data-efficient algorithms with thousands of quantum gates for solving problems in personalized medicine, where data collection is a challenge.
translated by 谷歌翻译
我们设计和分析了量子变压器,扩展了最先进的经典变压器神经网络体系结构,已知在自然语言处理和图像分析中表现出色。在先前用于数据加载和正交神经层的参数化量子电路的工作的基础上,我们引入了三种量子注意机制,包括基于复合矩阵的量子变压器。这些量子体系结构可以使用浅量子电路构建,并可以提供定性不同的分类模型。与最佳的经典变压器和其他经典基准相比,我们对标准医疗图像数据集进行了量子变压器的广泛模拟,这些量子变压器表现出竞争力,有时表现更好。与经典算法相对于分类图像的大小,我们的量子注意层的计算复杂性被证明是有利的。与拥有数百万参数的最佳经典方法相比,我们的量子体系结构具有数千个参数。最后,我们在超导量子计算机上实施了量子变压器,并获得了多达六个量子实验的令人鼓舞的结果。
translated by 谷歌翻译
Quantum机器学习目前正在受到极大的关注,但是与实用应用的经典机器学习技术相比,其有用性尚不清楚。但是,有迹象表明,某些量子机学习算法可能会提高其经典同行的培训能力 - 在很少有培训数据的情况下,这在情况下可能特别有益。这种情况自然出现在医学分类任务中。在本文中,提出了不同的杂种量子卷积神经网络(QCCNN),提出了不同的量子电路设计和编码技术。它们应用于二维医学成像数据,例如在计算机断层扫描中具有不同的,潜在的恶性病变。这些QCCNN的性能已经与它们的经典同行之一相似,因此鼓励进一步研究将这些算法应用于医学成像任务的方向。
translated by 谷歌翻译
在这项工作中,我们提供了一个量子Hopfield关联内存(QHAM),并使用IBM量子体验展示其在仿真和硬件中的能力。 QHAM基于量子神经元设计,可以用于许多不同的机器学习应用,并且可以在真实量子硬件上实现,而不需要中间电路测量或重置操作。我们通过使用硬件噪声模型以及15 QUBIT IBMQ_16_MELBOURBORNE设备的模拟来分析神经元和全QHAM的准确性。量子神经元和QHAM被证明是有弹性的噪声,并且需要低Qubit开销和栅极复杂性。我们通过测试其有效的内存容量来基准QHAM,并在Quantum硬件的NISQ-ERA中展示其能力。该演示在NISQ-ERA量子硬件中实现的第一功能QHAM是在量子计算前沿的机器学习的重要步骤。
translated by 谷歌翻译
在过去的十年中,机器学习取得了巨大的成功,其应用程序从面部识别到自然语言处理不等。同时,在量子计算领域已经取得了快速的进步,包括开发强大的量子算法和高级量子设备。机器学习与量子物理学之间的相互作用具有将实际应用带给现代社会的有趣潜力。在这里,我们以参数化量子电路的形式关注量子神经网络。我们将主要讨论各种结构和编码量子神经网络的策略,以进行监督学习任务,并利用Yao.jl进行基准测试,这是用朱莉娅语言编写的量子模拟软件包。这些代码是有效的,旨在为科学工作中的初学者提供便利,例如开发强大的变分量子学习模型并协助相应的实验演示。
translated by 谷歌翻译
随着人工智能和自动驾驶技术的快速发展,对半导体的需求预计将大大增加。但是,半导体制造和新技术的开发的大量扩展将带来许多缺陷晶片。如果这些缺陷晶片尚未正确检查,则对这些缺陷晶片的无效半导体处理将对我们的环境产生额外影响,例如二氧化碳的发射过量和能源消耗。在本文中,我们利用量子计算的信息处理优势来促进缺陷学习缺陷审查(DLDR)。我们提出了一种经典的量子混合算法,用于近期量子处理器的深度学习。通过调整在其上实现的参数,由我们的框架驱动的量子电路学习给定的DLDR任务,包括晶圆缺陷地图分类,缺陷模式分类和热点检测。此外,我们探索具有不同表达能力和纠缠能力的参数化量子电路。这些结果可用于构建未来的路线图,以开发基于电路的量子深度学习,以进行半导体缺陷检测。
translated by 谷歌翻译
量子噪声是嘈杂中间级量子(NISQ)计算机中的关键挑战。以前的缓解噪声的工作主要集中在门级或脉冲级噪声自适应编译。然而,有限的研究工作通过使量子电路本身对噪声具有更高的优化级别。我们提出了Quoutumnas,是变分电路和量子位映射的噪声自适应共同搜索的全面框架。变形量子电路是构建QML和量子仿真的有希望的方法。然而,由于大型设计空间和参数训练成本,找到最佳变分电路及其最佳参数是具有挑战性的。我们建议通过引入新的超级速度来解耦电路搜索和参数培训。超电路由多层预定的参数化栅极构成,并通过迭代采样和更新其的参数子集(Subcircuit)训练。它提供了从头开始培训的子通差形性能的准确估计。然后我们执行Subcircuit的演进共同搜索和其量子位映射。使用从超级电路继承的参数和使用真实设备噪声模型进行估计,估计子电路性能。最后,我们执行迭代栅极修剪和FineTuning以去除冗余栅极。在10个量子计算上广泛评估了12个QML和VQE基准,Quoutumnas显着优于基线。对于QML,Quoutumnas是第一个展示超过95%的2级,85%的4级和真实QC的32%的10级分类准确性。与UCCSD相比,它还实现了H2,H2O,LIH,CH4,BEH2上的VQE任务的最低特征值。我们还开源Quantumengine(https://github.com/mit-han-lab/pytorch-quantum),用于快速训练参数化量子电路,以促进未来的研究。
translated by 谷歌翻译
One of the challenges currently facing the quantum computing community is the design of quantum circuits which can efficiently run on near-term quantum computers, known as the quantum compiling problem. Algorithms such as the Variational Quantum Eigensolver (VQE), Quantum Approximate Optimization Algorithm (QAOA), and Quantum Architecture Search (QAS) have been shown to generate or find optimal near-term quantum circuits. However, these methods are computationally expensive and yield little insight into the circuit design process. In this paper, we propose Quantum Deep Dreaming (QDD), an algorithm that generates optimal quantum circuit architectures for specified objectives, such as ground state preparation, while providing insight into the circuit design process. In QDD, we first train a neural network to predict some property of a quantum circuit (such as VQE energy). Then, we employ the Deep Dreaming technique on the trained network to iteratively update an initial circuit to achieve a target property value (such as ground state VQE energy). Importantly, this iterative updating allows us to analyze the intermediate circuits of the dreaming process and gain insights into the circuit features that the network is modifying during dreaming. We demonstrate that QDD successfully generates, or 'dreams', circuits of six qubits close to ground state energy (Transverse Field Ising Model VQE energy) and that dreaming analysis yields circuit design insights. QDD is designed to optimize circuits with any target property and can be applied to circuit design problems both within and outside of quantum chemistry. Hence, QDD lays the foundation for the future discovery of optimized quantum circuits and for increased interpretability of automated quantum algorithm design.
translated by 谷歌翻译
变异量子算法(VQA)在NISQ时代表现出巨大的潜力。在VQA的工作流程中,Ansatz的参数迭代更新以近似所需的量子状态。我们已经看到了各种努力,以较少的大门起草更好的安萨兹。在量子计算机中,栅极Ansatz最终将转换为控制信号,例如TransMons上的微波脉冲。并且对照脉冲需要精心校准,以最大程度地减少误差(例如过度旋转和旋转)。在VQA的情况下,此过程将引入冗余,但是VQAS的变异性能自然可以通过更新幅度和频率参数来处理过度旋转和重组的问题。因此,我们提出了PAN,这是一种用于VQA的天然脉冲ANSATZ GENTARATOR框架。我们生成具有可训练参数用于振幅和频率的天然脉冲ansatz。在我们提出的锅中,我们正在调整参数脉冲,这些脉冲在NISQ计算机上得到了内在支持。考虑到本机 - 脉冲ANSATZ不符合参数迁移规则,我们需要部署非级别优化器。为了限制发送到优化器的参数数量,我们采用了一种生成本机 - 脉冲ANSATZ的渐进式方式。实验是在模拟器和量子设备上进行的,以验证我们的方法。当在NISQ机器上采用时,PAN获得的延迟平均提高了86%。 PAN在H2和HEH+上的VQE任务分别能够达到99.336%和96.482%的精度,即使NISQ机器中有很大的噪声。
translated by 谷歌翻译
对机器学习模型训练的栅极基量子电路的发展越来越兴趣。然而,关于电路设计的参数,噪声和其他测量误差对量子机器学习模型性能的影响很少。在本文中,我们探讨了使用多个标准机器学习数据集和IBM的Qiskit模拟器的关键电路设计参数(Qubits,Deposit等)的实际意义。总的来,我们评估超过6500个独特电路,以$ n \约120700美元。我们发现,一般浅(低深度)宽(更多Qubits)电路拓扑倾向于在没有噪声的情况下更优于更深的内容。我们还探讨了不同噪声概念的影响和影响,并讨论了对分类机学习任务的噪声更多/较低的电路拓扑。基于该研究结果,我们定义了使用基于门的NISQ量子计算机来实现近期承诺的电路拓扑指南。
translated by 谷歌翻译
深度学习是当今机器学习中最成功和最深远的策略之一。然而,神经网络的规模和效用仍然受到用于训练它们的当前硬件的极大限制。随着常规电脑快速接近将在未来几年的情况下,常规计算机迅速接近物理限制,这些问题越来越紧。由于这些原因,科学家们已经开始探索替代计算平台,如量子计算机,用于训练神经网络。近年来,变分量子电路已成为在嘈杂的中间秤量子器件上量子深度学习的最成功的方法之一。我们提出了一种混合量子古典神经网络架构,其中每个神经元是变形量子电路。我们使用模拟通用量子计算机和艺术通用量子计算机的状态来统一地分析该混合神经网络对一系列二元分类数据集的性能。在模拟硬件上,我们观察到混合神经网络的分类精度高出10%,比各个变分量子电路更好地最小化了20%。在Quantum硬件上,我们观察到每个模型仅在Qubit和栅极计数足够小时执行良好。
translated by 谷歌翻译
在过去的十年中,机器学习彻底改变了基于视力的质量评估,卷积神经网络(CNN)现在已成为标准。在本文中,我们考虑了该开发中的潜在下一步,并描述了有效地将经典图像数据映射到量子状态并允许可靠的图像分析的Quanvolutional神经网络(QNN)算法。我们实际上演示了如何在计算机视觉中利用量子设备以及如何将量子卷积引入古典CNN中。在处理工业质量控制中的现实世界用例时,我们在Pennylane框架内实施了混合QNN模型,并从经验上观察它,可以使用比经典CNN更少的培训数据实现更好的预测。换句话说,我们从经验上观察到真正的量子优势,对于由于卓越的数据编码而引起的工业应用。
translated by 谷歌翻译
预计人工神经网络的领域将强烈受益于量子计算机的最新发展。特别是Quantum Machine Learning,一类利用用于创建可训练神经网络的Qubits的量子算法,将提供更多的力量来解决模式识别,聚类和机器学习等问题。前馈神经网络的构建块由连接到输出神经元的一层神经元组成,该输出神经元根据任意激活函数被激活。相应的学习算法以Rosenblatt Perceptron的名义。具有特定激活功能的量子感知是已知的,但仍然缺乏在量子计算机上实现任意激活功能的一般方法。在这里,我们用量子算法填充这个间隙,该算法能够将任何分析激活功能近似于其功率系列的任何给定顺序。与以前的提案不同,提供不可逆转的测量和简化的激活功能,我们展示了如何将任何分析功能近似于任何所需的准确性,而无需测量编码信息的状态。由于这种结构的一般性,任何前锋神经网络都可以根据Hornik定理获取通用近似性质。我们的结果重新纳入栅极型量子计算机体系结构中的人工神经网络科学。
translated by 谷歌翻译
预测量子电路的输出是一项硬计算任务,在通用量子计算机的开发中起着关键作用。在这里,我们研究了随机量子电路的输出期望值的监督学习。深层卷积神经网络(CNN)经过训练,可以使用经典模拟电路的数据库来预测单量和两数分的期望值。这些电路通过适当设计的组成门编码来表示。分析了以前看不见的电路的预测准确性,还可以与免费的IBM量子程序获得的小规模量子计算机进行比较。 CNN通常取决于电路深度,网络深度和训练集尺寸,通常优于量子设备。值得注意的是,我们的CNN被设计为可扩展。这使我们可以利用转移学习和执行外推,以比培训集中包含的电路更大。这些CNN还表现出对噪声的显着弹性,即,即使在很少的测量值中进行了(模拟)期望值的训练,它们仍然是准确的。
translated by 谷歌翻译