近期量子系统嘈杂。串扰噪声已被确定为超导噪声中间尺度量子(NISQ)设备的主要噪声来源之一。串扰源于附近Qubits上的两Q量门门的并发执行,例如\ texttt {cx}。与单独运行相比,它可能会大大提高门的错误率。可以通过调度或硬件调整来减轻串扰。然而,先前的研究在汇编的后期很晚,通常是在完成硬件映射之后的。它可能会错过优化算法逻辑,路由和串扰的巨大机会。在本文中,我们通过在早期编译阶段同时考虑所有这些因素来推动信封。我们提出了一个称为CQC的串扰感知量子程序汇编框架,该框架可以增强串扰缓解,同时实现令人满意的电路深度。此外,我们确定了从中间表示向电路转换的机会,例如,以特定的特定串扰缓解措施,例如,\ texttt {cx}梯子构造在变异的量子eigensolvers(VQE)中。通过模拟和Real IBM-Q设备进行评估表明,我们的框架可以显着将错误率降低6 $ \ times $,而与最先进的门调度相比,仅$ \ sim $ 60 \%\%的电路深度方法。特别是对于VQE,我们使用IBMQ Guadalupe证明了49 \%的回路深度减少,而对H4分子的先前ART进行了9.6 \%的保真度改善。我们的CQC框架将在GitHub上发布。
translated by 谷歌翻译
For a large number of tasks, quantum computing demonstrates the potential for exponential acceleration over classical computing. In the NISQ era, variable-component subcircuits enable applications of quantum computing. To reduce the inherent noise and qubit size limitations of quantum computers, existing research has improved the accuracy and efficiency of Variational Quantum Algorithm (VQA). In this paper, we explore the various ansatz improvement methods for VQAs at the gate level and pulse level, and classify, evaluate and summarize them.
translated by 谷歌翻译
变异量子算法(VQA)在NISQ时代表现出巨大的潜力。在VQA的工作流程中,Ansatz的参数迭代更新以近似所需的量子状态。我们已经看到了各种努力,以较少的大门起草更好的安萨兹。在量子计算机中,栅极Ansatz最终将转换为控制信号,例如TransMons上的微波脉冲。并且对照脉冲需要精心校准,以最大程度地减少误差(例如过度旋转和旋转)。在VQA的情况下,此过程将引入冗余,但是VQAS的变异性能自然可以通过更新幅度和频率参数来处理过度旋转和重组的问题。因此,我们提出了PAN,这是一种用于VQA的天然脉冲ANSATZ GENTARATOR框架。我们生成具有可训练参数用于振幅和频率的天然脉冲ansatz。在我们提出的锅中,我们正在调整参数脉冲,这些脉冲在NISQ计算机上得到了内在支持。考虑到本机 - 脉冲ANSATZ不符合参数迁移规则,我们需要部署非级别优化器。为了限制发送到优化器的参数数量,我们采用了一种生成本机 - 脉冲ANSATZ的渐进式方式。实验是在模拟器和量子设备上进行的,以验证我们的方法。当在NISQ机器上采用时,PAN获得的延迟平均提高了86%。 PAN在H2和HEH+上的VQE任务分别能够达到99.336%和96.482%的精度,即使NISQ机器中有很大的噪声。
translated by 谷歌翻译
量子计算硬件的功能增加,并实现深量子电路的挑战需要完全自动化和有效的工具来编译量子电路。要以一系列与特定量子计算机体系结构有关的天然大门表达任意电路,对于使算法在量子硬件提供商的整个景观中可移植。在这项工作中,我们提出了一个能够转换和优化量子电路的编译器,针对基于穿梭的捕获离子量子处理器。它由剑桥量子计算机的量子电路框架pytket上的自定义算法组成。评估了广泛的量子电路的性能,与标准Pytket相比,与标准Qiskit汇编相比,栅极计数可以降低到3.6倍,最高为2.2,而我们获得的栅极计数与相似的栅极计数相比相比,针对AQT线性静态捕获离子地址架构的Pytket扩展。
translated by 谷歌翻译
量子噪声是嘈杂中间级量子(NISQ)计算机中的关键挑战。以前的缓解噪声的工作主要集中在门级或脉冲级噪声自适应编译。然而,有限的研究工作通过使量子电路本身对噪声具有更高的优化级别。我们提出了Quoutumnas,是变分电路和量子位映射的噪声自适应共同搜索的全面框架。变形量子电路是构建QML和量子仿真的有希望的方法。然而,由于大型设计空间和参数训练成本,找到最佳变分电路及其最佳参数是具有挑战性的。我们建议通过引入新的超级速度来解耦电路搜索和参数培训。超电路由多层预定的参数化栅极构成,并通过迭代采样和更新其的参数子集(Subcircuit)训练。它提供了从头开始培训的子通差形性能的准确估计。然后我们执行Subcircuit的演进共同搜索和其量子位映射。使用从超级电路继承的参数和使用真实设备噪声模型进行估计,估计子电路性能。最后,我们执行迭代栅极修剪和FineTuning以去除冗余栅极。在10个量子计算上广泛评估了12个QML和VQE基准,Quoutumnas显着优于基线。对于QML,Quoutumnas是第一个展示超过95%的2级,85%的4级和真实QC的32%的10级分类准确性。与UCCSD相比,它还实现了H2,H2O,LIH,CH4,BEH2上的VQE任务的最低特征值。我们还开源Quantumengine(https://github.com/mit-han-lab/pytorch-quantum),用于快速训练参数化量子电路,以促进未来的研究。
translated by 谷歌翻译
预计变形量子算法将展示量子计算在近期嘈杂量子计算机上的优点。然而,由于算法的大小增加,训练这种变分量子算法遭受梯度消失。以前的工作无法处理由现实量子硬件的必然噪声效应引起的渐变消失。在本文中,我们提出了一种新颖的培训方案,以减轻这种噪声引起的渐变消失。我们首先介绍一种新的成本函数,其中通过在截断的子空间中使用无意程可观察来显着增强梯度。然后,我们证明可以通过从新的成本函数与梯度优化原始成本函数来达到相同的最小值。实验表明,我们的新培训方案对于各种任务的主要变分量子算法非常有效。
translated by 谷歌翻译
我们展示了一个新的开源软件,用于快速评估量子电路和绝热进化,这充分利用了硬件加速器。越来越多的Quantum Computing兴趣和Quantum硬件设备的最新发展的兴趣激励了新的高级计算工具的开发,其专注于性能和使用简单性。在这项工作中,我们介绍了一种新的Quantum仿真框架,使开发人员能够将硬件或平台实现的所有复杂方面委托给库,以便他们专注于手头的问题和量子算法。该软件采用Scratch设计,使用仿真性能,代码简单和用户友好的界面作为目标目标。它利用了硬件加速,例如多线CPU,单个GPU和多GPU设备。
translated by 谷歌翻译
Quantum Machine Learning(QML)提供了一种强大的灵活的范式,可用于编程近期量子计算机,具有化学,计量,材料科学,数据科学和数学的应用。这里,一个以参数化量子电路的形式训练ANSATZ,以实现感兴趣的任务。然而,最近出现了挑战表明,由于随机性或硬件噪声引起的平坦训练景观,因此难以训练深度尖锐钽。这激励了我们的工作,在那里我们提出了一种可变的结构方法来构建QML的Ansatzes。我们的方法称为VANS(可变ANSATZ),将一组规则应用于在优化期间以知识的方式在增长和(至关重要的)中删除量子门。因此,VANS非常适合通过保持ANSATZ浅扫描来缓解训练性和与噪声相关的问题。我们在变分量子Eigensolver中使用Vans进行冷凝物质和量子化学应用,并且还在量子自身化学器中进行数据压缩,显示所有情况的成功结果。
translated by 谷歌翻译
在这项工作中,我们提供了一个量子Hopfield关联内存(QHAM),并使用IBM量子体验展示其在仿真和硬件中的能力。 QHAM基于量子神经元设计,可以用于许多不同的机器学习应用,并且可以在真实量子硬件上实现,而不需要中间电路测量或重置操作。我们通过使用硬件噪声模型以及15 QUBIT IBMQ_16_MELBOURBORNE设备的模拟来分析神经元和全QHAM的准确性。量子神经元和QHAM被证明是有弹性的噪声,并且需要低Qubit开销和栅极复杂性。我们通过测试其有效的内存容量来基准QHAM,并在Quantum硬件的NISQ-ERA中展示其能力。该演示在NISQ-ERA量子硬件中实现的第一功能QHAM是在量子计算前沿的机器学习的重要步骤。
translated by 谷歌翻译
FIG. 1. Schematic diagram of a Variational Quantum Algorithm (VQA). The inputs to a VQA are: a cost function C(θ), with θ a set of parameters that encodes the solution to the problem, an ansatz whose parameters are trained to minimize the cost, and (possibly) a set of training data {ρ k } used during the optimization. Here, the cost can often be expressed in the form in Eq. ( 3), for some set of functions {f k }. Also, the ansatz is shown as a parameterized quantum circuit (on the left), which is analogous to a neural network (also shown schematically on the right). At each iteration of the loop one uses a quantum computer to efficiently estimate the cost (or its gradients). This information is fed into a classical computer that leverages the power of optimizers to navigate the cost landscape C(θ) and solve the optimization problem in Eq. ( 1). Once a termination condition is met, the VQA outputs an estimate of the solution to the problem. The form of the output depends on the precise task at hand. The red box indicates some of the most common types of outputs.
translated by 谷歌翻译
Any quantum computing application, once encoded as a quantum circuit, must be compiled before being executable on a quantum computer. Similar to classical compilation, quantum compilation is a sequential process with many compilation steps and numerous possible optimization passes. Despite the similarities, the development of compilers for quantum computing is still in its infancy-lacking mutual consolidation on the best sequence of passes, compatibility, adaptability, and flexibility. In this work, we take advantage of decades of classical compiler optimization and propose a reinforcement learning framework for developing optimized quantum circuit compilation flows. Through distinct constraints and a unifying interface, the framework supports the combination of techniques from different compilers and optimization tools in a single compilation flow. Experimental evaluations show that the proposed framework-set up with a selection of compilation passes from IBM's Qiskit and Quantinuum's TKET-significantly outperforms both individual compilers in over 70% of cases regarding the expected fidelity. The framework is available on GitHub (https://github.com/cda-tum/MQTPredictor).
translated by 谷歌翻译
距离措施为机器学习和模式识别中的许多流行算法提供了基础。根据算法正在处理的数据类型,可以使用不同的距离概念。对于图形数据,重要概念是图表编辑距离(GED),从而在使它们相同所需的操作方面测量两个图之间的两个图之间的相似度。由于计算GED的复杂性与NP难题相同,因此考虑近似解决方案是合理的。在本文中,我们向计算GED的两个量子方法的比较研究:量子退火和变分量子算法,其分别是指当前可用的两种类型的量子硬件,即量子退火器和基于栅极的量子计算机。考虑到当前嘈杂的中间级量子计算机的状态,我们基于这些量子算法性能的原理上的原理测试研究。
translated by 谷歌翻译
One of the challenges currently facing the quantum computing community is the design of quantum circuits which can efficiently run on near-term quantum computers, known as the quantum compiling problem. Algorithms such as the Variational Quantum Eigensolver (VQE), Quantum Approximate Optimization Algorithm (QAOA), and Quantum Architecture Search (QAS) have been shown to generate or find optimal near-term quantum circuits. However, these methods are computationally expensive and yield little insight into the circuit design process. In this paper, we propose Quantum Deep Dreaming (QDD), an algorithm that generates optimal quantum circuit architectures for specified objectives, such as ground state preparation, while providing insight into the circuit design process. In QDD, we first train a neural network to predict some property of a quantum circuit (such as VQE energy). Then, we employ the Deep Dreaming technique on the trained network to iteratively update an initial circuit to achieve a target property value (such as ground state VQE energy). Importantly, this iterative updating allows us to analyze the intermediate circuits of the dreaming process and gain insights into the circuit features that the network is modifying during dreaming. We demonstrate that QDD successfully generates, or 'dreams', circuits of six qubits close to ground state energy (Transverse Field Ising Model VQE energy) and that dreaming analysis yields circuit design insights. QDD is designed to optimize circuits with any target property and can be applied to circuit design problems both within and outside of quantum chemistry. Hence, QDD lays the foundation for the future discovery of optimized quantum circuits and for increased interpretability of automated quantum algorithm design.
translated by 谷歌翻译
基于变异方法的量子算法是构建量子溶液的最有前途的方法之一,并在过去几年中发现了无数的应用。尽管具有适应性和简单性,但它们的可扩展性和选择合适的ATZ的选择仍然是主要的挑战。在这项工作中,我们报告了基于嵌套的蒙特卡洛树搜索(MCTS)的算法框架,并与组合多部队的bastit相结合( CMAB)模型,用于量子电路的自动设计。通过数值实验,我们证明了应用于各种问题的算法,包括量子化学中的地面能量问题,在图上进行量子优化,求解线性方程的系统,并找到编码编码与现有方法相比,用于量子误差检测代码的电路,结果表明我们的电路设计算法可以探索更大的搜索空间并优化较大系统的量子电路,从而显示出多功能性和可扩展性。
translated by 谷歌翻译
关于参数化量子电路(PQC)的成本景观知之甚少。然而,PQC被用于量子神经网络和变异量子算法中,这可能允许近期量子优势。此类应用需要良好的优化器来培训PQC。最近的作品集中在专门针对PQC量身定制的量子意识优化器上。但是,对成本景观的无知可能会阻碍这种优化者的进步。在这项工作中,我们在分析上证明了PQC的两个结果:(1)我们在PQC中发现了指数较大的对称性,在成本景观中产生了最小值的呈指数较大的变性。或者,这可以作为相关超参数空间体积的指数减少。 (2)我们研究了噪声下对称性的弹性,并表明,尽管它在Unital噪声下是保守的,但非阴道通道可以打破这些对称性并提高最小值的变性,从而导致多个新的局部最小值。基于这些结果,我们引入了一种称为基于对称的最小跳跃(SYMH)的优化方法,该方法利用了PQC中的基础对称性。我们的数值模拟表明,在存在与当前硬件相当的水平上,SYMH在存在非阴性噪声的情况下提高了整体优化器性能。总体而言,这项工作从局部门转换中得出了大规模电路对称性,并使用它们来构建一种噪声吸引的优化方法。
translated by 谷歌翻译
模型压缩(例如修剪和量化)已广泛应用于在资源有限的经典设备上优化神经网络。最近,对变分量子电路(VQC)的兴趣越来越大,即量子计算机上的一种神经网络(又称量子神经网络)。众所周知,近期的量子设备具有高噪声和有限的资源(即量子位,Qubits);但是,如何压缩量子神经网络尚未得到彻底研究。人们可能会认为将经典压缩技术应用于量子场景是很简单的。但是,本文表明,量子和经典神经网络的压缩之间存在差异。根据我们的观察,我们声称必须参与压缩过程。最重要的是,我们提出了第一个系统的框架,即CompVQC,以压缩量子神经网络(QNNS)。在CompVQC中,关键组件是一种新型的压缩算法,该算法基于乘数的交替方向方法(ADMM)。方法。实验证明了COMPVQC的优势,以微不足道的精度下降(<1%)降低了电路深度(几乎超过2.5%),这表现优于其他竞争对手。另一个有前途的事实是,我们的COMPVQC确实可以促进QNN在近期噪声量子设备上的鲁棒性。
translated by 谷歌翻译
对机器学习模型训练的栅极基量子电路的发展越来越兴趣。然而,关于电路设计的参数,噪声和其他测量误差对量子机器学习模型性能的影响很少。在本文中,我们探讨了使用多个标准机器学习数据集和IBM的Qiskit模拟器的关键电路设计参数(Qubits,Deposit等)的实际意义。总的来,我们评估超过6500个独特电路,以$ n \约120700美元。我们发现,一般浅(低深度)宽(更多Qubits)电路拓扑倾向于在没有噪声的情况下更优于更深的内容。我们还探讨了不同噪声概念的影响和影响,并讨论了对分类机学习任务的噪声更多/较低的电路拓扑。基于该研究结果,我们定义了使用基于门的NISQ量子计算机来实现近期承诺的电路拓扑指南。
translated by 谷歌翻译
量子计算为某些问题提供了指数加速的潜力。但是,许多具有可证明加速的现有算法都需要当前不可用的耐故障量子计算机。我们提出了NISQ-TDA,这是第一个完全实现的量子机学习算法,其在任意经典(非手动)数据上具有可证明的指数加速,并且仅需要线性电路深度。我们报告了我们的NISQ-TDA算法的成功执行,该算法应用于在量子计算设备以及嘈杂的量子模拟器上运行的小数据集。我们从经验上证实,该算法对噪声是可靠的,并提供了目标深度和噪声水平,以实现现实世界中问题的近期,无耐受耐受性的量子优势。我们独特的数据加载投影方法是噪声鲁棒性的主要来源,引入了一种新的自我校正数据加载方法。
translated by 谷歌翻译
近年来,机器学习的巨大进步已经开始对许多科学和技术的许多领域产生重大影响。在本文的文章中,我们探讨了量子技术如何从这项革命中受益。我们在说明性示例中展示了过去几年的科学家如何开始使用机器学习和更广泛的人工智能方法来分析量子测量,估计量子设备的参数,发现新的量子实验设置,协议和反馈策略,以及反馈策略,以及通常改善量子计算,量子通信和量子模拟的各个方面。我们重点介绍了公开挑战和未来的可能性,并在未来十年的一些投机愿景下得出结论。
translated by 谷歌翻译