状态制备是在量子物理学中的基本重要性,这可以通过将量子电路构造为整体来实现,该单一地将初始状态转换为目标,或者实现量子控制协议以设计的汉密尔顿人发展到目标状态。在这项工作中,我们通过用固定耦合和变分磁场的时间演变来研究后者对量子的数量。具体而言,我们考虑准备汉密尔顿人的地面州,其中包含汉密尔顿人的某些互动的互动,以时间进化。提出了一种优化方法来通过“微粒”的离散化来优化磁场,以获得高精度和稳定性。利用反向传播技术来获得违反对数保真度的字段的梯度。我们的方法在准备Heisenberg链的地面状态与XY和Ising互动的时间演变进行了准备,其性能超过了两种使用本地和全球优化策略的基线方法。我们的工作可以应用和推广到其他量子型号,例如在高维格子上定义的型号。它启示以降低所需交互的复杂性,以通过优化磁场实现量子信息和计算中的量子信息和其他任务。
translated by 谷歌翻译
FIG. 1. Schematic diagram of a Variational Quantum Algorithm (VQA). The inputs to a VQA are: a cost function C(θ), with θ a set of parameters that encodes the solution to the problem, an ansatz whose parameters are trained to minimize the cost, and (possibly) a set of training data {ρ k } used during the optimization. Here, the cost can often be expressed in the form in Eq. ( 3), for some set of functions {f k }. Also, the ansatz is shown as a parameterized quantum circuit (on the left), which is analogous to a neural network (also shown schematically on the right). At each iteration of the loop one uses a quantum computer to efficiently estimate the cost (or its gradients). This information is fed into a classical computer that leverages the power of optimizers to navigate the cost landscape C(θ) and solve the optimization problem in Eq. ( 1). Once a termination condition is met, the VQA outputs an estimate of the solution to the problem. The form of the output depends on the precise task at hand. The red box indicates some of the most common types of outputs.
translated by 谷歌翻译
量子信息技术的快速发展显示了在近期量子设备中模拟量子场理论的有希望的机会。在这项工作中,我们制定了1+1尺寸$ \ lambda \ phi \ phi^4 $量子场理论的(时间依赖性)变异量子模拟理论,包括编码,状态准备和时间演化,并具有多个数值模拟结果。这些算法可以理解为Jordan-Lee-Preskill算法的近期变异类似物,这是使用通用量子设备模拟量子场理论的基本算法。此外,我们强调了基于LSZ降低公式和几种计算效率的谐波振荡器基础编码的优势,例如在实施单一耦合群集ANSATZ的肺泡版本时,以准备初始状态。我们还讨论了如何在量子场理论仿真中规避“光谱拥挤”问题,并根据州和子空间保真度评估我们的算法。
translated by 谷歌翻译
Quantum Machine Learning(QML)提供了一种强大的灵活的范式,可用于编程近期量子计算机,具有化学,计量,材料科学,数据科学和数学的应用。这里,一个以参数化量子电路的形式训练ANSATZ,以实现感兴趣的任务。然而,最近出现了挑战表明,由于随机性或硬件噪声引起的平坦训练景观,因此难以训练深度尖锐钽。这激励了我们的工作,在那里我们提出了一种可变的结构方法来构建QML的Ansatzes。我们的方法称为VANS(可变ANSATZ),将一组规则应用于在优化期间以知识的方式在增长和(至关重要的)中删除量子门。因此,VANS非常适合通过保持ANSATZ浅扫描来缓解训练性和与噪声相关的问题。我们在变分量子Eigensolver中使用Vans进行冷凝物质和量子化学应用,并且还在量子自身化学器中进行数据压缩,显示所有情况的成功结果。
translated by 谷歌翻译
近年来,机器学习的巨大进步已经开始对许多科学和技术的许多领域产生重大影响。在本文的文章中,我们探讨了量子技术如何从这项革命中受益。我们在说明性示例中展示了过去几年的科学家如何开始使用机器学习和更广泛的人工智能方法来分析量子测量,估计量子设备的参数,发现新的量子实验设置,协议和反馈策略,以及反馈策略,以及通常改善量子计算,量子通信和量子模拟的各个方面。我们重点介绍了公开挑战和未来的可能性,并在未来十年的一些投机愿景下得出结论。
translated by 谷歌翻译
量子Gibbs状态的制备是量子计算的重要组成部分,在各种区域具有广泛的应用,包括量子仿真,量子优化和量子机器学习。在本文中,我们提出了用于量子吉布斯状态准备的变分杂化量子典型算法。我们首先利用截短的泰勒系列来评估自由能,并选择截短的自由能量作为损耗功能。然后,我们的协议训练参数化量子电路以学习所需的量子吉布斯状态。值得注意的是,该算法可以在配备有参数化量子电路的近期量子计算机上实现。通过执行数值实验,我们显示浅参数化电路,只有一个额外的量子位训练,以便准备诸如高于95%的保真度的insing链和旋转链Gibbs状态。特别地,对于ising链模型,我们发现,只有一个参数和一个额外的qubit的简化电路ansatz可以训练,以在大于2的逆温度下实现吉布斯状态准备中的99%保真度。
translated by 谷歌翻译
由于希尔伯特空间的指数增长,模拟古典计算机上的量子数量是一个具有挑战性的问题。最近被引入了人工神经网络作为近似量子 - 许多身体状态的新工具。我们基准限制Boltzmann机器量子状态和不同浅层神经自动汇流量子状态的变分力,以模拟不可排益量子依赖链的全局淬火动态。我们发现在给定精度以给定精度表示量子状态所需的参数的数量呈指数增长。增长率仅受到广泛不同设计选择的网络架构的略微影响:浅层和深度网络,小型和大型过滤尺寸,扩张和正常卷积,有和没有快捷连接。
translated by 谷歌翻译
我们将数字化量子退火(QA)和量子近似优化算法(QAOA)应用于人工神经网络中监督学习的范式任务:二元切割的突触权优化。在与MaxCut常用的Qoaa应用程序方差,或对Quantum Spin-Chains接地状态准备,经典Hamiltonian的特征在于高度非局部多自旋相互作用。然而,我们为QAOA参数提供最佳顺利解决的证据,这些参数可在同一问题的典型实例之间转移,并且我们证明了Qaoa在传统Qa上的增强性能。我们还研究了QAOA优化景观几何形状在这个问题中的作用,表明QA中遇到的间隙闭合转变的不利影响也对我们实施QAOA实施的表现负面影响。
translated by 谷歌翻译
With the development of experimental quantum technology, quantum control has attracted increasing attention due to the realization of controllable artificial quantum systems. However, because quantum-mechanical systems are often too difficult to analytically deal with, heuristic strategies and numerical algorithms which search for proper control protocols are adopted, and, deep learning, especially deep reinforcement learning (RL), is a promising generic candidate solution for the control problems. Although there have been a few successful applications of deep RL to quantum control problems, most of the existing RL algorithms suffer from instabilities and unsatisfactory reproducibility, and require a large amount of fine-tuning and a large computational budget, both of which limit their applicability. To resolve the issue of instabilities, in this dissertation, we investigate the non-convergence issue of Q-learning. Then, we investigate the weakness of existing convergent approaches that have been proposed, and we develop a new convergent Q-learning algorithm, which we call the convergent deep Q network (C-DQN) algorithm, as an alternative to the conventional deep Q network (DQN) algorithm. We prove the convergence of C-DQN and apply it to the Atari 2600 benchmark. We show that when DQN fail, C-DQN still learns successfully. Then, we apply the algorithm to the measurement-feedback cooling problems of a quantum quartic oscillator and a trapped quantum rigid body. We establish the physical models and analyse their properties, and we show that although both C-DQN and DQN can learn to cool the systems, C-DQN tends to behave more stably, and when DQN suffers from instabilities, C-DQN can achieve a better performance. As the performance of DQN can have a large variance and lack consistency, C-DQN can be a better choice for researches on complicated control problems.
translated by 谷歌翻译
在量子处理器中,设备设计和外部控制在一起有助于目标量子操作的质量。随着我们不断寻求更好的替代QUBBit平台,我们探索了越来越大的设备和控制设计空间。因此,优化变得越来越具有挑战性。在这项工作中,我们证明反映设计目标的功绩图可以对设备和控制参数进行微不可说明。另外,我们可以以与背部传播算法类似的方式计算设计目标的梯度,然后利用梯度来共同有效地优化设备和控制参数。这将量子最优控制的范围扩展到超导装置设计。我们还通过几个例子展示了基于梯度的联合优化对设备和控制参数的可行性。
translated by 谷歌翻译
变异量子算法(VQA)在NISQ时代表现出巨大的潜力。在VQA的工作流程中,Ansatz的参数迭代更新以近似所需的量子状态。我们已经看到了各种努力,以较少的大门起草更好的安萨兹。在量子计算机中,栅极Ansatz最终将转换为控制信号,例如TransMons上的微波脉冲。并且对照脉冲需要精心校准,以最大程度地减少误差(例如过度旋转和旋转)。在VQA的情况下,此过程将引入冗余,但是VQAS的变异性能自然可以通过更新幅度和频率参数来处理过度旋转和重组的问题。因此,我们提出了PAN,这是一种用于VQA的天然脉冲ANSATZ GENTARATOR框架。我们生成具有可训练参数用于振幅和频率的天然脉冲ansatz。在我们提出的锅中,我们正在调整参数脉冲,这些脉冲在NISQ计算机上得到了内在支持。考虑到本机 - 脉冲ANSATZ不符合参数迁移规则,我们需要部署非级别优化器。为了限制发送到优化器的参数数量,我们采用了一种生成本机 - 脉冲ANSATZ的渐进式方式。实验是在模拟器和量子设备上进行的,以验证我们的方法。当在NISQ机器上采用时,PAN获得的延迟平均提高了86%。 PAN在H2和HEH+上的VQE任务分别能够达到99.336%和96.482%的精度,即使NISQ机器中有很大的噪声。
translated by 谷歌翻译
出生的机器是量子启发的生成模型,可利用量子状态的概率性质。在这里,我们提出了一种称为多体局部(MBL)隐藏的机器的新体系结构,该机器同时使用MBL动力学和隐藏单元作为学习资源。从理论上讲,我们证明,MBL出生的机器比古典模型具有更具表现力的能力,而隐藏单元的引入则增强了其学习能力。我们从数值上证明,MBL隐藏的机器能够学习一个玩具数据集,该数据集由MNIST手写数字的模式,从量子多体态获得的量子数据以及非本地奇偶校验数据组成。为了理解学习的机制,我们跟踪了诸如学习过程中冯·诺伊曼纠缠熵和锤击距离之类的物理量,并比较MBL,Thermal和Anderson局部化阶段中的学习成果。我们表明,MBL阶段的优越学习能力重要地依赖于本地化和相互作用。我们的体系结构和算法提供了利用量子多体系统作为学习资源的新颖策略,并在量子系统中揭示了障碍,互动和学习之间的强大联系。
translated by 谷歌翻译
In this thesis, we consider two simple but typical control problems and apply deep reinforcement learning to them, i.e., to cool and control a particle which is subject to continuous position measurement in a one-dimensional quadratic potential or in a quartic potential. We compare the performance of reinforcement learning control and conventional control strategies on the two problems, and show that the reinforcement learning achieves a performance comparable to the optimal control for the quadratic case, and outperforms conventional control strategies for the quartic case for which the optimal control strategy is unknown. To our knowledge, this is the first time deep reinforcement learning is applied to quantum control problems in continuous real space. Our research demonstrates that deep reinforcement learning can be used to control a stochastic quantum system in real space effectively as a measurement-feedback closed-loop controller, and our research also shows the ability of AI to discover new control strategies and properties of the quantum systems that are not well understood, and we can gain insights into these problems by learning from the AI, which opens up a new regime for scientific research.
translated by 谷歌翻译
在过去的十年中,机器学习取得了巨大的成功,其应用程序从面部识别到自然语言处理不等。同时,在量子计算领域已经取得了快速的进步,包括开发强大的量子算法和高级量子设备。机器学习与量子物理学之间的相互作用具有将实际应用带给现代社会的有趣潜力。在这里,我们以参数化量子电路的形式关注量子神经网络。我们将主要讨论各种结构和编码量子神经网络的策略,以进行监督学习任务,并利用Yao.jl进行基准测试,这是用朱莉娅语言编写的量子模拟软件包。这些代码是有效的,旨在为科学工作中的初学者提供便利,例如开发强大的变分量子学习模型并协助相应的实验演示。
translated by 谷歌翻译
作为量子优势的应用,对动态模拟和量子机学习(QML)的关注很大,而使用QML来增强动态模拟的可能性尚未得到彻底研究。在这里,我们开发了一个框架,用于使用QML方法模拟近期量子硬件上的量子动力学。我们使用概括范围,即机器学习模型在看不见的数据上遇到的错误,以严格分析此框架内算法的训练数据要求。这提供了一种保证,就量子和数据要求而言,我们的算法是资源有效的。我们的数字具有问题大小的有效缩放,我们模拟了IBMQ-Bogota上的Trotterization的20倍。
translated by 谷歌翻译
量子哈密顿学习和量子吉布斯采样的双重任务与物理和化学中的许多重要问题有关。在低温方案中,这些任务的算法通常会遭受施状能力,例如因样本或时间复杂性差而遭受。为了解决此类韧性,我们将量子自然梯度下降的概括引入了参数化的混合状态,并提供了稳健的一阶近似算法,即量子 - 固定镜下降。我们使用信息几何学和量子计量学的工具证明了双重任务的数据样本效率,因此首次将经典Fisher效率的开创性结果推广到变异量子算法。我们的方法扩展了以前样品有效的技术,以允许模型选择的灵活性,包括基于量子汉密尔顿的量子模型,包括基于量子的模型,这些模型可能会规避棘手的时间复杂性。我们的一阶算法是使用经典镜下降二元性的新型量子概括得出的。两种结果都需要特殊的度量选择,即Bogoliubov-Kubo-Mori度量。为了从数值上测试我们提出的算法,我们将它们的性能与现有基准进行了关于横向场ISING模型的量子Gibbs采样任务的现有基准。最后,我们提出了一种初始化策略,利用几何局部性来建模状态的序列(例如量子 - 故事过程)的序列。我们从经验上证明了它在实际和想象的时间演化的经验上,同时定义了更广泛的潜在应用。
translated by 谷歌翻译
Machine learning (ML) has recently facilitated many advances in solving problems related to many-body physical systems. Given the intrinsic quantum nature of these problems, it is natural to speculate that quantum-enhanced machine learning will enable us to unveil even greater details than we currently have. With this motivation, this paper examines a quantum machine learning approach based on shallow variational ansatz inspired by tensor networks for supervised learning tasks. In particular, we first look at the standard image classification tasks using the Fashion-MNIST dataset and study the effect of repeating tensor network layers on ansatz's expressibility and performance. Finally, we use this strategy to tackle the problem of quantum phase recognition for the transverse-field Ising and Heisenberg spin models in one and two dimensions, where we were able to reach $\geq 98\%$ test-set accuracies with both multi-scale entanglement renormalization ansatz (MERA) and tree tensor network (TTN) inspired parametrized quantum circuits.
translated by 谷歌翻译
封闭的量子机械系统的物理学受哈密顿量的约束。但是,在大多数实际情况下,这种哈密顿量尚不清楚,最终所有的数据是从系统上的测量中获得的数据。在这项工作中,我们通过将基于机器学习的基于梯度的优化从机器学习中从张量量的网络中从机器学习中从基于梯度的优化中汇总到从基于梯度的优化的技术中汇总到从动力学数据中进行交互的多体汉密尔顿人来学习的家庭。我们的方法非常实用,实验友好且本质上可扩展,以使系统尺寸超过100次旋转。特别是,我们在综合数据上证明了算法的工作原理,即使仅限于一个简单的初始状态,少量的单量观测和时间演变为相对较短的时间。对于一维海森贝格模型的具体示例,我们的算法在系统大小和缩放的误差常数中作为数据集大小的反平方根。
translated by 谷歌翻译
我们训练神经形态硬件芯片以通过变分能最小化近似Quantum旋转模型的地面状态。与使用马尔可夫链蒙特卡罗进行样品生成的变分人工神经网络相比,这种方法具有优点:神经形态器件以快速和固有的并行方式产生样品。我们开发培训算法,并将其应用于横向场介绍模型,在中等系统尺寸下显示出良好的性能($ n \ LEQ 10 $)。系统的普遍开心研究表明,较大系统尺寸的可扩展性主要取决于样品质量,该样品质量受到模拟神经芯片上的参数漂移的限制。学习性能显示阈值行为作为ansatz的变分参数的数量的函数,大约为50美元的隐藏神经元,足以表示关键地位,最高$ n = 10 $。网络参数的6 + 1位分辨率不会限制当前设置中的可达近似质量。我们的工作为利用神经形态硬件的能力提供了一种重要的一步,以解决量子数量问题中的维数诅咒。
translated by 谷歌翻译