尽管被认为是计算的下一个前沿,但量子计算仍处于开发的早期阶段。实际上,当前的商业量子计算机遭受了一些关键的约束,例如嘈杂的过程和有限数量的量子数,以及影响量子算法性能的量子。尽管有这些局限性,研究人员仍在努力提出不同的框架,以有效使用这些嘈杂的中间尺度量子(NISQ)设备。这些过程之一是D'Wave Systems的量子量化器,可以通过将其转化为能量最小化问题来解决优化问题。在这种情况下,这项工作的重点是在解决现实世界中组合优化问题时提供有用的见解和信息。这项研究的主要动机是向非专家利益相关者开放一些量子计算前沿。为此,我们以参数敏感分析的形式进行了广泛的实验。该实验是使用旅行推销员问题作为基准测试问题进行的,并采用了两个Qubos:最先进的和一个启发式产生的。我们的分析已在单个7点的实例上进行,并且基于200多个不同的参数配置,包括3700多个单一统一运行和700万个量子读取。多亏了这项研究,已经获得了与能量分布和最合适的参数设置有关的发现。最后,进行了一项其他研究,旨在确定在进一步的TSP实例中启发式QUBO的效率。
translated by 谷歌翻译
我们呈现Quantumsync,第一个量子算法,用于在计算机视觉上下文中解决同步问题。特别是,我们专注于置换同步,涉及在离散变量中解决非凸优化问题。首先,首先将同步分为二次无约会二进制优化问题(QUBO)。虽然这种制定尊重问题的二进制本质,但确保结果是一系列排列需要额外的护理。因此,我们:(i)展示如何将置换约束插入QUBO问题,并且(ii)解决了在绝热量子计算机D波的当前产生的受限Qubo问题。由于Quantum退火,我们保证了全球最优能力,同时采样能量景观以产生信心估计。我们的概念验证在绝热D波计算机上实现展示量子机器提供了解决普遍又困难的同步问题的有希望的方法。
translated by 谷歌翻译
距离措施为机器学习和模式识别中的许多流行算法提供了基础。根据算法正在处理的数据类型,可以使用不同的距离概念。对于图形数据,重要概念是图表编辑距离(GED),从而在使它们相同所需的操作方面测量两个图之间的两个图之间的相似度。由于计算GED的复杂性与NP难题相同,因此考虑近似解决方案是合理的。在本文中,我们向计算GED的两个量子方法的比较研究:量子退火和变分量子算法,其分别是指当前可用的两种类型的量子硬件,即量子退火器和基于栅极的量子计算机。考虑到当前嘈杂的中间级量子计算机的状态,我们基于这些量子算法性能的原理上的原理测试研究。
translated by 谷歌翻译
我们解决了与行业相关的尺度上的机器人轨迹计划问题。我们的端到端解决方案将高度通用的随机键算法与模型堆叠和集成技术集成在一起,以及用于溶液细化的路径重新链接。核心优化模块由偏置的随机基遗传算法组成。通过与问题依赖性和问题相关模块的独特分离,我们通过约束的天然编码实现了有效的问题表示。我们表明,对替代算法范式(例如模拟退火)的概括是直接的。我们为行业规模的数据集提供数值基准结果。发现我们的方法始终超过贪婪的基线结果。为了评估当今量子硬件的功能,我们使用Amazon Braket上的QBSOLV在量子退火硬件上获得的经典方法进行了补充。最后,我们展示了如何将后者集成到我们的较大管道中,从而为问题提供了量子准备的混合解决方案。
translated by 谷歌翻译
The problem of generating an optimal coalition structure for a given coalition game of rational agents is to find a partition that maximizes their social welfare and is known to be NP-hard. This paper proposes GCS-Q, a novel quantum-supported solution for Induced Subgraph Games (ISGs) in coalition structure generation. GCS-Q starts by considering the grand coalition as initial coalition structure and proceeds by iteratively splitting the coalitions into two nonempty subsets to obtain a coalition structure with a higher coalition value. In particular, given an $n$-agent ISG, the GCS-Q solves the optimal split problem $\mathcal{O} (n)$ times using a quantum annealing device, exploring $\mathcal{O}(2^n)$ partitions at each step. We show that GCS-Q outperforms the currently best classical solvers with its runtime in the order of $n^2$ and an expected worst-case approximation ratio of $93\%$ on standard benchmark datasets.
translated by 谷歌翻译
变异量子算法(VQA)在NISQ时代表现出巨大的潜力。在VQA的工作流程中,Ansatz的参数迭代更新以近似所需的量子状态。我们已经看到了各种努力,以较少的大门起草更好的安萨兹。在量子计算机中,栅极Ansatz最终将转换为控制信号,例如TransMons上的微波脉冲。并且对照脉冲需要精心校准,以最大程度地减少误差(例如过度旋转和旋转)。在VQA的情况下,此过程将引入冗余,但是VQAS的变异性能自然可以通过更新幅度和频率参数来处理过度旋转和重组的问题。因此,我们提出了PAN,这是一种用于VQA的天然脉冲ANSATZ GENTARATOR框架。我们生成具有可训练参数用于振幅和频率的天然脉冲ansatz。在我们提出的锅中,我们正在调整参数脉冲,这些脉冲在NISQ计算机上得到了内在支持。考虑到本机 - 脉冲ANSATZ不符合参数迁移规则,我们需要部署非级别优化器。为了限制发送到优化器的参数数量,我们采用了一种生成本机 - 脉冲ANSATZ的渐进式方式。实验是在模拟器和量子设备上进行的,以验证我们的方法。当在NISQ机器上采用时,PAN获得的延迟平均提高了86%。 PAN在H2和HEH+上的VQE任务分别能够达到99.336%和96.482%的精度,即使NISQ机器中有很大的噪声。
translated by 谷歌翻译
FIG. 1. Schematic diagram of a Variational Quantum Algorithm (VQA). The inputs to a VQA are: a cost function C(θ), with θ a set of parameters that encodes the solution to the problem, an ansatz whose parameters are trained to minimize the cost, and (possibly) a set of training data {ρ k } used during the optimization. Here, the cost can often be expressed in the form in Eq. ( 3), for some set of functions {f k }. Also, the ansatz is shown as a parameterized quantum circuit (on the left), which is analogous to a neural network (also shown schematically on the right). At each iteration of the loop one uses a quantum computer to efficiently estimate the cost (or its gradients). This information is fed into a classical computer that leverages the power of optimizers to navigate the cost landscape C(θ) and solve the optimization problem in Eq. ( 1). Once a termination condition is met, the VQA outputs an estimate of the solution to the problem. The form of the output depends on the precise task at hand. The red box indicates some of the most common types of outputs.
translated by 谷歌翻译
近年来,机器学习的巨大进步已经开始对许多科学和技术的许多领域产生重大影响。在本文的文章中,我们探讨了量子技术如何从这项革命中受益。我们在说明性示例中展示了过去几年的科学家如何开始使用机器学习和更广泛的人工智能方法来分析量子测量,估计量子设备的参数,发现新的量子实验设置,协议和反馈策略,以及反馈策略,以及通常改善量子计算,量子通信和量子模拟的各个方面。我们重点介绍了公开挑战和未来的可能性,并在未来十年的一些投机愿景下得出结论。
translated by 谷歌翻译
优化在离散变量上的高度复杂的成本/能源功能是不同科学学科和行业的许多公开问题的核心。一个主要障碍是在硬实例中的某些变量子集之间的出现,导致临界减慢或集体冻结了已知的随机本地搜索策略。通常需要指数计算工作来解冻这种变量,并探索配置空间的其他看不见的区域。在这里,我们通过开发自适应梯度的策略来介绍一个量子启发的非本球非识别蒙特卡罗(NMC)算法,可以有效地学习成本函数的关键实例的几何特征。该信息随行使用,以构造空间不均匀的热波动,用于以各种长度尺度集体未填充变量,规避昂贵的勘探与开发权衡。我们将算法应用于两个最具挑战性的组合优化问题:随机k可满足(K-SAT)附近计算阶段转换和二次分配问题(QAP)。我们在专业的确定性求解器和通用随机求解器上观察到显着的加速和鲁棒性。特别是,对于90%的随机4-SAT实例,我们发现了最佳专用确定性算法无法访问的解决方案,该算法(SP)具有最强的10%实例的解决方案质量的大小提高。我们还通过最先进的通用随机求解器(APT)显示出在最先进的通用随机求解器(APT)上的时间到溶液的两个数量级改善。
translated by 谷歌翻译
基于案例的推理(CBR)是一种以良好的成功记录解决问题的人工智能方法。本文建议使用量子计算来改进CBR的一些关键过程,使得可以定义基于Quantum基于Qual的推理(QCBR)范例。基于变分原理,在设计和实现QCBR方面,在平均准确性,可扩展性和重叠公差方面提高其经典对应的变化原理,将重点设定和实现QCBR。对拟议QCBR的比较研究与经典CBR的案例是社会工作者问题的情况,作为具有重叠的组合优化问题的样本。算法的量子可行性用Docplex和IBMQ计算机进行复印和测试,并在QIBO框架上进行实验。
translated by 谷歌翻译
Quantum退火是求解优化问题的启发式,这些问题由于D波系统的成功而言,已经看到了最近使用的浪涌。本文旨在找到一种解决电动车充电器放置(EVCP)问题的良好启发式,这是一个问题,这是一个非常重要的问题,但由于建立电动汽车(EV)充电器以及电动汽车的预期浪涌世界。同样的问题陈述也可以推广到网格中的任何实体的最佳位置,可以探索进一步用途。最后,作者介绍了一种新的启发式组合Quantum退火和遗传算法来解决问题。所提出的混合方法需要将遗传算法播种与量子退换器的结果。我们的实验表明,与我们样本EVCP数据集上的香草Quantum退火相比,该方法将该方法降低42.89%的距离。
translated by 谷歌翻译
量子点(QDS)阵列是一个有前途的候选系统,实现可扩展的耦合码头系统,并用作量子计算机的基本构建块。在这种半导体量子系统中,设备现在具有数十个,必须仔细地将系统仔细设置为单电子制度并实现良好的Qubit操作性能。必要点位置的映射和栅极电压的电荷提出了一个具有挑战性的经典控制问题。随着QD Qubits越来越多的QD Qubits,相关参数空间的增加充分以使启发式控制不可行。近年来,有一个相当大的努力自动化与机器学习(ML)技术相结合的基于脚本的算法。在这一讨论中,我们概述了QD器件控制自动化进展的全面概述,特别强调了在二维电子气体中形成的基于硅和GaAs的QD。将基于物理的型号与现代数值优化和ML相结合,证明在屈服高效,可扩展的控制方面已经证明非常有效。通过计算机科学和ML的理论,计算和实验努力的进一步整合,在推进半导体和量子计算平台方面具有巨大的潜力。
translated by 谷歌翻译
在过去的几十年中,经典的车辆路由问题(VRP),即为车辆分配一组订单并规划他们的路线已经被密集研究。仅作为车辆的订单分配和他们的路线已经是一个NP完整的问题,因此在实践中的应用通常无法考虑在现实世界应用中应用的约束和限制,所谓的富VRP所谓的富VRP(RVRP)并且仅限于单一方面。在这项工作中,我们融入了主要的相关真实限制和要求。我们提出了一种两级策略和时间线窗口和暂停时间的时间线算法,并将遗传算法(GA)和蚁群优化(ACO)单独应用于问题以找到最佳解决方案。我们对四种不同问题实例的评估,针对四个最先进的算法表明,我们的方法在合理的时间内处理所有给定的约束。
translated by 谷歌翻译
在Boltzmann分发之后采样随机变量是涉及各种应用的NP难题,例如\ Textit {Boltzmann Machines},一种特定的神经网络。已经进行了多次尝试使用D波量子计算机来采样这样的分布,因为这可能导致这些应用中的显着加速。然而,目前,几个挑战仍然有效地进行这种采样。我们详细介绍了各种障碍,解释了解决D波机器上采样问题的剩余困难。
translated by 谷歌翻译
Hamiltonian学习是量子系统识别,校准和量子计算机成功运行的重要程序。通过对量子系统的查询,该过程寻求获得给定Hamiltonian模型的参数和噪声源的描述。汉密尔顿学习的标准技术需要仔细设计查询和$ O(\ epsilon ^ {-2})$查询,以获得由于标准量子限制而实现学习错误$ \ epsilon $。通过实现学习错误$ \ epsilon $ \ opsilon $的有效和准确地估计Hamiltonian参数,我们介绍了一个活跃的学习者,它给出了一个初始的训练示例和交互式查询量子系统以产生新的培训数据的能力。我们正式指定和实验地评估该汉密尔顿主动学习(HAL)算法的性能,用于学习四个不同超导IBM量子器件上的双态交叉谐振Hamiltonian的六个参数。与同一问题的标准技术和指定的学习错误相比,HAL可以在相当的非自适应学习算法上实现高达99.8 \%$ 99.1 \%$ 49.1%。此外,通过访问汉密尔顿参数的子集的先前信息,并提供了在学习期间用线性(或指数)的较长系统交互时间选择查询的能力,Hal可以超过标准量子限制,实现Heisenberg(或超级Heisenberg)有限公司学习期间的收敛速度。
translated by 谷歌翻译
解决组合优化(CO)问题的传统求解器通常是由人类专家设计的。最近,人们对利用深度学习,尤其是深度强化学习的兴趣激增,自动为CO学习有效的求解器。由此产生的新范式称为神经组合优化(NCO)。但是,在经验或理论上,NCO的优势和缺点与其他方法的优势尚未得到很好的研究。在这项工作中,我们介绍了NCO求解器和替代求解器的全面比较研究。具体而言,将旅行推销员问题作为测试床问题,我们根据五个方面(即有效性,效率,稳定性,可扩展性和概括能力)评估求解器的性能。我们的结果表明,通常,NCO方法学到的求解器几乎在所有这些方面仍然没有传统求解器。前者的潜在好处将是在有足够的培训实例时,他们在小规模的问题实例上的卓越时间和能源效率。我们希望这项工作将有助于更好地理解NCO的优势和劣势,并提供全面的评估协议,以进一步对NCO进行针对其他方法的基准测试。
translated by 谷歌翻译
将几何模型拟合到异常值污染的数据非常棘手。许多计算机视觉系统依赖于随机采样启发式方法来解决可靠的拟合,这不能提供最佳保证和误差范围。因此,开发新的方法可以弥合昂贵的精确解决方案和不提供质量保证的快速启发式方法之间的差距。在本文中,我们提出了一种用于稳健拟合的杂化量子古典算法。我们的核心贡献是一种新颖的可靠拟合公式,可以解决一系列整数程序,并使用全局解决方案或误差绑定终止。组合子问题可容纳量子退火器,这有助于有效拧紧结合。虽然我们对量子计算的使用并不能超越可靠拟合的基本棘手性,但通过提供误差界限,我们的算法是对随机启发式方法的实际改进。此外,我们的工作代表了计算机视觉中量子计算的具体应用。我们介绍使用实际量子计算机(D-WAVE优势)和通过仿真获得的结果。源代码:https://github.com/dadung/hqc-robust-fitting
translated by 谷歌翻译
本文旨在研究基于电路的混合量子卷积神经网络(QCNNS)如何在遥感的上下文中成功地在图像分类器中成功使用。通过在标准神经网络内引入量子层来丰富CNN的经典架构。本工作中提出的新型QCNN应用于土地使用和陆地覆盖(LULC)分类,选择为地球观测(EO)用例,并在欧元区数据集上测试用作参考基准。通过证明QCNN性能高于经典对应物,多标量分类的结果证明了所提出的方法的有效性。此外,各种量子电路的研究表明,利用量子纠缠的诸如最佳分类评分。本研究强调了将量子计算应用于EO案例研究的潜在能力,并为期货调查提供了理论和实验背景。
translated by 谷歌翻译
Machine Learning models capable of handling the large datasets collected in the financial world can often become black boxes expensive to run. The quantum computing paradigm suggests new optimization techniques, that combined with classical algorithms, may deliver competitive, faster and more interpretable models. In this work we propose a quantum-enhanced machine learning solution for the prediction of credit rating downgrades, also known as fallen-angels forecasting in the financial risk management field. We implement this solution on a neutral atom Quantum Processing Unit with up to 60 qubits on a real-life dataset. We report competitive performances against the state-of-the-art Random Forest benchmark whilst our model achieves better interpretability and comparable training times. We examine how to improve performance in the near-term validating our ideas with Tensor Networks-based numerical simulations.
translated by 谷歌翻译
Our goal is to reconstruct tomographic images with few measurements and a low signal-to-noise ratio. In clinical imaging, this helps to improve patient comfort and reduce radiation exposure. As quantum computing advances, we propose to use an adiabatic quantum computer and associated hybrid methods to solve the reconstruction problem. Tomographic reconstruction is an ill-posed inverse problem. We test our reconstruction technique for image size, noise content, and underdetermination of the measured projection data. We then present the reconstructed binary and integer-valued images of up to 32 by 32 pixels. The demonstrated method competes with traditional reconstruction algorithms and is superior in terms of robustness to noise and reconstructions from few projections. We postulate that hybrid quantum computing will soon reach maturity for real applications in tomographic reconstruction. Finally, we point out the current limitations regarding the problem size and interpretability of the algorithm.
translated by 谷歌翻译