高分辨率气象雷达图像的可用性是有效的预测和决策。在超越传统雷达覆盖范围之外,生成模型已成为一种重要的合成能力,融合更普遍的数据来源,例如卫星图像和数值天气模型,进入准确的雷达样产品。在这里,我们展示了使用量子辅助模型来增强传统卷积神经网络的方法,用于全球合成天气雷达中的生成任务。我们表明Quantum Kernels原则上可以根据相关底层数据上的古典学习机来表现出基本上更复杂的任务。我们的结果建立了合成气象雷达作为量子计算能力的有效启发式基准,并在高影响力的相关问题上设定了详细量子优势基准测试的阶段。
translated by 谷歌翻译
本文旨在研究基于电路的混合量子卷积神经网络(QCNNS)如何在遥感的上下文中成功地在图像分类器中成功使用。通过在标准神经网络内引入量子层来丰富CNN的经典架构。本工作中提出的新型QCNN应用于土地使用和陆地覆盖(LULC)分类,选择为地球观测(EO)用例,并在欧元区数据集上测试用作参考基准。通过证明QCNN性能高于经典对应物,多标量分类的结果证明了所提出的方法的有效性。此外,各种量子电路的研究表明,利用量子纠缠的诸如最佳分类评分。本研究强调了将量子计算应用于EO案例研究的潜在能力,并为期货调查提供了理论和实验背景。
translated by 谷歌翻译
在过去的十年中,机器学习彻底改变了基于视力的质量评估,卷积神经网络(CNN)现在已成为标准。在本文中,我们考虑了该开发中的潜在下一步,并描述了有效地将经典图像数据映射到量子状态并允许可靠的图像分析的Quanvolutional神经网络(QNN)算法。我们实际上演示了如何在计算机视觉中利用量子设备以及如何将量子卷积引入古典CNN中。在处理工业质量控制中的现实世界用例时,我们在Pennylane框架内实施了混合QNN模型,并从经验上观察它,可以使用比经典CNN更少的培训数据实现更好的预测。换句话说,我们从经验上观察到真正的量子优势,对于由于卓越的数据编码而引起的工业应用。
translated by 谷歌翻译
Hybrid quantum-classical systems make it possible to utilize existing quantum computers to their fullest extent. Within this framework, parameterized quantum circuits can be regarded as machine learning models with remarkable expressive power. This Review presents the components of these models and discusses their application to a variety of data-driven tasks, such as supervised learning and generative modeling. With an increasing number of experimental demonstrations carried out on actual quantum hardware and with software being actively developed, this rapidly growing field is poised to have a broad spectrum of real-world applications.
translated by 谷歌翻译
量子计算是使用量子力学执行计算的过程。该领域研究某些亚杀菌粒子的量子行为,以便随后在执行计算,以及大规模信息处理中使用。这些能力可以在计算时间和经典计算机上的成本方面提供量子计算机的优势。如今,由于计算复杂性或计算所需的时间,具有科学挑战,这是由于古典计算而无法执行,并且量子计算是可能的答案之一。然而,电流量子器件尚未实现必要的QUBITS,并且没有足够的容错才能实现这些目标。尽管如此,还有其他领域,如机器学习或化学,其中量子计算对电流量子器件有用。本手稿旨在展示2017年和2021年之间发布的论文的系统文献综述,以确定,分析和分类量子机器学习和其应用中使用的不同算法。因此,该研究确定了使用量子机器学习技术和算法的52篇文章。发现算法的主要类型是经典机器学习算法的量子实现,例如支持向量机或K最近邻模型,以及古典的深度学习算法,如量子神经网络。许多文章试图解决目前通过古典机器学习回答的问题,但使用量子设备和算法。即使结果很有希望,量子机器学习也远未实现其全部潜力。由于现有量子计算机缺乏足够的质量,速度和比例以允许量子计算来实现其全部潜力,因此需要提高量子硬件。
translated by 谷歌翻译
尽管有持续的改进,但降水预测仍然没有其他气象变量的准确和可靠。造成这种情况的一个主要因素是,几个影响降水分布和强度的关键过程出现在全球天气模型的解决规模以下。计算机视觉社区已经证明了生成的对抗网络(GAN)在超分辨率问题上取得了成功,即学习为粗图像添加精细的结构。 Leinonen等。 (2020年)先前使用GAN来产生重建的高分辨率大气场的集合,并给定较粗糙的输入数据。在本文中,我们证明了这种方法可以扩展到更具挑战性的问题,即通过使用高分辨率雷达测量值作为“地面真相”来提高天气预报模型中相对低分辨率输入的准确性和分辨率。神经网络必须学会添加分辨率和结构,同时考虑不可忽略的预测错误。我们表明,甘斯和vae-gan可以在创建高分辨率的空间相干降水图的同时,可以匹配最新的后处理方法的统计特性。我们的模型比较比较与像素和合并的CRP分数,功率谱信息和等级直方图(用于评估校准)的最佳现有缩减方法。我们测试了我们的模型,并表明它们在各种场景中的表现,包括大雨。
translated by 谷歌翻译
提出了一个深度学习模型,以便在未来60分钟的五分钟时间分辨率下以闪电的形式出现。该模型基于反复横向的结构,该结构使其能够识别并预测对流的时空发展,包括雷暴细胞的运动,生长和衰变。预测是在固定网格上执行的,而无需使用风暴对象检测和跟踪。从瑞士和周围的区域收集的输入数据包括地面雷达数据,可见/红外卫星数据以及衍生的云产品,闪电检测,数值天气预测和数字高程模型数据。我们分析了不同的替代损失功能,班级加权策略和模型特征,为将来的研究提供了指南,以最佳地选择损失功能,并正确校准其模型的概率预测。基于这些分析,我们在这项研究中使用焦点损失,但得出结论,它仅在交叉熵方面提供了较小的好处,如果模型的重新校准不实用,这是一个可行的选择。该模型在60分钟的现有周期内实现了0.45的像素临界成功指数(CSI)为0.45,以预测8 km的闪电发生,范围从5分钟的CSI到5分钟的提前时间到CSI到CSI的0.32在A处。收货时间60分钟。
translated by 谷歌翻译
深度学习是当今机器学习中最成功和最深远的策略之一。然而,神经网络的规模和效用仍然受到用于训练它们的当前硬件的极大限制。随着常规电脑快速接近将在未来几年的情况下,常规计算机迅速接近物理限制,这些问题越来越紧。由于这些原因,科学家们已经开始探索替代计算平台,如量子计算机,用于训练神经网络。近年来,变分量子电路已成为在嘈杂的中间秤量子器件上量子深度学习的最成功的方法之一。我们提出了一种混合量子古典神经网络架构,其中每个神经元是变形量子电路。我们使用模拟通用量子计算机和艺术通用量子计算机的状态来统一地分析该混合神经网络对一系列二元分类数据集的性能。在模拟硬件上,我们观察到混合神经网络的分类精度高出10%,比各个变分量子电路更好地最小化了20%。在Quantum硬件上,我们观察到每个模型仅在Qubit和栅极计数足够小时执行良好。
translated by 谷歌翻译
Quantum机器学习目前正在受到极大的关注,但是与实用应用的经典机器学习技术相比,其有用性尚不清楚。但是,有迹象表明,某些量子机学习算法可能会提高其经典同行的培训能力 - 在很少有培训数据的情况下,这在情况下可能特别有益。这种情况自然出现在医学分类任务中。在本文中,提出了不同的杂种量子卷积神经网络(QCCNN),提出了不同的量子电路设计和编码技术。它们应用于二维医学成像数据,例如在计算机断层扫描中具有不同的,潜在的恶性病变。这些QCCNN的性能已经与它们的经典同行之一相似,因此鼓励进一步研究将这些算法应用于医学成像任务的方向。
translated by 谷歌翻译
Powerful hardware services and software libraries are vital tools for quickly and affordably designing, testing, and executing quantum algorithms. A robust large-scale study of how the performance of these platforms scales with the number of qubits is key to providing quantum solutions to challenging industry problems. Such an evaluation is difficult owing to the availability and price of physical quantum processing units. This work benchmarks the runtime and accuracy for a representative sample of specialized high-performance simulated and physical quantum processing units. Results show the QMware cloud computing service can reduce the runtime for executing a quantum circuit by up to 78% compared to the next fastest option for algorithms with fewer than 27 qubits. The AWS SV1 simulator offers a runtime advantage for larger circuits, up to the maximum 34 qubits available with SV1. Beyond this limit, QMware provides the ability to execute circuits as large as 40 qubits. Physical quantum devices, such as Rigetti's Aspen-M2, can provide an exponential runtime advantage for circuits with more than 30. However, the high financial cost of physical quantum processing units presents a serious barrier to practical use. Moreover, of the four quantum devices tested, only IonQ's Harmony achieves high fidelity with more than four qubits. This study paves the way to understanding the optimal combination of available software and hardware for executing practical quantum algorithms.
translated by 谷歌翻译
本文使用Qiskit软件堆栈提出了金融支付行业中的量子支持矢量机(QSVM)算法的第一个端到端应用,用于金融支付行业中的分类问题。基于实际卡支付数据,进行了详尽的比较,以评估当前最新的量子机学习算法对经典方法带来的互补影响。使用量子支持矢量机的特征映射特征来探索一种搜索最佳功能的新方法。使用欺诈特定的关键绩效指标比较结果:基于人类专业知识(规则决策),经典的机器学习算法(随机森林,XGBoost)和基于量子的机器学习算法,从分析中提取了准确性,回忆和假阳性率。 。此外,通过使用结合经典和量子算法的合奏模型来更好地改善预防欺诈的决策,从而探索了混合经典量子方法。我们发现,正如预期的那样,结果高度依赖于用于选择它们的特征选择和算法。 QSVM对特征空间进行了互补的探索,从而在大幅度降低的数据集上拟合了量子硬件的当前状态,从而提高了混合量子古典方法的欺诈检测准确性。
translated by 谷歌翻译
随着人工智能和自动驾驶技术的快速发展,对半导体的需求预计将大大增加。但是,半导体制造和新技术的开发的大量扩展将带来许多缺陷晶片。如果这些缺陷晶片尚未正确检查,则对这些缺陷晶片的无效半导体处理将对我们的环境产生额外影响,例如二氧化碳的发射过量和能源消耗。在本文中,我们利用量子计算的信息处理优势来促进缺陷学习缺陷审查(DLDR)。我们提出了一种经典的量子混合算法,用于近期量子处理器的深度学习。通过调整在其上实现的参数,由我们的框架驱动的量子电路学习给定的DLDR任务,包括晶圆缺陷地图分类,缺陷模式分类和热点检测。此外,我们探索具有不同表达能力和纠缠能力的参数化量子电路。这些结果可用于构建未来的路线图,以开发基于电路的量子深度学习,以进行半导体缺陷检测。
translated by 谷歌翻译
预测器重要性是经典和量子机学习(QML)数据预处理管道的关键部分。这项工作介绍了此类研究的第一个研究,其中探索了对QML模型的重要性与其经典的机器学习(CML)等效物进行了对比。我们开发了一种混合量子式体系结构,其中训练了QML模型,并根据现实世界数据集上的经典算法计算特征重要性值。该体系结构已在ESPN幻想足球数据上使用Qiskit StateSvector模拟器和IBM量子硬件(例如IBMQ Mumbai和IBMQ Montreal Systems)实现。即使我们处于嘈杂的中间量子量子(NISQ)时代,物理量子计算结果还是有希望的。为了促进当前量子标尺,我们创建了一个数据分层,模型聚合和新颖的验证方法。值得注意的是,与经典模型相比,量子模型的特征重要性具有更高的变化。我们可以证明等效QML和CML模型通过多样性测量是互补的。 QML和CML之间的多样性表明,两种方法都可以以不同的方式促进解决方案。在本文中,我们关注量子支持向量分类器(QSVC),变分量子电路(VQC)及其经典对应物。 ESPN和IBM幻想足球贸易助理将高级统计分析与沃森发现的自然语言处理相结合,以提供公平的个性化贸易建议。在这里,已经考虑了每个播放器的播放器评估数据,并且可以扩展此工作以计算其他QML模型(例如Quantum Boltzmann机器)的特征重要性。
translated by 谷歌翻译
自我监督学习的复苏,其中深入学习模型从数据中产生自己的监督信号,承诺可扩展的方式来解决没有人为注释的大量越来越大的现实数据集。然而,这些方法的惊人的计算复杂性使得对于最先进的性能,经典硬件要求表示有关进一步进展的重要瓶颈。在这里,我们采取了了解量子神经网络是否能够满足对更强大的架构的需求并在原则上的原则上测试其有效性的步骤。有趣的是,即使当量子电路被采样,使用等效结构化的经典网络,我们将遵守使用小型量子神经网络的视觉表示的学习的数值优势。此外,我们应用我们的最佳量子模型,以对IBMQ \ _Paris量子计算机进行分类,并发现当前嘈杂的设备可以在下游任务上实现对等效经典模型的平等准确性。
translated by 谷歌翻译
在这项工作中,我们提供了一个量子Hopfield关联内存(QHAM),并使用IBM量子体验展示其在仿真和硬件中的能力。 QHAM基于量子神经元设计,可以用于许多不同的机器学习应用,并且可以在真实量子硬件上实现,而不需要中间电路测量或重置操作。我们通过使用硬件噪声模型以及15 QUBIT IBMQ_16_MELBOURBORNE设备的模拟来分析神经元和全QHAM的准确性。量子神经元和QHAM被证明是有弹性的噪声,并且需要低Qubit开销和栅极复杂性。我们通过测试其有效的内存容量来基准QHAM,并在Quantum硬件的NISQ-ERA中展示其能力。该演示在NISQ-ERA量子硬件中实现的第一功能QHAM是在量子计算前沿的机器学习的重要步骤。
translated by 谷歌翻译
量子点(QDS)阵列是一个有前途的候选系统,实现可扩展的耦合码头系统,并用作量子计算机的基本构建块。在这种半导体量子系统中,设备现在具有数十个,必须仔细地将系统仔细设置为单电子制度并实现良好的Qubit操作性能。必要点位置的映射和栅极电压的电荷提出了一个具有挑战性的经典控制问题。随着QD Qubits越来越多的QD Qubits,相关参数空间的增加充分以使启发式控制不可行。近年来,有一个相当大的努力自动化与机器学习(ML)技术相结合的基于脚本的算法。在这一讨论中,我们概述了QD器件控制自动化进展的全面概述,特别强调了在二维电子气体中形成的基于硅和GaAs的QD。将基于物理的型号与现代数值优化和ML相结合,证明在屈服高效,可扩展的控制方面已经证明非常有效。通过计算机科学和ML的理论,计算和实验努力的进一步整合,在推进半导体和量子计算平台方面具有巨大的潜力。
translated by 谷歌翻译
Quantum computers promise to enhance machine learning for practical applications. Quantum machine learning for real-world data has to handle extensive amounts of high-dimensional data. However, conventional methods for measuring quantum kernels are impractical for large datasets as they scale with the square of the dataset size. Here, we measure quantum kernels using randomized measurements. The quantum computation time scales linearly with dataset size and quadratic for classical post-processing. While our method scales in general exponentially in qubit number, we gain a substantial speed-up when running on intermediate-sized quantum computers. Further, we efficiently encode high-dimensional data into quantum computers with the number of features scaling linearly with the circuit depth. The encoding is characterized by the quantum Fisher information metric and is related to the radial basis function kernel. Our approach is robust to noise via a cost-free error mitigation scheme. We demonstrate the advantages of our methods for noisy quantum computers by classifying images with the IBM quantum computer. To achieve further speedups we distribute the quantum computational tasks between different quantum computers. Our method enables benchmarking of quantum machine learning algorithms with large datasets on currently available quantum computers.
translated by 谷歌翻译
量子计算机是下一代设备,有望执行超出古典计算机范围的计算。实现这一目标的主要方法是通过量子机学习,尤其是量子生成学习。由于量子力学的固有概率性质,因此可以合理地假设量子生成学习模型(QGLM)可能会超过其经典对应物。因此,QGLM正在从量子物理和计算机科学社区中受到越来越多的关注,在这些QGLM中,可以在近期量子机上有效实施各种QGLM,并提出了潜在的计算优势。在本文中,我们从机器学习的角度回顾了QGLM的当前进度。特别是,我们解释了这些QGLM,涵盖了量子电路出生的机器,量子生成的对抗网络,量子玻尔兹曼机器和量子自动编码器,作为经典生成学习模型的量子扩展。在这种情况下,我们探讨了它们的内在关系及其根本差异。我们进一步总结了QGLM在常规机器学习任务和量子物理学中的潜在应用。最后,我们讨论了QGLM的挑战和进一步研究指示。
translated by 谷歌翻译
Quantum machine learning techniques are commonly considered one of the most promising candidates for demonstrating practical quantum advantage. In particular, quantum kernel methods have been demonstrated to be able to learn certain classically intractable functions efficiently if the kernel is well-aligned with the target function. In the more general case, quantum kernels are known to suffer from exponential "flattening" of the spectrum as the number of qubits grows, preventing generalization and necessitating the control of the inductive bias by hyperparameters. We show that the general-purpose hyperparameter tuning techniques proposed to improve the generalization of quantum kernels lead to the kernel becoming well-approximated by a classical kernel, removing the possibility of quantum advantage. We provide extensive numerical evidence for this phenomenon utilizing multiple previously studied quantum feature maps and both synthetic and real data. Our results show that unless novel techniques are developed to control the inductive bias of quantum kernels, they are unlikely to provide a quantum advantage on classical data.
translated by 谷歌翻译
在过去的十年中,机器学习取得了巨大的成功,其应用程序从面部识别到自然语言处理不等。同时,在量子计算领域已经取得了快速的进步,包括开发强大的量子算法和高级量子设备。机器学习与量子物理学之间的相互作用具有将实际应用带给现代社会的有趣潜力。在这里,我们以参数化量子电路的形式关注量子神经网络。我们将主要讨论各种结构和编码量子神经网络的策略,以进行监督学习任务,并利用Yao.jl进行基准测试,这是用朱莉娅语言编写的量子模拟软件包。这些代码是有效的,旨在为科学工作中的初学者提供便利,例如开发强大的变分量子学习模型并协助相应的实验演示。
translated by 谷歌翻译