A key component of a quantum machine learning model operating on classical inputs is the design of an embedding circuit mapping inputs to a quantum state. This paper studies a transfer learning setting in which classical-to-quantum embedding is carried out by an arbitrary parametric quantum circuit that is pre-trained based on data from a source task. At run time, a binary quantum classifier of the embedding is optimized based on data from the target task of interest. The average excess risk, i.e., the optimality gap, of the resulting classifier depends on how (dis)similar the source and target tasks are. We introduce a new measure of (dis)similarity between the binary quantum classification tasks via the trace distances. An upper bound on the optimality gap is derived in terms of the proposed task (dis)similarity measure, two R$\'e$nyi mutual information terms between classical input and quantum embedding under source and target tasks, as well as a measure of complexity of the combined space of quantum embeddings and classifiers under the source task. The theoretical results are validated on a simple binary classification example.
translated by 谷歌翻译
变异量子算法(VQAS)为通过嘈杂的中间规模量子(NISQ)处理器获得量子优势提供了最有希望的途径。这样的系统利用经典优化来调整参数化量子电路(PQC)的参数。目标是最大程度地减少取决于从PQC获得的测量输出的成本函数。通常通过随机梯度下降(SGD)实现优化。在NISQ计算机上,由于缺陷和破坏性而引起的栅极噪声通过引入偏差会影响随机梯度的估计。量子误差缓解(QEM)技术可以减少估计偏差而无需量子数量增加,但它们又导致梯度估计的方差增加。这项工作研究了量子门噪声对SGD收敛的影响,而VQA的基本实例是变异的eigensolver(VQE)。主要目标是确定QEM可以增强VQE的SGD性能的条件。结果表明,量子门噪声在SGD的收敛误差(根据参考无噪声PQC评估)诱导非零误差 - 基础,这取决于噪声门的数量,噪声的强度以及可观察到的可观察到的特征性被测量和最小化。相反,使用QEM,可以获得任何任意小的误差。此外,对于有或没有QEM的误差级别,QEM可以减少所需的迭代次数,但是只要量子噪声水平足够小,并且在每种SGD迭代中允许足够大的测量值。最大切割问题的数值示例证实了主要理论发现。
translated by 谷歌翻译
现代量子机学习(QML)方法涉及在训练数据集上进行各种优化参数化量子电路,并随后对测试数据集(即,泛化)进行预测。在这项工作中,我们在培训数量为N $培训数据点后,我们在QML中对QML的普遍表现进行了全面的研究。我们表明,Quantum机器学习模型的泛化误差与$ T $培训门的尺寸在$ \ sqrt {t / n} $上缩放。当只有$ k \ ll t $ gates在优化过程中经历了大量变化时,我们证明了泛化误差改善了$ \ sqrt {k / n} $。我们的结果意味着将Unitaries编制到通常使用指数训练数据的量子计算行业的多项式栅极数量,这是一项通常使用指数尺寸训练数据的大量应用程序。我们还表明,使用量子卷积神经网络的相位过渡的量子状态的分类只需要一个非常小的训练数据集。其他潜在应用包括学习量子误差校正代码或量子动态模拟。我们的工作将新的希望注入QML领域,因为较少的培训数据保证了良好的概括。
translated by 谷歌翻译
变异量子算法已被认为是实现有意义的任务(包括机器学习和组合优化)的近期量子优势的领先策略。当应用于涉及经典数据的任务时,这种算法通常从用于数据编码的量子电路开始,然后训练量子神经网络(QNN)以最小化目标函数。尽管已经广泛研究了QNN,以提高这些算法在实际任务上的性能,但系统地了解编码数据对最终性能的影响存在差距。在本文中,我们通过考虑基于参数化量子电路的常见数据编码策略来填补这一空白。我们证明,在合理的假设下,平均编码状态与最大混合状态之间的距离可以明确地相对于编码电路的宽度和深度。该结果特别意味着平均编码状态将以指数速度的深度速度集中在最大混合状态上。这种浓度严重限制了量子分类器的功能,并严格限制了从量子信息的角度来看编码状态的区分性。我们通过在合成和公共数据集上验证这些结果来进一步支持我们的发现。我们的结果突出了机器学习任务中量子数据编码的重要性,并可能阐明未来的编码策略。
translated by 谷歌翻译
已广泛研究了确定量子状态(例如保真度度量)相似性的有效度量。在本文中,我们解决了可以定义可以\ textit {有效估计}的量子操作的相似性度量的问题。给定了两个量子操作,$ u_1 $和$ u_2 $,以其电路表格表示,我们首先开发一个量子采样电路,以估算其差异的归一化schatten 2-norm($ \ | | | | | | U_1-U_2 \ | _ {s_2} $)使用精确$ \ epsilon $,仅使用一个干净的量子和一个经典的随机变量。我们证明了一个poly $(\ frac {1} {\ epsilon})$ umper bound在样品复杂性上,该界限与量子系统的大小无关。然后,我们证明这种相似性度量与使用量子状态的常规保真度度量($ f $)直接相关。 u_1-u_2 \ | _ {s_2} $足够小(例如$ \ leq \ frac {\ epsilon} {1+ \ sqrt {2(1/\ delta -1)} $)处理相同的随机和均匀选择的纯状态,$ | \ psi \ rangle $,如有需要($ f({{u} _1 | \ psi \ rangle,{u} _2 | \ psi \ wangle)\ geq 1 - \ epsilon $),概率超过$ 1- \ delta $。我们为量子电路学习任务提供了这种有效的相似性度量估计框架的示例应用,例如找到给定统一操作的平方根。
translated by 谷歌翻译
我们使用对单个的,相同的$ d $维状态的相同副本进行的测量来研究量子断层扫描和阴影断层扫描的问题。我们首先因Haah等人而重新审视已知的下限。 (2017年)在痕量距离上具有准确性$ \ epsilon $的量子断层扫描,当测量选择与先前观察到的结果无关(即它们是非适应性的)时。我们简要地证明了这一结果。当学习者使用具有恒定结果数量的测量值时,这会导致更强的下限。特别是,这严格确定了民间传说的最佳性``Pauli phymography''算法的样本复杂性。我们还得出了$ \ omega(r^2 d/\ epsilon^2)$和$ \ omega(r^2 d/\ epsilon^2)的新颖界限( R^2 d^2/\ epsilon^2)$用于学习排名$ r $状态,分别使用任意和恒定的结果测量,在非适应性情况下。除了样本复杂性,对于学习量子的实际意义,是一种实际意义的资源状态是算法使用的不同测量值的数量。我们将下限扩展到学习者从固定的$ \ exp(o(d))$测量的情况下进行自适应测量的情况。这特别意味着适应性。没有使用可有效实现的单拷贝测量结果给我们任何优势。在目标是预测给定的可观察到给定序列的期望值的情况下,我们还获得了类似的界限,该任务被称为阴影层析成像。在适应性的情况下单拷贝测量可通过多项式大小的电路实现,我们证明了基于计算给定可观察物的样本平均值的直接策略是最佳的。
translated by 谷歌翻译
量子机学习(QML)中的内核方法最近引起了人们的重大关注,作为在数据分析中获得量子优势的潜在候选者。在其他有吸引力的属性中,当训练基于内核的模型时,可以保证由于训练格局的凸度而找到最佳模型的参数。但是,这是基于以下假设:量子内核可以从量子硬件有效获得。在这项工作中,我们从准确估计内核值所需的资源的角度研究了量子内核的训练性。我们表明,在某些条件下,可以将量子内核在不同输入数据上的值呈指数浓缩(在量子数中)指向一些固定值,从而导致成功训练所需的测量数量的指数缩放。我们确定了可以导致集中度的四个来源,包括:数据嵌入,全球测量,纠缠和噪声的表达性。对于每个来源,分析得出量子内核的相关浓度结合。最后,我们表明,在处理经典数据时,训练用内核比对方法嵌入的参数化数据也容易受到指数浓度的影响。我们的结果通过数值仿真来验证几个QML任务。总体而言,我们提供指南,表明应避免某些功能,以确保量子内核方法的有效评估和训练性。
translated by 谷歌翻译
量子技术有可能彻底改变我们如何获取和处理实验数据以了解物理世界。一种实验设置,将来自物理系统的数据转换为稳定的量子存储器,以及使用量子计算机的数据的处理可以具有显着的优点,这些实验可以具有测量物理系统的传统实验,并且使用经典计算机处理结果。我们证明,在各种任务中,量子机器可以从指数较少的实验中学习而不是传统实验所需的实验。指数优势在预测物理系统的预测属性中,对噪声状态进行量子主成分分析,以及学习物理动态的近似模型。在一些任务中,实现指数优势所需的量子处理可能是适度的;例如,可以通过仅处理系统的两个副本来同时了解许多非信息可观察。我们表明,可以使用当今相对嘈杂的量子处理器实现大量超导QUBITS和1300个量子门的实验。我们的结果突出了量子技术如何能够实现强大的新策略来了解自然。
translated by 谷歌翻译
基于参数化量子电路的量子机器学习(QML)模型通常被突出显示为量子计算的近期“杀手应用”的候选者。然而,对这些模型的实证和泛化表现的理解仍处于起步阶段。在本文中,我们研究了如何为HAVL \'I \ V {C} EK等人介绍的两个突出的QML模型之间的培训准确性和泛化性能(也称为结构风险最小化)之间的平衡。 (自然,2019年)和Schuld和Killoran(PRL,2019)。首先,利用与良好的古典模型的关系,我们证明了两个模型参数 - 即图像使用的图像和弗罗布尼乌斯的规范 - 模型使用的可观察的规范 - 密切控制模型的复杂性,因此其泛化表现。其次,使用受工艺断层扫描的启发的想法,我们证明这些模型参数还密切控制模型捕获培训示例中相关性的能力。总之,我们的结果引起了对QML模型的结构风险最小化的新选择。
translated by 谷歌翻译
在当前的嘈杂中间尺度量子(NISQ)时代,量子机学习正在成为基于程序门的量子计算机的主要范式。在量子机学习中,对量子电路的门进行了参数化,并且参数是根据数据和电路输出的测量来通过经典优化来调整的。参数化的量子电路(PQC)可以有效地解决组合优化问题,实施概率生成模型并进行推理(分类和回归)。该专着为具有概率和线性代数背景的工程师的观众提供了量子机学习的独立介绍。它首先描述了描述量子操作和测量所必需的必要背景,概念和工具。然后,它涵盖了参数化的量子电路,变异量子本质层以及无监督和监督的量子机学习公式。
translated by 谷歌翻译
已经假设量子计算机可以很好地为机器学习中的应用提供很好。在本作工作中,我们分析通过量子内核定义的函数类。量子计算机提供了有效地计算符合难以计算的指数大密度运算符的内部产品。然而,具有指数大的特征空间使得普遍化的问题造成泛化的问题。此外,能够有效地评估高尺寸空间中的内部产品本身不能保证量子优势,因为已经是经典的漫步核可以对应于高或无限的维度再现核Hilbert空间(RKHS)。我们分析量子内核的频谱属性,并发现我们可以期待优势如果其RKHS低维度,并且包含很难经典计算的功能。如果已知目标函数位于该类中,则这意味着量子优势,因为量子计算机可以编码这种电感偏压,而没有同样的方式对功能类进行经典有效的方式。但是,我们表明查找合适的量子内核并不容易,因为内核评估可能需要指数倍数的测量。总之,我们的信息是有点令人发声的:我们猜测量子机器学习模型只有在我们设法将关于传递到量子电路的问题的知识编码的情况下,才能提供加速,同时将相同的偏差置于经典模型。难的。然而,在学习由量子流程生成的数据时,这些情况可能会被典雅地发生,但对于古典数据集来说,它们似乎更难。
translated by 谷歌翻译
转移学习或域适应性与机器学习问题有关,在这些问题中,培训和测试数据可能来自可能不同的概率分布。在这项工作中,我们在Russo和Xu发起的一系列工作之后,就通用错误和转移学习算法的过量风险进行了信息理论分析。我们的结果也许表明,也许正如预期的那样,kullback-leibler(kl)Divergence $ d(\ mu || \ mu')$在$ \ mu $和$ \ mu'$表示分布的特征中起着重要作用。培训数据和测试测试。具体而言,我们为经验风险最小化(ERM)算法提供了概括误差上限,其中两个分布的数据在训练阶段都可用。我们进一步将分析应用于近似的ERM方法,例如Gibbs算法和随机梯度下降方法。然后,我们概括了与$ \ phi $ -Divergence和Wasserstein距离绑定的共同信息。这些概括导致更紧密的范围,并且在$ \ mu $相对于$ \ mu' $的情况下,可以处理案例。此外,我们应用了一套新的技术来获得替代的上限,该界限为某些学习问题提供了快速(最佳)的学习率。最后,受到派生界限的启发,我们提出了Infoboost算法,其中根据信息测量方法对源和目标数据的重要性权重进行了调整。经验结果表明了所提出的算法的有效性。
translated by 谷歌翻译
量子力学的内在概率性质引起了设计量子生成学习模型(QGLM)的努力。尽管取得了经验成就,但QGLMS的基础和潜在优势仍然在很大程度上晦涩难懂。为了缩小这一知识差距,我们在这里探索QGLM的概括属性,即将模型从学习的数据扩展到未知数据的能力。我们考虑两个典型的QGLM,量子电路出生的机器和量子生成的对抗网络,并明确地给出了它们的概括界限。当量子设备可以直接访问目标分布并采用量子内核时,结果确定了QGLM的优势而不是经典方法。我们进一步采用这些泛化范围来在量子状态制备和哈密顿学习中具有潜在的优势。 QGLM在加载高斯分布和估计参数化的哈密顿量的基态方面的数值结果符合理论分析。我们的工作开辟了途径,以定量了解量子生成学习模型的力量。
translated by 谷歌翻译
量子计算机对机器学习应用程序保持前所未有的潜力。在这里,我们证明了物理量子电路通过经验风险最小化在量子计算机上可读的PAC(可能近似正确):以最多为最多$ N ^ C $栅极的参数量子电路,每个门作用于恒定数量的Qubits,样本复杂度被$ \ tilde {o}界限为(n ^ {c + 1})$。特别是,我们明确地构建了一种以固定模式排列的$ O(n ^ {c + 1})$ o(n ^ {c + 1})的变形量子电路系列,其可以代表最多$ n ^ c $基本的所有物理量子电路盖茨。我们的结果为大量机器学习提供了一个有价值的理论和实践。
translated by 谷歌翻译
在为经典计算提供可证明的安全保证时,差异隐私一直是一个非常成功的概念。最近,该概念被推广到量子计算。尽管经典的计算本质上是无嘈杂的,并且通常通过人为地添加噪声来实现差异隐私,但近期量子计算机本质上是嘈杂的,并且观察到这会导致自然差异隐私作为功能。在这项工作中,我们通过将量子差异作为量子差异来讨论量子差异隐私。这种方法的一个主要优点是,差异隐私仅基于计算的输出状态成为属性,而无需对其进行每个测量。这导致了更简单的证明和对其性质的广义陈述,以及一般和特定噪声模型的几个新界限。特别是,这些包括量子电路和量子机学习概念的共同表示。在这里,我们专注于实现一定级别的差异隐私所需的噪声量与使任何计算无用的量的差异。最后,我们还将当地差异隐私,r \'enyi差异隐私和假设测试解释的经典概念推广到量子设置,从而提供了几种新的属性和见解。
translated by 谷歌翻译
我们研究量子存储器的力量,以了解量子系统和动态的学习性质,这在物理和化学方面具有重要意义。许多最先进的学习算法需要访问额外的外部量子存储器。虽然这种量子存储器不需要先验,但在许多情况下,不利用量子存储器的算法需要比那些更多样的数据。我们表明,这种权衡在各种学习问题中是固有的。我们的结果包括以下内容:(1)我们显示以$ M $ -Qubit状态Rho执行暗影断层扫描,以M $观察到,任何没有量子存储器的算法需要$ \ omega(\ min(m,2 ^ n) )最坏情况下Rho的标准。达到对数因子,这与[HKP20]的上限匹配,完全解决了[AAR18,AR19]中的打开问题。 (2)我们在具有和不具有量子存储器之间的算法之间建立指数分离,用于纯度测试,区分扰扰和去极化的演变,以及在物理动态中揭示对称性。我们的分离通过允许更广泛的无量子存储器的算法来改善和概括[ACQ21]的工作。 (3)我们提供量子存储器和样本复杂性之间的第一个权衡。我们证明,估计所有$ N $ -Qubit Pauli可观察到的绝对值,Qumum Memory的$ K <N $ Qubits的算法需要至少$ \ omega(2 ^ {(nk)/ 3})$样本,但在那里是使用$ n $ -Qubit量子存储器的算法,该算法只需要$ o(n)$ samples。我们展示的分离足够大,并且可能已经是显而易见的,例如,数十Qubits。这提供了一种具体的路径,朝着使用量子存储器学习算法的实际优势。
translated by 谷歌翻译
所有著名的机器学习算法构成了受监督和半监督的学习工作,只有在一个共同的假设下:培训和测试数据遵循相同的分布。当分布变化时,大多数统计模型必须从新收集的数据中重建,对于某些应用程序,这些数据可能是昂贵或无法获得的。因此,有必要开发方法,以减少在相关领域中可用的数据并在相似领域中进一步使用这些数据,从而减少需求和努力获得新的标签样品。这引起了一个新的机器学习框架,称为转移学习:一种受人类在跨任务中推断知识以更有效学习的知识能力的学习环境。尽管有大量不同的转移学习方案,但本调查的主要目的是在特定的,可以说是最受欢迎的转移学习中最受欢迎的次级领域,概述最先进的理论结果,称为域适应。在此子场中,假定数据分布在整个培训和测试数据中发生变化,而学习任务保持不变。我们提供了与域适应性问题有关的现有结果的首次最新描述,该结果涵盖了基于不同统计学习框架的学习界限。
translated by 谷歌翻译
通过定义和上限,通过定义和上限,分析了贝叶斯学习的最佳成绩性能,通过限定了最小的过度风险(MER):通过从数据学习和最低预期损失可以实现的最低预期损失之间的差距认识到了。 MER的定义提供了一种原则状的方式来定义贝叶斯学习中的不同概念的不确定性,包括炼膜不确定性和最小的认知不确定性。提出了用于衍生MER的上限的两种方法。第一方法,通常适用于具有参数生成模型的贝叶斯学习,通过在模型参数之间的条件互信息和所观察到的数据预测的量之间的条件相互信息。它允许我们量化MER衰减随着更多数据可用而衰减为零的速率。在可实现的模型中,该方法还将MER与生成函数类的丰富性涉及,特别是二进制分类中的VC维度。具有参数预测模型的第二种方法,特别适用于贝叶斯学习,将MER与来自数据的模型参数的最小估计误差相关联。它明确地说明了模型参数估计中的不确定性如何转化为MER和最终预测不确定性。我们还将MER的定义和分析扩展到具有多个模型系列的设置以及使用非参数模型的设置。沿着讨论,我们在贝叶斯学习中的MER与频繁学习的过度风险之间建立了一些比较。
translated by 谷歌翻译
探索近期量子设备的量子应用是具有理论和实际利益的量子信息科学的快速增长领域。建立这种近期量子应用的领先范式是变异量子算法(VQAS)。这些算法使用经典优化器来训练参数化的量子电路以完成某些任务,其中电路通常是随机初始初始初始化的。在这项工作中,我们证明,对于一系列此类随机电路,成本函数的变化范围通过调整电路中的任何局部量子门在具有很高概率的Qubits数量中呈指数级消失。该结果可以自然地统一对基于梯度和无梯度的优化的限制,并揭示对VQA的训练景观的额外严格限制。因此,对VQA的训练性的基本限制是拆开的,这表明具有指数尺寸的希尔伯特空间中优化硬度的基本机制。我们通过代表性VQA的数值模拟进一步展示了结果的有效性。我们认为,这些结果将加深我们对VQA的可扩展性的理解,并阐明了搜索具有优势的近期量子应用程序。
translated by 谷歌翻译
We study a natural extension of classical empirical risk minimization, where the hypothesis space is a random subspace of a given space. In particular, we consider possibly data dependent subspaces spanned by a random subset of the data, recovering as a special case Nystrom approaches for kernel methods. Considering random subspaces naturally leads to computational savings, but the question is whether the corresponding learning accuracy is degraded. These statistical-computational tradeoffs have been recently explored for the least squares loss and self-concordant loss functions, such as the logistic loss. Here, we work to extend these results to convex Lipschitz loss functions, that might not be smooth, such as the hinge loss used in support vector machines. This unified analysis requires developing new proofs, that use different technical tools, such as sub-gaussian inputs, to achieve fast rates. Our main results show the existence of different settings, depending on how hard the learning problem is, for which computational efficiency can be improved with no loss in performance.
translated by 谷歌翻译