学习证明(POL)建议模型所有者使用机器学习培训检查站,以建立已经花费了必要的培训计算的证明。 POL FIREGO加密方法和贸易严格的安全性的作者通过适用于随机梯度下降和适应性变体,可扩展到深度学习。缺乏正式分析使攻击者可能能够为他们没有训练的模型提供证据。我们对为什么不能正式(DIS)正式分析POL协议可抵抗欺骗对手。为此,我们在POL中解开了证明验证的两个角色:(a)有效确定证明是否是有效的梯度下降轨迹,以及(b)确定优先级,使在培训完成后制作证明(即。 ,欺骗)。我们表明,有效的验证会导致接受合法证明和拒绝无效的证据之间的权衡,因为深度学习必然涉及噪音。没有针对这种噪声如何影响训练的精确分析模型,我们无法正式保证POL验证算法是否强大。然后,我们证明,建立优先级也可以鲁棒化地减少到学习理论中的一个开放问题:欺骗Pol Pol hoc hoc训练类似于在非凸X学习中找到具有相同终点的不同轨迹。但是,我们不严格地知道对最终模型权重的先验知识是否有助于发现此类轨迹。我们得出的结论是,在解决上述开放问题之前,可能需要更严重地依靠密码学来制定新的POL协议,并提供正式的鲁棒性保证。特别是,这将有助于建立优先级。作为我们分析的见解的副产品,我们还展示了对POL的两次新攻击。
translated by 谷歌翻译