给定数据集和损失函数的Coreset通常是一个小称定近似于这个损失从一组给定的查询每次查询。 Coresets已经证明是在许多应用中非常有用。然而,coresets建设中存在的问题依赖的方式完成,这可能需要时间来进行设计和证明coreset的正确性特定家庭的查询。这可能会限制coresets在实际应用中使用。此外,小coresets可证明是不存在的诸多问题。为了解决这些限制,我们提出了建设coresets的通用,基于学习的算法。我们的方法提供coreset一个新的定义,这是标准的定义和目标的接近在通过查询原始数据的\ {EMPH平均}损失自然放松。这允许我们使用一个学习模式来计算给定的输入小coreset相对于使用查询的训练集一个给定的损失函数。我们得出了该方法的正式担保。深网和经典的机器学习问题的实验评估表明,我们了解到coresets产量比最坏情况下的理论保证现有算法(可能在实践中过于悲观)相媲美,甚至更好的效果。此外,我们的方法应用于深网络修剪提供了一个完整的深网络的第一coreset,即压缩所有网络一次,而不是由层或类似的分而治之方法层。
translated by 谷歌翻译