在数据中存在错误标记的观察是统计和机器学习中令人惊叹的挑战性问题,与传统分类器的差的概括特性相关,也许更灵活的分类器,如神经网络。在这里,我们提出了一种新的双重正规化的神经网络培训损失,这些训练损失结合了对分类模型的复杂性的惩罚以及对训练观测的最佳重新重量。综合惩罚导致普遍存在的普遍设置的普遍性特性和强大的稳健性,以及在训练时违反初始参数值的变化。我们为我们提出的方法提供了一个理论上的理由,该方法衍生出一种简单的逻辑回归。我们展示了双重正则化模型,这里由DRFIT表示,用于(i)MNIST和(II)CIFAR-10的神经净分类,在两种情况下都有模拟误标标记。我们还说明DRFIT以非常好的精度识别错误标记的数据点。这为DRFIT提供了强大的支持,作为一种现成的分类器,因为没有任何表现牺牲,我们获得了一个分类器,同时降低了对误标标记的过度装备,并准确衡量标签的可信度。
translated by 谷歌翻译