我们在列表可解码设置中给出了第一个多项式时间算法用于稳健回归,其中攻击者可以破坏大于$ 1/2 $的部分示例。对于任何$ \ alpha <1 $,我们的算法作为输入asample $ \ {(x_i,y_i)\} _ {i \ leq n} $ $ n $线性方程式,其中$ \ alpha n $方程式满足$ y_i = \ langle x_i,\ ell ^ * \ rangle + \ zeta $对于一些小噪声$ \ zeta $和$(1- \ alpha)n $的方程是\ emph {任意}选择。它输出一个列表$ L $大小为$ O(1 / \ alpha)$ - 一个固定常量 - 包含接近$ \ ell ^ * $的$ \ ell $。每当从\ emph {certifiable}反集中分配$ D $中选择内容时,我们的算法就会成功。作为特殊情况,当inlier分布是标准高斯时,这会产生$(d / \ alpha)^ {O(1 / \ alpha ^ 8)} $ timealgorithm来查找$ O(1 / \ alpha)$ size列表。对于内点的反集中假设在理论上是必要的信息。在$ \ ell ^ * $是布尔值的附加假设下,我们的算法适用于更一般的分布。为了解决这个问题,我们引入了一个用于列表可解码学习的新框架,它加强了方形的“可识别性到算法”范式。在一项独立的工作中,Raghavendra和Yau [RY19]也使用平方和方法获得了类似可解码回归的类似结果。
translated by 谷歌翻译
We present a simple and effective algorithm for the problem of sparse robust linear regression. In this problem, one would like to estimate a sparse vector w * ∈ R n from linear measurements corrupted by sparse noise that can arbitrarily change an adversarially chosen η fraction of measured responses y, as well as introduce bounded norm noise to the responses. For Gaussian measurements, we show that a simple algorithm based on L1 regression can successfully estimate w * for any η < η 0 ≈ 0.239, and that this threshold is tight for the algorithm. The number of measurements required by the algorithm is O(k log n k) for k-sparse estimation, which is within constant factors of the number needed without any sparse noise. Of the three properties we show-the ability to estimate sparse, as well as dense, w * ; the tolerance of a large constant fraction of outliers; and tolerance of adversarial rather than distri-butional (e.g., Gaussian) dense noise-to the best of our knowledge, no previous result achieved more than two.
translated by 谷歌翻译
视觉对象识别不是一项微不足道的任务,尤其是当对象被杂乱降级或包围或短暂呈现时。外部线索(例如语言提示或视觉上下文)可以在这样的条件下提高识别性能。在这项工作中,我们构建了一个人工神经网络来模拟对象处理流(OPS)和提示之间的交互。我们研究了OPS的不同神经和代表能力对OPS中由线索驱动的基于特征的反馈提供的性能提升的影响。我们认为,只有在关于对象的类别特定功能无法在OP中完全表示时,反馈才能提高性能。这种代表性限制更多地取决于任务需求而不是神经能力。我们还观察到,训练最大化识别性能提升的反馈方案与基于调优的反馈不同,并且实际上比基于调优的反馈更好。
translated by 谷歌翻译