在对象检测中,基于关键点的方法经常遭受大量不正确的对象边界框,可以说是由于缺少对裁剪区域的额外外观。本文提供了一种有效的解决方案,可以以最小的成本探测每个裁剪区域内的视觉模式。 Webuild我们的框架基于代表性的基于关键点的一级探测器命名为CornerNet。我们的方法名为CenterNet,将每个对象检测为一个关键点的atriplet而不是一对,这样可以提高精度和恢复。因此,我们设计了两个名为级联角池和中心池的定制模块,它们分别丰富了由左上角和右下角收集的信息,并在中心区域提供了更多可识别的信息。在MS-COCOdataset上,CenterNet实现了\ textbf {47.0 \%}的AP,其大幅度优于单级检测器。同时,具有更快的参考速度,CenterNet表现出与顶级两级探测器相当的性能。代码可以通过以下网址获得://github.com/Duankaiwen/CenterNet。
translated by 谷歌翻译
报道了一种新颖的中心线提取框架,其结合了端到端可训练的多任务完全卷积网络(FCN)和最小路径提取器。 FCN同时计算中心线距离图并检测分支端点。该方法生成没有伪分支的单像素宽中心线。它处理任意树形结构对象,没有关于树的深度或其分叉模式的先验假设。它对于目标对象的不同部分的大量尺度变化以及对象的分割掩模的微小缺陷也是稳健的。据我们所知,这是第一个基于深度学习的中心线提取方法,其保证了单像素宽的中心线。 Complextree结构对象。所提出的方法在620名患者(其中400名用作测试集)的数据集上的冠状动脉中心线提取中得到验证。由于大量冠状动脉支管,分支弯曲度以及长度,厚度,形状等的大的变化,因此该应用具有挑战性。所提出的方法产生定位良好的中心线,显示较少数量的缺失分支,并且在存在对象分割掩模的微小缺陷的情况下更加稳健。根据独立的人工专家评论,与最先进的传统最小路径方法相比,我们的方法将患者级中心线提取的成功率从54.3%提高到88.8%。
translated by 谷歌翻译
我们研究了一族具有凸复合结构的(可能是非凸的)约束优化问题。通过对非光滑几何的新分析,我们证明应用于这类问题的精确拟合的近端型算法在水生生长条件下表现出局部线性收敛,这是我们考虑的组成结构。我们的结果的主要应用是使用Burer-Monteiro分解进行低等级半定量优化。我们通过这些半定问题中的结构精确地确定了因子分解问题中二次增长的条件,这对理解矩阵因子分解具有独立的意义。
translated by 谷歌翻译
最近,图形神经网络在各个研究领域引起了极大的关注并取得了突出的成果。这些算法中的大多数都具有感兴趣对象的成对关系。然而,在许多重新应用中,对象之间的关系是高阶的,超出了一定的配置。为了有效地学习高阶图结构数据的深度嵌入,我们在图神经网络的家庭中引入了两个端到端可训练算子,即超图卷积和超图注意。虽然超图卷积定义了在超图上执行卷积的基本公式,但超图注意通过利用注意模块进一步增强了表示学习的能力。通过这两个算子,图形神经网络很容易扩展到更灵活的模型,并应用于观察到非成对关系的各种应用。半监督节点分类的广泛实验结果证明了超图卷积和超图注意的有效性。
translated by 谷歌翻译
深度强化学习(DeepRL)模型在众多任务中超越了人类的表现。与恒星表现形成鲜明对比的是学习政策的模糊性。国家行动的直接映射使得很难解释代理人决策背后的基本原理。与之前的可视化DeepRL策略的后验方法相比,我们提出了一种基于Rainbow的端到端可训练框架,Rainbow是一个代表性的深Q网络(DQN)代理。我们的方法自动检测输入域中的重要区域,这使得能够表征非直观行为的一般策略和表示。因此,我们称之为Region SensitiveRainbow(RS-Rainbow)。 RS-Rainbow利用一种简单而有效的机制将先天可视化能力融入学习模型,不仅提高了可解释性,而且使代理能够利用增强状态表示来提高性能。在没有额外监督的情况下,可以了解专注于游戏玩法的不同方面的专用特征探测器。在Atari 2600的挑战性平台上进行了大量实验,证明了RS-Rainbow的优越性。特别是,我们的代理人只需要25%的训练框架就能达到最先进的技术水平,而无需进行大规模的大规模平行训练。
translated by 谷歌翻译
最近对抗性攻击的发展已经证明,基于集合的方法可以比传统的非整体方式更好地执行黑盒攻击。然而,这些方法通常具有高复杂性。他们需要一系列不同的模型,然后将它们集合起来,两者都是计算上昂贵的。在本文中,我们建议Ghost Networks有效地学习可转换的对等示例。鬼网络的关键原则是扰乱现有模型,这可能会产生大量不同的模型。这些模型随后通过纵向集合融合。这两个步骤几乎不需要额外的时间和空间消耗。大量的实验结果表明,网络的数量对于提高对抗性实例的可转移性至关重要,但是无需对独立训练不同的网络进行整合,然后将这种网络集成为一种密集的聚合方式。相反,我们的工作可以是计算机上的插件,可以轻松应用于改进单模式攻击和多模型攻击中的对抗方法,兼容残留和非残留网络。特别是,通过重新制作NIPS2017对抗性竞赛,我们的工作大大超过了第一次攻击提交,证明了它的有效性和效率。
translated by 谷歌翻译
图形相似性搜索是最重要的基于图形的应用程序之一,例如。查找与查询化合物最相似的化合物。图形相似度/距离计算,如图形编辑距离(GED)和最大公共子图(MCS),是图形相似性搜索许多其他应用程序的核心操作,但对于在实践中计算。受到最近神经网络方法成功应用于节点或图形分类等几个应用程序的启发,我们提出了一种新颖的基于神经网络的方法来解决这个经典但具有挑战性的图形问题,旨在减轻计算负担,同时保持良好的性能。拟议的方法称为SimGNN,它结合了两种策略。首先,我们设计了一个可学习的嵌入函数,它将每个图形映射到嵌入向量,该嵌入向量提供图形的全局摘要。提出了一种新的注意机制来强调关于特定相似度量的重要节点。其次,我们设计了一个成对节点比较方法,用图形级嵌入来提供细粒度的节点级信息。我们的模型可以以端到端的方式进行训练,在看不见的图上实现更好的一般化,在最坏的情况下运行在二次时间内相对于两个图中的节点数。以GED计算为例,三个真实图数据集的实验结果证明了我们的方法的有效性和有效性。具体来说,与一系列基线相比,我们的模型实现了更小的错误率和更长的时间减少,包括几种GED计算的近似算法,以及许多现有的基于图神经网络的模型。我们的研究表明,SimGNN为未来的图相似度计算和图相似性搜索研究提供了新的方向。
translated by 谷歌翻译
由于姿势,视点,照明和遮挡的大变化,人员重新识别(重新ID)是一项极具挑战性的任务。深度metriclearning通过在公制损失(例如,三重损失)的监督下训练深度网络,为人员重新ID提供了令人满意的解决方案。然而,传统的采样方法极大地限制了深度量学习的性能。为了解决这个问题,我们提出了一种采用软硬挖掘方案的难以意识的点集(HAP2S)丢失。基于点对点三重态损失框架,HAP2S损失自适应地为更难的样本分配更大的权重。与其他现有的损失函数相比,观察到几个有利的特性:1)准确性:HAP2S损失始终如一地实现更高的在三个大型基准数据集中,ID准确性高于其他替代方案; 2)稳健性:HAP2S损失对异常值比其他损失更强; 3)灵活性:HAP2S损失不依赖于特定的权重函数,即HAP2S损失的不同实例同样有效。 4)通用性:除了人员重新ID,我们将所提出的方法应用于包括CUB-200-2011和Cars196在内的通用深度量学习基准,并且还实现了最先进的结果。
translated by 谷歌翻译
弱监督物体检测(WSOD)仅使用图像级注释来训练物体检测器,在物体识别中越来越重要。在本文中,我们为WSOD提出了一种新颖的深度网络。与使用多实例学习(MIL)将对象检测问题转移到图像分类问题的先前网络不同,我们的策略生成提议集群以通过迭代过程来学习精炼的实例分类器。同一群集中的提议在空间上相邻并与同一对象相关联。这可以防止网络过度集中于对象的部分而不是整个对象。我们首先表明,实例可以直接基于提案集群为实例分类器细化分配对象标签或背景标签,然后显示将每个集群视为小型新包产生的歧义比直接分配标签方法更少。在卷积神经网络中使用多个流在线实现该实例分类器细化,其中第一个是MIL网络,而其他是例如由前一个监督的分类器细化。实验是针对WSOD的PASCAL VOC,ImageNet检测和MS-COCO基准进行的。结果表明,我们的方法明显优于现有技术水平。
translated by 谷歌翻译
In multi-organ segmentation of abdominal CT scans, most existing fully supervised deep learning algorithms require lots of voxel-wise annotations, which are usually difficult , expensive, and slow to obtain. In comparison, massive unlabeled 3D CT volumes are usually easily accessible. Current mainstream works to address semi-supervised biomedical image segmentation problem are mostly graph-based. By contrast, deep network based semi-supervised learning methods have not drawn much attention in this field. In this work, we propose Deep Multi-Planar Co-Training (DMPCT), whose contributions can be divided into two folds: 1) The deep model is learned in a co-training style which can mine consensus information from multiple planes like the sagittal, coronal, and axial planes; 2) Multi-planar fusion is applied to generate more reliable pseudo-labels, which alleviates the errors occurring in the pseudo-labels and thus can help to train better segmentation networks. Experiments are done on our newly collected large dataset with 100 unlabeled cases as well as 210 labeled cases where 16 anatomical structures are manually annotated by four radiologists and confirmed by a senior expert. The results suggest that DMPCT significantly outperforms the fully supervised method by more than 4% especially when only a small set of annotations is used.
translated by 谷歌翻译