深度生成模型是数据建模的有效方法。然而,单个生成模型并不容易忠实地捕获诸如图像之类的复杂数据的分布。在本文中,我们提出了一种促进生成模型的方法,它将元模型级联在一起以产生更强的模型。可以利用支持可能性评估的任何隐藏变量元模型(例如,RBM和VAE)。我们推导出增强模型的可分解变分下界,它允许每个元模型分别和贪婪地训练。此外,我们的框架可以扩展为tosemi-supervised boosting,其中增强模型学习数据和标签的联合分布。最后,我们将增强框架与多重增强框架相结合,进一步提高了生成模型的学习能力。
translated by 谷歌翻译
面部地标定位是众多面部相关应用中非常关键的一步,例如面部识别,面部姿势估计,面部图像合成等。然而,之前的面部地标定位竞赛(即300-W,300-VW和Menpo挑战)旨在预测68点地标,这些地标无法描述面部构件的结构。为了克服这个问题,我们构建了一个具有挑战性的数据集,名为J-landmark。每个图像都用106点地标手动注释。这个数据集涵盖了姿势和表情的大变化,这给预测准确的地标带来了很多困难。我们与IEEE国际多媒体和博览会(ICME)2019一起在该数据集上举办了一场106点的面部地标定位竞赛1。本次比赛的目的是发现有效而强大的面部地标定位方法。
translated by 谷歌翻译
由于深度卷积神经网络(CNN)的巨大改进,近年来人脸识别取得了显着进展。然而,deepCNN很容易受到对抗性的例子的影响,这些例子可能会在具有安全敏感性目的的真实世界人脸识别应用程序中造成致命的后果。对抗性攻击被广泛研究,因为它们可以在部署之前识别模型的脆弱性。在本文中,我们评估了基于决策的黑盒攻击设置中最先进的人脸识别模型的稳健性,其中攻击者无法访问模型参数和梯度,但只能通过发送查询来获取硬标签预测到目标模型。这种攻击设置在现实世界的人脸识别系统中更为实用。为了提高上述方法的效率,我们提出了一种进化攻击算法,该算法可以对搜索方向的局部几何进行建模,并减小这些空间的维数。大量实验证明了所提出的方法的有效性,该方法通过较少的查询引起对输入面部图像的最小扰动。我们还应用所提出的方法成功地攻击真实世界的人脸识别系统。
translated by 谷歌翻译
深度学习方法已经在无监督域适应中显示出希望,其旨在利用标记的源域来学习具有不同分布的未标记目标域的分类器。但是,这种方法通常会学习一个域不变的表示空间来匹配源域和目标域的边缘分布,同时忽略它们的精细层次结构。在本文中,我们提出了与教师(CAT)的群集对齐,用于无监督的域适应,它可以有效地将两个域中的差异聚类结构合并到更好的适应中。技术上,CAT利用隐含的集合教师模型来可靠地发现类条件结构。未标记的目标域的特征空间。然后,CAT强制源和目标域的特征形成有区别的类条件集群,并跨域对齐相应的集群。实证结果表明,在几个无监督的领域适应情景中,CAT可以获得最先进的结果。
translated by 谷歌翻译
虽然贝叶斯神经网络(BNN)已经引起越来越多的关注,但由于高维度和过度参数化的性质,它们的后向推断仍然具有挑战性。为了解决这个问题,已经提出了几种基于粒子优化思想的高度灵活和可扩展的变分推理过程。这些方法直接优化一组粒子以接近目标后验。然而,它们对BNN的应用通常会产生次优性能,因为这种方法在过度参数化模型上具有特定的故障模式。在本文中,我们建议通过直接在回归函数空间中进行粒子优化来解决这个问题。我们通过大量实验证明,我们的方法成功地克服了这个问题,并且在各种任务中表现优于强大的基线,包括预测,防御对抗性示例和强化学习。
translated by 谷歌翻译
我们提出了批量虚拟对抗训练(BVAT),这是一种用于图卷积网络(GCN)的新型正则化方法。 BVAT解决了GCN的缺点,这些GCN不考虑模型输出分布的平滑性,而不考虑输入周围的局部扰动。我们提出了两种算法,基于样本的BVAT和基于优化的BVAT,它们适用于通过发现远离彼此的节点子集的虚拟对抗扰动或为所有节点生成虚拟对抗扰动来促进图形结构数据模型的平滑性。使用优化过程。对三个引文网络数据集Cora,Citeseer和Pubmed以及知识图数据集Nell的广泛实验验证了所提方法的有效性,该方法在半监督节点分类任务中建立了最先进的结果。
translated by 谷歌翻译
在本文中,我们提出了一种新的甲状腺细胞病理学WSIs高效滤泡分离方法。首先,我们提出了一种混合分段架构,它通过添加分支将分类器集成到Deeplab V3中。通过使用分类分支来浏览不相关区域,节省了大量的WSI分段时间。其次,将Deeplab V3中的低尺度精细特征融入到原始的空间金字塔空间(ASPP)中,以准确地表示细胞病理图像。第三,我们的混合模型采用面向准则的自适应损失函数进行训练,使模型收敛速度更快。对甲状腺贴片的实验结果表明,所提出的模型在分割精度上达到80.9%。此外,采用我们提出的方法,WSI分割的时间减少了93%,WSI水平精度达到53.4%。
translated by 谷歌翻译
奖励塑造是解决强化学习(RL)中信用分配的关键但具有挑战性的问题的最有效方法之一。然而,设计整形函数通常需要很多专业知识和手工工程,并且考虑到多个相似的任务需要解决困难。 。在本文中,我们考虑奖励塑造任务的分配,并提出一个通用的元学习框架,以自动学习新采样任务的有效奖励塑造,假设只有共享的状态空间,但不一定是动作空间。我们首先在无模型RL的信用分配方面推动理论上最优的奖励形成。然后,我们提出一种基于价值的元学习算法,以提取有效的先验优于最优的奖励形成。先验可以直接应用于新任务,或者可以在几个梯度更新中解决任务时可证明适应任务后验。我们通过显着提高学习效率和各种设置的可解释可视化来展示我们塑造的有效性,包括从DQN到DDPG的成功转移。
translated by 谷歌翻译
虽然深度神经网络已经在变量任务上取得了重大进展,但通常通过模型集合得到增强,但现有的高性能模型很容易受到对抗性攻击。许多努力致力于增强各个网络的鲁棒性,然后构建一个简单的集合,例如,通过直接平均输出,这标志着网络之间的交互。本文提出了一种新的方法来探索各个网络之间的相互作用,以提高鲁棒性的前置模型。从技术上讲,我们在对抗性环境中定义了一个新的集合多样性概念,作为个体成员非最大预测的多样性,并提出了一种适应性多样性促进(ADP)正则化因子,以鼓励多样性,从而通过制造对抗性,从而在整体上产生更好的整体性。个别成员之间难以转移的例子。我们的方法具有计算效率,并且与作用于各个网络的防御方法兼容。各种数据集的经验结果证实,我们的方法可以改善对抗性,同时保持正常实例的最新准确性。
translated by 谷歌翻译
有时,DNN产生结果是不够的。例如,在医疗保健等应用中,用户需要了解决策的基本原理。因此,必须开发算法来学习具有良好可解释性的模型(Doshi-Velez 2017)。导致DNN缺乏可解释性的一个重要因素是神经元的模糊性,其中动脉瘤可能会触发各种不相关的概念。这项工作旨在通过减少神经元的模糊性来增加DNN在整个图像空间上的解释性。在本文中,我们做出以下贡献:1)我们提出了一个度量来定量评估网络中神经元的一致性水平。 2)通过利用对偶实例,我们发现神经元的学习特征是模糊的。 3)我们建议通过具有一致损失的对抗训练算法来改善对抗性实例子集上神经元的一致性。
translated by 谷歌翻译