我们提出了批量虚拟对抗训练(BVAT),这是一种用于图卷积网络(GCN)的新型正则化方法。 BVAT解决了GCN的缺点,这些GCN不考虑模型输出分布的平滑性,而不考虑输入周围的局部扰动。我们提出了两种算法,基于样本的BVAT和基于优化的BVAT,它们适用于通过发现远离彼此的节点子集的虚拟对抗扰动或为所有节点生成虚拟对抗扰动来促进图形结构数据模型的平滑性。使用优化过程。对三个引文网络数据集Cora,Citeseer和Pubmed以及知识图数据集Nell的广泛实验验证了所提方法的有效性,该方法在半监督节点分类任务中建立了最先进的结果。
translated by 谷歌翻译
有时,DNN产生结果是不够的。例如,在医疗保健等应用中,用户需要了解决策的基本原理。因此,必须开发算法来学习具有良好可解释性的模型(Doshi-Velez 2017)。导致DNN缺乏可解释性的一个重要因素是神经元的模糊性,其中动脉瘤可能会触发各种不相关的概念。这项工作旨在通过减少神经元的模糊性来增加DNN在整个图像空间上的解释性。在本文中,我们做出以下贡献:1)我们提出了一个度量来定量评估网络中神经元的一致性水平。 2)通过利用对偶实例,我们发现神经元的学习特征是模糊的。 3)我们建议通过具有一致损失的对抗训练算法来改善对抗性实例子集上神经元的一致性。
translated by 谷歌翻译
二进制神经网络具有很高的资源和计算效率,而与全精度对应物相比,较长的训练过程和不可忽略的精度下降。在本文中,我们提出了复合二进制分解网络(CBDNet),它首先用有限数量的二进制张量组合每层的实值张量,然后将一些条件二进制张量分解为两个低秩二分法,从而得到参数个数。与原来的相比,操作大大减少了。实验证明了该方法的有效性,因为CBDNet可以使用5.25位近似图像分类网络ResNet-18,使用5.47位的VGG-16,使用5.72位的DenseNet-121,使用4.38位的物体检测网络SSD300,以及使用5.18位的语义分割网络SegNet ,所有精度都有轻微下降。
translated by 谷歌翻译
视觉问答(VQA)需要对图像和自然语言问题进行联合理解,其中许多问题不能直接或明确地从视觉内容中回答,而是需要从结构化人类知识推理并通过视觉内容进行确认。本文提出了视觉知识存储网络(VKMN)来解决这个问题,它将结构化的人类知识和深层视觉特征无缝地整合到端到端学习框架中的内存网络中。与现有的支持VQA的外部知识平衡方法相比,本文更多地论述了两种缺失的机制。首先是将视觉内容与知识​​事实相结合的机制。 VKMN通过将知识三元组(主题,关系,目标)和深层视觉特征联合嵌入到视觉知识特征中来处理这个问题。其次是处理从问答对中扩展的多个知识因素的机制。 VKMN在内存网络中存储使用键值对结构的联合嵌入,以便易于处理多个事实。实验表明,该方法在VQA v1.0和v2.0基准测试中均取得了较好的成果,同时在知识推理相关问题上优于最先进的方法。
translated by 谷歌翻译
Although the recent progress is substantial, deep learning methods can bevulnerable to the maliciously generated adversarial examples. In this paper, wepresent a novel training procedure and a thresholding test strategy, towardsrobust detection of adversarial examples. In training, we propose to minimizethe reverse cross-entropy (RCE), which encourages a deep network to learnlatent representations that better distinguish adversarial examples from normalones. In testing, we propose to use a thresholding strategy as the detector tofilter out adversarial examples for reliable predictions. Our method is simpleto implement using standard algorithms, with little extra training costcompared to the common cross-entropy minimization. We apply our method todefend various attacking methods on the widely used MNIST and CIFAR-10datasets, and achieve significant improvements on robust predictions under allthe threat models in the adversarial setting.
translated by 谷歌翻译
CleverHans是一个软件库,提供对抗性示例构造技术和对抗训练的标准化参考实现。该库可用于开发更强大的机器学习模型,并在对抗设置中提供模型性能的标准化基准。在没有标准化实施对抗性示例构造的情况下构建的基准与彼此不可比较,因为良好的结果可能表示稳健的模型,或者它可能仅表示对抗性示例构造过程的弱实现。本技术报告的结构如下。第1节提供了机器学习和CleverHanssoftware中对抗性示例的概述。第2节介绍了图书馆的核心功能:即基于对抗性示例和防御的攻击,以提高机器学习模型对这些攻击的鲁棒性。第3节描述了如何使用库报告基准测试结果。第4节描述了版本系统。
translated by 谷歌翻译
这是用于人体姿势估计的深度高分辨率表示学习的官方pytorch实现。在这项工作中,我们对人体姿势估计问题感兴趣,重点是学习可靠的高分辨率表示。大多数现有方法从高分辨率网络产生的低分辨率表示中恢复高分辨率表示。相反,我们提出的网络在整个过程中保持高分辨率的表示。我们从高分辨率子网开始作为第一阶段,逐一逐步添加高到低分辨率子网以形成更多阶段,并且并行地连接它们的分辨率子网。我们进行重复的多尺度融合,使得从高到低分辨率的表示中的每一个一遍又一遍地从其他平行表示接收信息,从而导致丰富的高分辨率表示。结果,预测的关键点热图可能更准确并且在空间上更精确。我们通过两个基准数据集的优越姿态估计结果,经验证明了我们网络的有效性:COCO关键点检测数据集和MPII人体姿势数据集。代码和模型已在\ url {https://github.com/leoxiaobin/deep-high-resolution-net.pytorch}公开发布。
translated by 谷歌翻译
自我关注网络是一种基于注意力的前馈神经网络,最近已经显示出在各种NLP任务中取代递归神经网络(RNN)的潜力。然而,目前尚不清楚自我关注网络是否是自动语音识别(ASR)中RNN的良好替代,其自动语音识别处理较长的语音序列并且可能具有在线识别要求。在本文中,我们提出了一个无RNN的端到端模型:自注意对准器(SAA),它将自注意网络应用于简化的递归神经对准器(RNA)框架。我们还提出了一种跳槽机制,它使SAA模型能够一个接一个地对分段帧块进行编码,以支持在线识别。两个Mandarin ASR数据集上的实验表明,自注意网络替代RNN会产生8.4%-10.2%的相对字符错误率(CER)减少。此外,块跳跃机制允许SAA仅具有2.5%的相对CER降级,具有320ms的延迟。在与自我关注网络语言模型联合训练后,我们的SAA模型在多个数据集上获得进一步的错误率降低。特别是,它在马来西亚ASR基准(HKUST)上达到了24.12%的CER,超过了最佳的端到端模型,超过2%的绝对CER。
translated by 谷歌翻译
在本文中,我们提出了一个基于开放的基于词汇的词汇知识库OpenOowNet。基于着名的知网,OpenHowNet包含三个组成部分:核心数据,由超过10万个带有注释的意义组成,OpenHowNet Web简要介绍OpenHowNet以及OpenHowNet信息的在线展示,OpenHowNet API包括几个有用的API,例如访问OpenHowNet核心数据和绘制感官的sememe树结构。在正文中,我们首先给出一些背景知识,包括sememe的定义和HowNet的细节。然后我们介绍一些以前的知网和基于sememe的研究工作。最后但并非至少,我们详细介绍了OpenHowNet的组成部分及其基本功能和功能。此外,我们简要地总结一下并列出一些未来的工作。
translated by 谷歌翻译
奖励塑造是解决强化学习(RL)中信用分配的关键但具有挑战性的问题的最有效方法之一。然而,设计整形函数通常需要很多专业知识和手工工程,并且考虑到多个相似的任务需要解决困难。 。在本文中,我们考虑奖励塑造任务的分配,并提出一个通用的元学习框架,以自动学习新采样任务的有效奖励塑造,假设只有共享的状态空间,但不一定是动作空间。我们首先在无模型RL的信用分配方面推动理论上最优的奖励形成。然后,我们提出一种基于价值的元学习算法,以提取有效的先验优于最优的奖励形成。先验可以直接应用于新任务,或者可以在几个梯度更新中解决任务时可证明适应任务后验。我们通过显着提高学习效率和各种设置的可解释可视化来展示我们塑造的有效性,包括从DQN到DDPG的成功转移。
translated by 谷歌翻译