在过去的一年中,用于预训练和转学习的新模型和方法在各种语言理解任务中带来了显着的性能提升。一年前推出的GLUE基准提供了一个单数量度量标准,总结了各种此类任务的进展情况,但最近基准测试的表现接近非专家人员的水平,表明进一步研究的空间有限。本文回顾了从GLUE基准测试中汲取的经验教训,并介绍了SuperGLUE,这是一款以GLUE为基础的新标记,具有一系列更加困难的语言理解任务,改进的资源以及新的公共排行榜.SuperGLUE将很快在super.gluebenchmark.com上发布。
translated by 谷歌翻译
研究表明,视觉障碍用户对周围环境图像提出的一类主要问题涉及阅读图像中的文本。但今天的VQA型号无法读取!我们的论文首先解决了这个问题。首先,我们引入一个新的“TextVQA”数据集来促进这一重要问题的进展。现有数据集或者具有关于文本的问题的小部分(例如,VQA数据集)或者是小型的(例如,VizWiz数据集)。 TextVQA在28,408个图像上包含45,336个问题,需要推理文本才能回答。其次,我们介绍了一种新的模型体系结构,它可以读取图像中的文本,在图像和问题的背景下对其进行推理,并根据文本和图像或者在图像中找到的字符串组成预测答案。因此,我们将我们的方法称为Look,Read,Reason&Answer(LoRRA)。我们证明LoRRA在TextVQA数据集上优于现有的最先进的VQA模型。我们发现TextVQA上的人类性能和机器性能之间的差距明显大于VQA 2.0,这表明TextVQA非常适合于沿着与VPA 2.0互补的方向进行基准测试。
translated by 谷歌翻译
在多代理任务中学习何时进行通信和有效地进行沟通是必不可少的。最近的工作表明,持续通信允许在多代理方案中进行反向传播的高效培训,但仅限于完全合作的任务。在本文中,我们提出了个人化的受控连续通信模型(IC3Net),它比简单的连续通信模型具有更好的训练效率,并且可以应用于半合作和竞争设置以及合作设置。 IC3Net控制与门控机制的持续通信,并使用个性化的奖励foreach代理来获得更好的性能和可扩展性,同时修复信用分配问题。使用包括星际争霸BroodWars探索和战斗场景在内的各种任务,可以看出随着规模的增加,我们的网络可以提高基线的性能和收敛速度。我们的结果表明,IC3Net代理商根据场景和盈利能力了解何时进行沟通。
translated by 谷歌翻译
我们提出了一种新的循环生成模型,用于在参与文本标题的特定部分时从文本标题生成图像。我们的模型通过在“画布”上逐步添加补丁来创建图像,同时在每个时间步长处参与文本标题中的单词。最后,画布通过一个扩展网络来生成图像。我们还介绍了一种基于自注意超文本生成视觉语义句嵌入的新方法。我们将模型生成的图像与生成的Reed et.al.模型进行比较,并证明我们的模型是文本到图像生成任务的更强基线。
translated by 谷歌翻译
在这项工作中,我们探索了人工神经网络判断一个句子的语法可接受性的能力。通过对刺激论证的贫困进行检验,本机的机器学习研究可以很好地回答关于先前语言偏见在语言习得中的作用的重要开放性问题。为了实现这一目标,我们引入了语言可接受性语料库(CoLA),这是一组由专家语言学家标记为语法或非语法的10,657个英语句子。我们训练几个重复的神经网络进行二元可接受性分类。这些模型为任务设置了基线。对特定语法现象模型进行错误分析测试表明,他们学习了一些系统的语法概括,如主语 - 动词 - 宾语单词顺序,没有任何语法监督。我们发现神经序列模型对可接受性分类任务有希望。然而,在各种语法结构中,类似人类的表现仍然遥不可及。
translated by 谷歌翻译
对于自然语言理解(NLU)技术而言,无论是实际上还是作为科学研究对象,它都必须是通用的:它必须能够以不是专门针对任何特定任务或数据集的方式处理语言。为了实现这一目标,我们引入了通用语言理解评估基准(GLUE),这是一种在各种现有NLU任务中评估和分析模型性能的工具。 GLUE与模型无关,但它可以激励跨任务共享知识,因为某些任务的训练数据非常有限。我们还提供了一个手工制作的诊断测试套件,可以对NLU模型进行详细的语言分析。我们基于多任务和转移学习的当前方法评估基线,并发现它们不会立即对每个任务训练单独模型的总体性能进行实质性改进,这表明改进了一般性和强大的NLU系统的改进空间。
translated by 谷歌翻译
神经网络很容易受到对抗性攻击 - 视觉上不易察觉的小噪声,当加到输入端时会大大改变输出。防御这些敌对攻击的最有效方法是使用对抗性训练的方法。我们分析了经过对侧训练的强大模型,以研究它们在潜层层面对抗对抗性攻击的脆弱性。我们的分析揭示了与对抗性攻击具有鲁棒性的输入层相反,这些鲁棒模型的特征层非常容易受到小幅度的对抗性扰动。利用这些信息,我们引入了一种新技术潜在对抗训练(LAT),其中包括对经过对侧训练的模型进行微调,以确保在特征层中的稳健性。我们还提出潜在攻击(LA),一种用于构建对抗性示例的新算法。 LAT导致测试精度的微小改进,并导致针对MNIST,CIFAR-10,CIFAR-100数据集显示的通用一阶对抗性PGD攻击的最新对抗精度。
translated by 谷歌翻译
虽然卷积神经网络(CNN)在各种分类/识别任务上取得了令人瞩目的成绩,但它们通常包含大量参数。这导致显着的存储器需求以及计算开销。因此,需要用于压缩基于CNN的模型的过滤器级修剪方法,这不仅减少了参数的总数,而且还减少了整体计算。我们提出了一个新的min-max框架,用于CNN的过滤级修剪。我们的框架,称为Play和Prune(PP),通过自适应修剪,共同修剪和微调CNN模型参数,同时保持模型的预测性能。我们的框架由两个模块组成:(1)自适应滤波器修剪(AFP)模块,它最大限度地减少了模型中滤波器的数量; (2)修剪率控制器(PRC)模块,其在修剪期间最大化精确度。此外,与以前的方法不同,我们的方法允许直接指定欲望差异而不是修剪级别。我们的压缩模​​型可以在运行时进行部署,无需任何特殊的库或硬件。我们的方法减少了VGG-16的参数数量,令人印象深刻的因子为17.5倍,FLOPS的数量减少了6.43倍,没有精度损失,显着优于其他最先进的滤波器修剪方法。
translated by 谷歌翻译
已知香草卷积神经网络不仅在图像识别任务中而且在自然语言处理和时间序列分析中提供优异的性能。卷积层的优势之一是能够使用各种参数化卷积核来学习输入域中空间关系的特征。然而,在时间序列分析中,学习这种空间关系并不一定需要无效。在这种情况下,建议使用具有更宽空间分辨率的时间依赖性或内核建模的内核,以便通过扩张内核提供更有效的训练。然而,扩张必须先于先前固定,这限制了内核的灵活性。我们提出了广义扩张网络,它在两个方面概括了初始扩张。首先,我们推导出扩张层的端到端可学习架构,同时也可以学习扩张速率。其次,我们打破了严格的扩张结构,因为我们开发了在输入空间中独立运行的内核。
translated by 谷歌翻译
近年来,对量子计算表达神经网络成功的兴趣大大增加。张量网络理论越来越受欢迎,并被广泛用于模拟强纠缠相关系统。矩阵乘积状态(MPS)是一种精心设计的张量网状态,在量子信息处理中起着重要作用。在本文中,我们已经表明矩阵乘积状态作为张量的一维数组可用于分类经典和量子数据。我们已经对以量子态编码的经典机器学习数据集Iris进行了二元分类。此外,我们通过考虑ibmqx4量子计算机上的不同参数来研究性能,并证明MPS电路可用于获得更好的精度。此外,测试了MPS量子分类器的学习能力,使用三年的历史数据集(Agri)对位于印度北部旁遮普邦的Patiala气象站进行蒸发蒸腾($ ET_ {o} $)分类。此外,我们使用了不同的性能指标分类测量其能力。最后,绘制结果并显示每个样品的值之间的对应程度。
translated by 谷歌翻译