Hypernym发现是找到与给定术语具有关系的术语的问题。我们引入了一种新的上下文类型,以及用于区分上位词与其他类型的语义关系的相关性度量。我们的文档结构度量基于文档中术语的层次位置,以及它们在定义文本中的存在或其他。此度量使用多个属性和加权距离函数的类来量化文档结构。
translated by 谷歌翻译
实体类型分类可以定义为将类别标签分配给文档中的实体提及的任务。虽然神经网络最近改进了一般实体提及的分类,但模式匹配和其他系统继续用于对个人数据实体进行分类(例如,将组织分类为媒体公司或政府机构用于GDPR,以及HIPAA合规性)。我们提出了一种神经模型来扩展可以在细粒度级别上分类的个人数据实体类别,使用现有模式匹配系统的输出作为附加上下文特征。我们引入新资源,包含134种类型的个人数据实体层次结构,以及来自维基百科当选代表和安然电子邮件页面的两个数据集。我们希望这些资源有助于在个人数据发现领域进行研究,为此,我们在这些数据集上提供基线结果,并将我们的方法与onoNooNotes数据集上的最新模型进行比较。
translated by 谷歌翻译
许多材料具有不同的光谱轮廓。这有助于通过首先获取其高光谱图像来估计每个像素处的场景的材料成分,并且随后使用一组光谱图像对其进行滤波。这个过程本质上是浪费的,因为只有一组采集的测量的线性投影有助于分类任务。我们提出了一种新颖的可编程相机,它能够用任意光谱滤波器产生上升图像。我们使用这款相机对场景的高光谱图像的光谱滤波进行光学滤波,以及执行每像素材料分类所需的光谱轮廓库。这在采集速度方面提供了增益 - 因为只获得了相关的测量值 - 以及在信噪比方面---因为我们总是避免使用效率低的窄带滤波器。 Giventraining数据,我们使用一系列经典和现代技术,包括SVM和神经网络,以确定促进材料分类的光谱剖面库。我们使用相机的实验室原型在标准数据集的模拟中验证方法以及实际数据。
translated by 谷歌翻译
我们提出了一种在一组扬声器之间转换声音的方法。我们的方法基于训练多个自动编码器路径,其中有一个独立于扬声器的编码器和多个与扬声器相关的解码器。对自动编码器进行训练,增加了由辅助分类器提供的对抗性损失,以便引导编码器的输出独立于说话者。模型的训练是无人监督的,因为它不需要从扬声器收集相同的话语,也不需要时间对齐音素。由于使用单个编码器,我们的方法可以概括为将训练外的扬声器的声音转换为训练数据集中的扬声器。我们提出主观测试证实我们的方法的性能。
translated by 谷歌翻译
深度神经网络容易受到对抗性的影响。在本文中,我们建议使用具有高丢弃率的随机子样本图像来训练和测试网络。我们证明了这种方法在有界L0,L2和L_inf扰动的所有情况下显着提高了对抗对抗性实例的鲁棒性,同时将标准精度降低了一个小值。可以认为子采样像素可以为输入图像提供一组健壮的特征,从而在不进行对抗训练的情况下提高鲁棒性。
translated by 谷歌翻译
基于梯度的方法的分布式实现,其中服务器跨工作机器分配梯度计算,遭受称为“落后者”的慢速运行机器。梯度编码是一种编码理论框架,通过使服务器能够在存在落后者的情况下恢复梯度来缓解落后者。 “近似梯度代码”是梯度代码的变体,其通过使服务器近似地重建梯度和来减少每个工作人员的计算和存储开销。在这项工作中,我们的目标是构建近似梯度代码,这些代码对于由计算无界对手选择的落后者是有效的。我们用于构建缓解对抗性落后者的代码的动机源于在大规模弹性和无服务器系统中应对落后者的挑战,其中难以统计模拟落后者。为此,我们提出了一类基于平衡完全块设计(BIBD)的近似梯度码。我们证明这些代码的近似误差仅取决于落后者的数量,因此,对抗性拉格勒选择没有优于随机选择的优势。此外,所提出的代码允许在服务器处进行计算上有效的解码。接下来,我们考虑对抗性分散的基本限制,我们考虑“对抗性门槛”的运动 - 对手必须绞尽的最小数量的工人造成某种近似误差。我们计算了对抗阈值的下限,并表明基于对称BIBD的代码在一大类代码中最大化这个下限,使其成为减轻对抗性落后者的极佳候选者。
translated by 谷歌翻译
本文提出了一种自动字幕生成和语义视频集成技术。自动视频摘要的重要性在当前的大数据时代是如此。视频摘要有助于高效存储和快速浏览大量视频而不会丢失重要视频。视频的摘要是在使用几种文本摘要算法获得的字幕的帮助下完成的。所提出的技术使用语音识别生成具有/不具有字幕的视频的字幕,然后在字幕上应用基于NLP的文本总结算法。通过Ensemble方法提高字幕生成和视频集成的性能,采用交叉方法和基于权重的学习方法两种方法实验结果表明该方法具有令人满意的性能。
translated by 谷歌翻译
Sequence-to-sequence (S2S) modeling is becoming a popular paradigm for automatic speech recognition (ASR) because of its ability to jointly optimize all the conventional ASR components in an end-to-end (E2E) fashion. This report investigates the ability of E2E ASR from standard close-talk to far-field applications by encompassing entire multichannel speech enhancement and ASR components within the S2S model. There have been previous studies on jointly optimizing neural beamforming alongside E2E ASR for denoising. It is clear from both recent challenge outcomes and successful products that far-field systems would be incomplete without solving both denoising and dereverberation simultaneously. This report uses a recently developed architecture for far-field ASR by composing neural extensions of dereverberation and beamforming modules with the S2S ASR module as a single differentiable neural network and also clearly defining the role of each subnetwork. The original implementation of this architecture was successfully applied to the noisy speech recognition task (CHiME-4), while we applied this implementation to noisy reverberant tasks (DIRHA and REVERB). Our investigation shows that the method achieves better performance than conventional pipeline methods on the DIRHA English dataset and comparable performance on the REVERB dataset. It also has additional advantages of being neither iterative nor requiring parallel noisy and clean speech data.
translated by 谷歌翻译
在无监督学习中广泛使用的许多潜变量模型的核心问题是在给定扰动点的Rd中找到潜在的k-simplex K,其中许多远远超出单纯形。这个问题在[2]中被陈述为一个开放的问题。我们在两个确定性假设下解决了这个问题,这些假设代替了相关单个模型特有的各种随机假设。我们的第一个贡献是表明所有delta n大小的数据点子集的平均值的凸包K'接近K.我们称之为子集 - 平滑。虽然K'可以具有指数级的顶点,但很容易看到具有多项式时间优化Oracle,其实际上在timeO(nnz(数据))中运行。这是我们算法的起点。该算法简单:它有k个阶段,我们使用oracle在K'上找到最大的选择线性函数;最优x是K的新顶点的近似值。简单性不会延续到正确性的证明。该证明涉及并使用来自数值分析的现有和新工具,尤其是近距离矩阵的奇异空间之间的角度。然而,算法的简单性,尤其是我们使用数据的唯一方式是做矩阵向量产品导致所声称的时间限制。这与特殊情况下最着名的算法相匹配,并且当输入稀疏时更好,因为在许多应用中确实如此。 Ouralgorithm适用于许多特殊情况,包括主题模型,近似非负矩阵分解,重叠社区检测和聚类。
translated by 谷歌翻译
最先进的神经网络容易受到对抗性的影响;它们很容易错误地分类与训练和测试数据不可察觉地不同的输入。在这项工作中,我们确定使用交叉熵损失函数和训练数据的低等级特征对这些输入的存在负有责任。根据这一观察结果,我们认为解决对抗性问题需要重新考虑使用交叉熵损失函数,并寻找更适合于具有低秩特征的最小化的替代方案。在这个方向上,我们提出了称为差分训练的训练方案,它使用一种损失函数,该函数定义在来自相反类的点的特征之间的差异上。我们证明,差分训练可以确保神经网络的决策边界与trainingdataset中的点之间有很大的差距。这个较大的余量增加了翻转分类器预测所需的扰动量,并且使得难以找到具有小扰动的adversarialexample。我们使用CIFAR-10数据集测试二元分类任务的差异训练,并证明它可以从根本上减少可以找到对抗性示例的图像比例 - 不仅在训练数据集中,而且在测试数据集中也是如此。
translated by 谷歌翻译