本文描述了针对机器翻译(MT),实体发现和链接(EDL)以及文本和语音中的情景帧(SF文本和语音)的检测的低资源人类语言技术(LoReHLT)2018评估的ARIEL-CMU提交。
translated by 谷歌翻译
现代网络系统不断受到系统攻击的威胁。连接到网络的设备数量以及相关的流量都出现了大量增长。这加强了在系统设计和实现过程中更好地理解所有可能的攻击向量的需要。此外,它增加了挖掘大型数据集的需求,分析哪些已成为一项艰巨的任务。规模监控基础设施以满足这一需求至关重要,但对于小型和中介组织而言,这是一个艰难的目标。因此,需要提出在安全性中解决大数据问题的新方法。信息中心(IC)标记网络节点具有更好的有利位置,用于检测中心节点的基于网络的异常,并使用它们来检测称为系统攻击的一类攻击。主要思想是,由于这些中心节点已经看到很多信息流经网络,因此它们可以在其他节点之前检测异常。本研究首先深入研究了利用图形理解拓扑和信息流的重要性。然后介绍了信息中心性的使用,这是一种基于中心的指标,可以减少现有通信网络中的数据采集。当使用合适的异常检测技术时,使用IC识别的中心节点可以加速异常值检测。我们还提出了一种更有效的方法来计算大型网络的信息中心性。最后,我们证明了中心节点比其他非中心节点更快地检测到异常行为,因为异常行为本质上是系统性的。
translated by 谷歌翻译
本报告描述了18个项目,这些项目探讨了如何在国家实验室中将商业云计算服务用于科学计算。这些演示包括在云环境中部署专有软件,以利用已建立的基于云的分析工作流来处理科学数据集。总的来说,这些项目非常成功,并且他们共同认为云计算可以成为国家实验室科学计算的宝贵计算资源。
translated by 谷歌翻译
我们给出了一种新算法,用于逼近已被最坏情况$ L_0 $噪声破坏的近似稀疏信号的离散傅里叶变换,即信号的有界坐标数已被任意破坏。我们的技术推广到用于数据分析的各种线性变换,例如离散余弦和正弦变换,Hadamard变换及其高维模拟。我们使用我们的算法来成功防御图像分类设置中众所周知的$ L_0 $对手。我们在基于雅可比的显着图攻击(JSMA)和对MNIST和Fashion-MNIST数据集的Carlini Wagner(CW)$ L_0 $攻击以及ImageNet数据集的Adversarial Patchon上给出实验结果。
translated by 谷歌翻译
The recent success in deep learning has lead to various effective representation learning methods for videos. However , the current approaches for video representation require large amount of human labeled datasets for effective learning. We present an unsupervised representation learning framework to encode scene dynamics in videos captured from multiple viewpoints. The proposed framework has two main components: Representation Learning Network (RL-NET), which learns a representation with the help of Blending Network (BL-NET), and Video Rendering Network (VR-NET), which is used for video synthesis. The framework takes as input video clips from different viewpoints and time, learns an internal representation and uses this representation to render a video clip from an arbitrary given viewpoint and time. The ability of the proposed network to render video frames from arbitrary viewpoints and time enable it to learn a meaningful and robust representation of the scene dynamics. We demonstrate the effectiveness of the proposed method in rendering view-aware as well as time-aware video clips on two different real-world datasets including UCF-101 and NTU-RGB+D. To further validate the effectiveness of the learned representation, we use it for the task of view-invariant activity classification where we observe a significant improvement (∼ 26%) in the performance on NTU-RGB+D dataset compared to the existing state-of-the art methods. Figure 1: An overview of the proposed video rendering framework. An activity is captured from different viewpoints (v1, v2, and v3) providing observations (o1, o2, and o3). Video clips from these viewpoints (v1 and v2) at arbitrary times (t1 and t2) are used to learn a scene and dynamics representation (r) for this activity, employing the proposed RL-NET. The learned representation (r) is then used to render a video from an arbitrary query viewpoint (v3) and time (t3) using proposed VR-NET.
translated by 谷歌翻译
寻找乳腺肿瘤的乳房X光检查是一项艰巨的任务,放射科医师必须经常进行。因此,需要图像分析方法来检测和描绘乳房肿块,这些方法描绘了支持可靠诊断的结核形态学信息。在本文中,我们提出了一种条件生成性对抗网络(cGAN),其设计用于在乳房X线照片中分割感兴趣区域(ROI)内的乳房肿块。生成网络学会识别乳房肿块区域并创建概括乳房肿块的二元面罩。反过来,对抗性网络可以区分真实(地面实况)和合成分割,从而强制生成网络创建尽可能现实的二进制掩模。即使训练样本的数量有限,cGAN也能很好地工作。因此,所提出的方法优于几种最先进的方法。在两个数据集上进行的各种实验,即公共INbreast和私人内部数据集,证实了这一假设。所提出的分割模型提供了高Dice系数和联合交叉(IoU)分别为94%和87%。另外,提出了一种基于卷积神经网络(CNN)的形状描述符,将生成的掩模分为四个质量形状:不规则形,小叶形,椭圆形和圆形。所提出的shapedescriptor在数字数据库筛选乳腺摄影术(DDSM)上进行了训练,总体准确度达到80%,优于目前的最新技术水平。
translated by 谷歌翻译
由于深度学习方法是商业上重要应用(如自动驾驶和医疗诊断)的关键部分,因此在使用这些算法时可靠地检测分布外(OOD)输入是非常重要的。在这项工作中,我们提出了一种OOD检测算法,它包含一组分类器。我们通过将训练数据的随机子集省略为OODdata而将剩余的训练数据作为分布(ID)数据,以自我监督的方式训练每个分类器。我们提出了一种新的基于边际的损失,而不是softmax输出,它试图在OOD和分布样本的平均熵之间保持至少一个裕量$ m $。与标准的交叉熵损失相结合,我们最大限度地减少了分类器集合的新颖损失。我们还提出了一种新的方法来组合分类器集合的输出,以获得OOD检测得分和类别预测。总的来说,我们的方法在几个OOD检测基准上令人信服地胜过Hendrycks等人[7]和当前最先进的ODIN [13]。
translated by 谷歌翻译
本文提出了一种利用U-Net和多尺度特征匹配网络的光盘和杯子分割方法。所提出的方法指出了REFUGE挑战2018的任务2.为了解决任务2的分割问题,我们首先使用单发多盒检测器(SSD)来裁剪输入图像。然后将裁剪后的图像传递给编码器 - 解码器网络,跳过连接也称为发生器。然后,将地面真实图像和生成的图像都馈送到卷积神经网络(CNN)以提取它们的多级特征。然后使用骰子丢失函数通过最小化每层的误差来匹配两个图像的特征。来自每个层的错误聚集通过生成器网络反向传播,以强制它生成更接近地面实况的分段图像.CNN网络提高了生成器网络的性能,而不会增加模型的复杂性。
translated by 谷歌翻译
本文提出了一种基于条件生成对抗网络(cGAN)的分割视盘的视网膜图像分割方法。所提出的模型包括两个连续的网络:发生器和鉴别器。发生器技术将来自观察输入(即视网膜眼底彩色图像)的信息映射到输出(即二元掩模)。然后,鉴别器通过比较地面实况和预测输出来观察输入图像作为条件,学习作为aloss函数训练该映射。实验在两个公开可用的数据集上进行; DRISHTI GS1和RIM-ONE。通过分别实现约0.96%和0.98%的Jaccard和Dice系数,所提出的模型优于现有技术方法。此外,在最近的GPU上在不到一秒的时间内执行图像分割。
translated by 谷歌翻译
本文提出了一种基于条件生成对抗网络(cGAN)的乳腺肿块乳房肿块分割方法。我们假设cGAN结构非常适合精确地描绘质量区域,特别是当训练数据有限时。生成网络延伸肿瘤的内在特征,而对抗网络强制分类与基本事实相似。从公共DDSM数据集和我们内部私人数据集中提取的数十个恶性肿瘤进行的实验证实了我们的假设具有非常高的Dice系数和Jaccard指数(分别> 94%和> 89%)优于其他状态所获得的分数。 -art方法。此外,为了检测分割肿瘤的显着形态特征,还设计了特定的卷积神经网络(CNN),用于将这些胶原肿瘤区域分为四种类型(不规则,小叶,椭圆和圆形),这提供了大约72的总体准确度。 %与DDSM数据集。
translated by 谷歌翻译