在过去的几年中,未配对的图像DeNoising取得了有希望的发展。无论表现如何,方法都倾向于严重依赖潜在的噪声属性或任何并不总是实用的假设。另外,如果我们可以从结构的角度而不是噪声统计数据解决问题,那么我们可以实现更强大的解决方案。通过这种动机,我们提出了一个自制的剥夺计划,该计划是不成功的,依赖于空间降解,然后进行正规化的精炼。我们的方法比以前的方法显示出显着改善,并且在不同的数据域上表现出一致的性能。
translated by 谷歌翻译
垃圾邮件是困扰网络规模的数字平台的一个严重问题,可促进用户内容创建和分发。它损害了平台的完整性,推荐和搜索等服务的性能以及整体业务。垃圾邮件发送者从事各种与非垃圾邮件发送者不同的虐待和回避行为。用户的复杂行为可以通过富含节点和边缘属性的异质图很好地表示。学会在网络尺度平台的图表中识别垃圾邮件发送者,因为其结构上的复杂性和大小。在本文中,我们提出了塞纳河(使用相互作用网络检测垃圾邮件检测),这是一个新的图形框架上的垃圾邮件检测模型。我们的图形同时捕获了丰富的用户的详细信息和行为,并可以在十亿个尺度的图表上学习。我们的模型考虑了邻域以及边缘类型和属性,从而使其可以捕获广泛的垃圾邮件发送者。塞纳河(Seine)经过数千万节点和数十亿个边缘的真实数据集的培训,获得了80%的召回率,并以1%的假阳性率获得了80%的召回率。塞纳河(Seine)在公共数据集上的最先进技术实现了可比的性能,同时务实可用于大规模生产系统。
translated by 谷歌翻译
在监督机器学习的背景下,学习曲线描述了模型在看不见的数据上的性能如何与用于训练模型的样本数量有关。在本文中,我们介绍了植物图像的数据集,其中包括不同生长阶段的曼尼托巴省大草原共有的农作物和杂草的代表。我们通过Resnet体系结构确定该数据上的分类任务的学习曲线。我们的结果与以前的研究一致,并增加了以下证据:学习曲线受大规模,应用和模型的权力关系的约束。我们进一步研究标签噪声和可训练参数的减少如何影响该数据集的学习曲线。这两种效应都导致模型需要过多的较大训练集,以实现与没有这些效果的相同分类性能。
translated by 谷歌翻译
许多应用包括具有事件发生时间的事件数据序列。预测发生时间的模型在社交网络,金融交易,医疗保健和人类流动等各种应用程序中起着重要作用。最近的作品引入了基于神经网络的基于点的点过程,用于建模事件时间,并显示在预测事件时提供最先进的性能。然而,在量化预测性不确定性并且倾向于在外推期间产生过度自信预测的神经网络。适当的不确定性量化对于许多实际应用至关重要。因此,我们提出了一种新型点过程模型,贝叶斯神经鹰过程,利用贝叶斯模型的不确定性建模能力和神经网络的泛化能力。该模型能够通过事件发生时间预测认识性不确定性,并且在模拟和现实世界数据集上对其有效性进行了证明。
translated by 谷歌翻译
基于变压器的语言模型导致所有域的所有域都令人印象深刻的自然语言处理。在语言建模任务上预先预订这些模型以及在文本分类,问题应答和神经机翻译等下游任务上的FineTuning它们一直显示了示例性结果。在这项工作中,我们提出了一种多任务FineTuning方法,它将双语机器翻译任务与辅助因果语言建模任务相结合,以提高印度语言前任务的性能。我们对三种语言对,Marathi-Hindi,Marathi-English和Hindi-English进行了实证研究,在那里我们将多任务FineTuning方法与标准的FineTuning方法进行比较,我们使用MBart50模型。我们的研究表明,多任务FineTuning方法可以是比标准FineTuning更好的技术,并且可以改善语言对的双语机器换算。
translated by 谷歌翻译
源相机识别工具辅助图像法医调查人员将讨论的图像与可疑摄像机相关联。已经基于在获取期间图像中留下的微妙迹线的分析来开发了各种技术。由传感器缺陷引起的照片响应非均匀性(PRNU)噪声模式已被证明是识别源相机的有效方法。现有文献表明,PRNU是唯一是特定于设备的指纹,并且能够识别确切的源设备。然而,PRNU易受相机设置,图像内容,图像处理操作和反务攻击的影响。法医调查员不知道反务攻击​​或附带图像操纵有误导的风险。两个PRNU匹配期间的空间同步要求也代表了PRNU的一个主要限制。近年来,基于深度学习的方法在识别源相机模型方面取得了成功。然而,通过这些数据驱动方法识别相同模型的各个摄像机仍然不令人满意。在本文中,我们可以在数字图像中阐明能够识别相同模型的各个摄像机的数字图像中的新的强大数据驱动设备特定指纹。发现新设备指纹是独立于无关的,随机性的,全局可用,解决空间同步问题。与驻留在高频带中的PRNU不同,从低频和中频频带提取新的设备指纹,这解析了PRNU无法抗争的脆弱问题。我们对各种数据集的实验表明,新的指纹对图像操纵具有高度弹性,例如旋转,伽马校正和侵略性JPEG压缩。
translated by 谷歌翻译
我们认为在数据异质性下实现联合学习(FL)的公平分类问题。为公平分类提出的大多数方法都需要不同的数据,这些数据代表了所涉及的不同人口群体。相比之下,每个客户端都是拥有仅代表单个人口统计组的数据。因此,在客户级别的公平分类模型无法采用现有方法。为了解决这一挑战,我们提出了几种聚合技术。我们通过比较Celeba,UTK和Fairace数据集上产生的公平度量和准确性来凭经验验证这些技术。
translated by 谷歌翻译
The status of retinal arteriovenous crossing is of great significance for clinical evaluation of arteriolosclerosis and systemic hypertension. As an ophthalmology diagnostic criteria, Scheie's classification has been used to grade the severity of arteriolosclerosis. In this paper, we propose a deep learning approach to support the diagnosis process, which, to the best of our knowledge, is one of the earliest attempts in medical imaging. The proposed pipeline is three-fold. First, we adopt segmentation and classification models to automatically obtain vessels in a retinal image with the corresponding artery/vein labels and find candidate arteriovenous crossing points. Second, we use a classification model to validate the true crossing point. At last, the grade of severity for the vessel crossings is classified. To better address the problem of label ambiguity and imbalanced label distribution, we propose a new model, named multi-diagnosis team network (MDTNet), in which the sub-models with different structures or different loss functions provide different decisions. MDTNet unifies these diverse theories to give the final decision with high accuracy. Our severity grading method was able to validate crossing points with precision and recall of 96.3% and 96.3%, respectively. Among correctly detected crossing points, the kappa value for the agreement between the grading by a retina specialist and the estimated score was 0.85, with an accuracy of 0.92. The numerical results demonstrate that our method can achieve a good performance in both arteriovenous crossing validation and severity grading tasks. By the proposed models, we could build a pipeline reproducing retina specialist's subjective grading without feature extractions. The code is available for reproducibility.
translated by 谷歌翻译