由于其非参数性,性能良好,性能良好,并且通过诸如TensorFlow等库的可访问性,深度卷积神经网络(DCNNS)已成为自动图像注释的最常见解决方案。在其他领域中,DCNN也是通过数字天空调查获取的大天文图像数据库的常用方法。 DCNN的主要缺点之一是复杂的非直观规则,使DCNNS成为“黑匣子”,以不清楚用户的方式提供注释。因此,用户通常无法知道什么信息DCNN用于分类。在这里,我们证明了DCNN的训练对培训数据的背景敏感,例如天空中的物体的位置。我们表明,对于椭圆形和螺旋星系的基本分类,用于训练的星系的天空位置影响算法的行为,并导致小但一致而且统计学上的偏差。该偏差在宇宙学级各向异性的形式中表现出基本的星系形态的分布。因此,虽然DCNN是用于注释延长源图像的强大工具,但是对于Galaxy形态的培训集的构建应该考虑到比OB的视觉外观更多的方面ject。在任何情况下,使用深度神经网络创建的目录,即表现出宇宙主义各向异性的迹象,应通过一致偏差的可能性来解释。
translated by 谷歌翻译
在本文中,我们介绍了一项针对INLG 2022代挑战(Genchal)提交的系统,该系统涉及对合成的质量评估合成生成的代码混合的Hinglish文本的质量评估。我们实施了基于BISTM的神经网络模型,以预测合成Hinglish数据集的平均评分评分和分歧分数。在我们的模型中,我们将单词嵌入式用于英语和印地语数据,以及用于Hinglish Data的热门编码。我们在平均评分评分预测任务中达到了0.11的F1分数,平均平方误差为6.0。在分歧分数预测的任务中,我们的F1得分为0.18,平均误差为5.0。
translated by 谷歌翻译
针对边缘设备的实用眼睛认证(EA)系统需要对呈现攻击进行身份验证并强大,同时剩余计算和延迟效率。然而,现有的基于眼框架A)独立地执行认证和呈现攻击检测(PAD),B)涉及提取虹膜区域的显着预处理步骤。在这里,我们使用围绕图像介绍EA和垫的联合框架。虽然深度多任务学习(MTL)网络可以执行任务,但由于EA和焊盘的训练数据集是不相交的,因此MTL遭受遗忘效果。为了克服这一点,我们提出了用垫(眼部)的眼睛认证,一种基于蒸馏的方法,该方法为EA和垫训练了一个网络,同时降低了遗忘的效果。为了进一步提高EA性能,我们介绍了一种名为Eyepad ++的新方法,包括在EA和焊盘数据上训练MTL网络,同时通过额外的蒸馏步骤蒸馏眼网网络的“通用性”。我们所提出的方法优于垫中的SOTA,并在眼睛验证中获得近的SOTA性能,而无需任何预处理。我们还展示了眼部和眼部++在用户到用户验证中的疗效,跨网络骨干网和图像质量。
translated by 谷歌翻译
面部识别网络通常展示相对于性别,Skintone等的敏感属性,适用于性别和Skintone,我们观察到网络的面积,网络参加属性的类别。这可能有助于偏见。在这种直觉上建立一种新的基于蒸馏的方法,称为蒸馏和去偏置(D&D),以实施网络以寻求类似的面部区域,而不管属性类别如何。在D&D中,我们从一个属性中培训一类图像的教师网络;例如轻的Skintone。然后从教师蒸馏信息,我们在剩余类别的图像上培训学生网络;例如,黑暗的skintone。特征级蒸馏损失约束学生网络以生成类似教师的表示。这允许学生网络参加所有属性类别的类似面部区域,并使其能够减少偏差。我们还提出了D&D的顶部的第二蒸馏步骤,称为D&D ++。对于D&D ++网络,我们将D&D网络的“未偏见”蒸馏成新的学生网络,D&D ++网络。我们在所有属性类别上培训新网络;例如,光明和黑暗的碳酸根。这有助于我们培训对属性偏差的网络,同时获得比D&D更高的面部验证性能。我们展示D&D ++优于在IJB-C数据集上减少性别和Skintone偏置的现有基线,同时获得比现有的对抗偏置方法更高的面部验证性能。我们评估我们所提出的方法对两个最先进的面部识别网络的有效性:Crystalface和Arcface。
translated by 谷歌翻译
医疗行业的需求越来越多,具有自动化系统,用于检测和定位,否则是手动低效的。在牙科,它非常感兴趣地追踪下颌运河的途径。垂直牙龈神经(IAN)的颌骨运河位置的适当定位降低了在牙科植入术期间损坏其的风险。在时间和劳动中,手工检测运河路径不是有效的方式。在这里,我们提出了一种基于深度学习的框架来检测来自CBCT数据的下颌管。这是一个3级过程全自动端到端。在预处理阶段产生地面真理。我们不是使用常用的固定直径管状的地面真理,而是生成下颌运河的中心线,并在培训过程中使用它们作为地面真理。 3D U-Net架构用于模型培训。开发了一种有效的后处理阶段来纠正初始预测。测量精度,召回,F1分数和IOU分析体素级分割性能。然而,为了分析基于距离的测量,计算从地面真理到预测和预测地面真理的平均曲线距离(MCD)。进行广泛的实验以证明模型的有效性。
translated by 谷歌翻译
尽管具有抽象文本摘要的神经序列到序列模型的成功,但它具有一些缺点,例如重复不准确的事实细节并倾向于重复自己。我们提出了一个混合指针发生器网络,以解决再现事实细节的缺点和短语重复。我们使用混合指针发生器网络增强了基于注意的序列到序列,该混合指针发生器网络可以生成词汇单词并增强再现真实细节的准确性和劝阻重复的覆盖机制。它产生合理的输出文本,可以保留输入文章的概念完整性和事实信息。为了评估,我们主要雇用“百拉那” - 一个高度采用的公共孟加拉数据集。此外,我们准备了一个名为“BANS-133”的大型数据集,由133K Bangla新闻文章组成,与人类生成的摘要相关。试验拟议的模型,我们分别实现了胭脂-1和胭脂 - 2分别为0.66,0.41的“Bansdata”数据集,分别为0.67,0.42,为Bans-133k“数据集。我们证明了所提出的系统超过以前的国家 - 近距离数据集的近距离攀义概要技术及其稳定性。“Bans-133”数据集和代码基础将公开进行研究。
translated by 谷歌翻译
标签数据的可用性有限,使任何有监督的学习问题具有挑战性。诸如半监督和大学学习之类的替代学习设置可以减轻对标记数据的依赖,但仍需要大量未标记的数据,这可能不可用或昂贵。基于GAN的数据生成方法最近通过生成合成样本来改善学习来表现出希望。但是,在有限的标记数据设置下,大多数现有的基于GAN的方法要么提供差的歧视效果。或导致低质量生成的数据。在本文中,我们提出了一个GAN游戏,该游戏在有限的数据设置下提供了改进的歧视器精度,同时生成了高质量的现实数据。我们进一步提出了不断发展的歧视损失,从而改善了其收敛性和泛化性能。我们得出理论保证并提供经验结果以支持我们的方法。
translated by 谷歌翻译
近年来,变形金刚大大提高了自然语言处理(NLP)的最新技术,但呈现出非常大的计算和存储要求。我们观察到,变压器的设计过程(以自我监督的方式预先培训是大型数据集上的基础模型,随后将其用于不同的下游任务)导致特定于任务的模型,这些模型高度过度参数化,参数过度过度化,不利地影响准确性和推理效率。我们提出了Axformer,这是一个系统的框架,该框架应用精度驱动的近似值来为给定的下游任务创建优化的变压器模型。 Axformer结合了两个关键的优化 - 准确驱动的修剪和选择性的硬注意。准确驱动的修剪确定并删除了微调变压器的一部分,从而阻碍了给定下游任务的性能。稀疏的硬注意通过消除无关的单词聚合来优化选定层中的注意力块,从而帮助模型仅关注输入的相关部分。实际上,Axformer会导致更准确的模型,同时更快,更小。我们在胶水和小队任务上的实验表明,轴形模型的准确性高达4.5%,同时比传统的微调模型快2.5倍,高达3.2倍。此外,我们证明了轴形式可以与先前的努力(例如蒸馏或量化)结合使用,以实现进一步的效率提高。
translated by 谷歌翻译