本文关注的是通过人工神经网络逼近偏微分方程的解。这里使用前馈神经网络来近似偏微分方程的解。将学习问题表述为最小二乘法,选择偏微分方程的残差作为损失函数,而采用多级Levenberg-Marquardt方法作为训练方法。此设置允许我们进一步了解多级方法的潜力。实际上,当最小二乘问题源于人工神经网络的训练时,受优化的变量与任何几何约束无关,并且标准插值和限制算子不能再使用。然后提出了由代数多重网格方法启发的启发式方法,以构建多级传输算子。数值实验表明,与标准的相应一级程序相比,新的多重开发方法对人工神经网络训练的效率有相关的结果。
translated by 谷歌翻译
在这项工作中,我们解决了立体声诊断的在线自适应问题,其中包括不断地将深度网络适应于在不同于源训练集的环境中记录的目标视频。为了解决这个问题,我们提出了一种新颖的在线Meta。学习模型withAdaption(OMLA)。我们的提案基于两个主要贡献。首先,为了减少源和目标特征分布之间的域转换,我们引入了一个源自BatchNormalization的在线特征对齐程序。其次,我们设计了一种元学习方法,该方法利用特征对齐在在线学习环境中实现更快的收敛。此外,我们提出了一种元预训练算法,以便获得源数据集的初始网络权重,从而有助于对未来数据流的适应。实验中,我们表明OMLA和元预训练帮助模型更快地适应新环境。我们的建议是在已经建立的KITTI数据集上进行评估的,我们在这里展示了我们的在线方法与批量设置中训练的艺术算法的竞争状态。
translated by 谷歌翻译
话语分析的第一步是将文本分成几个部分。我们用语篇段注释英语中第一个高质量的小规模医学语料库,并分析新闻训练的分支机构在这个领域的表现。虽然我们预计会发现性能下降,但是这些错误的性质表明一些问题可以在管道中提前解决,而其他问题则需要将语料库扩展到可训练的语言,以了解医学领域的细微差别。
translated by 谷歌翻译
如今,大多数现有技术的单眼深度估计技术都是基于有监督的深度学习模型。然而,收集具有相关深度图的RGB图像是一个非常耗时的过程。因此,最近的工作已经提出了用于将单目深度预测任务作为重建问题来解决的深层架构,从而避免了收集地面实况深度的需要。在这些工作之后,我们提出了用于估计深度图的自我监督的深度模型。我们的框架涉及两个主要策略:通过循环不一致和蒸馏进行细化。具体地,首先训练\ emph {student}网络预测视差图,以便从相机视图中的帧恢复相反视图中的相关图像。然后,将后向循环网络应用于所生成的图像以重新合成返回输入图像,估计相反的视差。第三网络利用原始输入帧和重建输入帧之间的不一致性来输出定义的深度图。最后,利用知识蒸馏,例如将来自细化网络的信息传递给学生。我们广泛的实验评估证明了所提出的框架的有效性,该框架在KITTI基准测试中优于现有技术的无监督方法。
translated by 谷歌翻译
利什曼病被认为是一种被忽视的疾病,每年在一些热带和亚热带国家造成数千人死亡。诊断利什曼病有多种技术,其中手动显微镜被认为是金标准。需要开发能够以稳健且无人监督的方式检测寄生虫的自动技术。在本文中,我们提出了一种基于深度学习方法自动化检测过程的过程。我们训练了一种U-net模型,该模型成功地将leismania寄生虫分段并将它们分类为in前鞭毛体,无鞭毛体和粘附的寄生虫。
translated by 谷歌翻译
本文介绍了一种新颖的图像动画深度学习框架。给出了一个带有目标对象的输入图像和一个描绘运动物体的驱动视频序列,我们的框架生成了一个视频,其中目标对象根据驱动顺序进行动画处理。这是通过深层结构实现的,这种结构将外观和运动信息分离。我们的框架包括三个主要模块:(i)密切检测器,无需经过精心训练以提取对象关键点;(ii)密集运动预测网络,用于从稀疏关键点生成密集热图,以便更好地编码运动信息;以及(iii)运动传输网络,使用从输入图像提取的运动图和外观信息来合成输出帧。我们展示了我们的方法在几个基准数据集上的有效性,涵盖了各种各样的对象外观,并且表明我们的方法优于最先进的图像动画和视频生成方法。
translated by 谷歌翻译
深度学习在计算机视觉方面带来了前所未有的进步,并且在预测与视觉数据相关的主观性质(例如,记忆性,美学质量,唤起动作等)方面取得了显着进步。最近,一些研究工作甚至提出了深度学习方法来修改图像,以适当地改变这些属性。在这个研究线上,本文介绍了一种新的深度学习框架,用于合成图像,以增强预定义的感知属性。我们的方法将自然图像作为输入,并利用近期模型进行深度样式转换和生成对抗性网络以更改样式以修改特定的高级属性。我们提出了一个通用的框架,并在两个用例中证明了它的有效性,即提高图像的可记忆性和生成可怕的图片,这些不同的工作主要集中在增强视觉内容的特定属性上。我们在公开可用的基准测试中评估所提出的方法,证明了优于现有技术方法的优势。
translated by 谷歌翻译
数据密集型科学界正在逐步采用FAIR实践,以提高科学突破的可见性并实现重用。作为这一运动的核心,研究对象以符合FAIR原则的方式包含和描述科学信息和资源,并保持关键基础设施和工具的发展。本文介绍了在几个地球科学学科的研究对象中采用FAIR所涉及的挑战,经验和解决方案。在这段旅程中,我们的工作非常全面,其成果包括:适应地球科学家需求的扩展研究对象模型;提供数字对象标识符(DOI)以实现持久性识别并对作者给予应有的信任;通过自然语言处理生成基于内容的,语义丰富的研究对象元数据,通过推荐系统和第三方搜索引擎增强可见性和重用;以及各种类型的检查表,它们提供了研究对象质量的紧凑表示,作为科学重用的关键推动因素。所有这些结果都集成在ROHub中,这是一个为不同科学界的大量应用和界面提供研究对象管理功能的平台。为了监测社区对研究对象的吸收,我们已经定义了指示者并通过ROHub获得了测量,这些测量也在本文中讨论。
translated by 谷歌翻译
虽然最近基于监督回归的深单眼深度估计方法已经取得了显着的性能,但是在训练期间需要昂贵的地面转录。为了解决这个问题,在本文中,我们提出了一种新的无监督深度学习方法来预测深度​​图,并表明深度估计任务可以在对抗性学习框架中有效地解决。具体来说,我们提出了一种学习预测对应场的深度生成网络,即校准立体摄像机设置中两个图像视图之间的视差图。所提出的体系结构包括两个与对抗性学习共同训练的生成子网络,用于重建视差图并在一个组织中进行组织。循环,如为其他人提供相互制约和监督。在公开可用的数据集KITTI和Cityscapes上进行的大量实验证明了所提出的模型的有效性以及与最先进方法的竞争结果。代码和训练模型可在https://github.com/andrea-pilzer/unsup-stereo-depthGAN获得。
translated by 谷歌翻译
技术发展需要提高机器人的感知能力和行动能力。在其他技能中,需要能够适应工作条件的任何可能变化的视觉系统。由于这些条件是不可预测的,我们需要基准测试,以便评估我们的视觉识别算法的概括性和鲁棒性。在这项工作中,我们专注于无限制场景中的机器人配套。作为第一个贡献,我们为thekitting任务提供了一个新的可视化数据集。与标准物体识别数据集不同,我们提供在相机,照明和背景改变的各种条件下获得的相同物体的图像。这种新颖的数据集允许将机器人视觉识别算法的稳健性测试到一系列不同的域移位,无论是孤立还是统一。我们的第二个贡献是基于批量标准化层的深度模型的新型在线自适应算法,它允许不断地使模型适应当前的工作条件。与标准域自适应算法不同,它在训练时不需要来自目标域的任何图像。我们对拟议数据集上的算法性能进行基准测试,显示其能力,以填补标准体系结构的性能与其离线适应给定目标域的对应部分之间的差距。
translated by 谷歌翻译