Recent cross-lingual cross-modal works attempt to extend Vision-Language Pre-training (VLP) models to non-English inputs and achieve impressive performance. However, these models focus only on understanding tasks utilizing encoder-only architecture. In this paper, we propose ERNIE-UniX2, a unified cross-lingual cross-modal pre-training framework for both generation and understanding tasks. ERNIE-UniX2 integrates multiple pre-training paradigms (e.g., contrastive learning and language modeling) based on encoder-decoder architecture and attempts to learn a better joint representation across languages and modalities. Furthermore, ERNIE-UniX2 can be seamlessly fine-tuned for varieties of generation and understanding downstream tasks. Pre-trained on both multilingual text-only and image-text datasets, ERNIE-UniX2 achieves SOTA results on various cross-lingual cross-modal generation and understanding tasks such as multimodal machine translation and multilingual visual question answering.
translated by 谷歌翻译
这是Parse2022 Challenge最终结果中第9位的技术报告。我们通过使用基于3D CNN网络的两阶段方法来解决肺动脉的分割问题。粗模型用于定位ROI,并使用精细模型来完善分割结果。此外,为了提高细分性能,我们采用了多视图和多窗口级方法,同时我们采用了微调策略来减轻不一致的标签影响。
translated by 谷歌翻译
目前,在有监督的学习下,由大规模自然界数据集预测的模型,然后在一些特定的任务标签数据上进行微调,这是主导知识转移学习的范式。它已达到遥感域(RSD)中任务感知模型培训的共识解决方案的状态。不幸的是,由于不同类别的成像数据和数据注释的严峻挑战,因此没有足够大且均匀的遥感数据集来支持RSD中的大规模预处理。此外,通过监督学习,然后直接对不同的下游任务进行微调,在大规模自然场景数据集上进行了预处理的模型似乎是一种粗略的方法,这很容易受到不可避免的标记噪声,严重的域间隙和任务意识到的差异的影响。因此,在本文中,考虑了一个简洁有效的知识转移学习策略,称为连续预审计(CSPT),考虑了不停止在自然语言处理中预处理的想法(CSPT)(CSPT)(CSPT)(CSPT)(CSPT)(CSPT)(CSPT)(CSPT)(CSPT)(CSPT)(CSPT)(CSPT)(CSPT)(CSPT)(CSPT),那么在本文中。 NLP),可以逐渐弥合域间隙并将知识从自然场景域转移到RSD。拟议的CSPT还可以发布未标记数据的巨大潜力,以进行任务感知模型培训。最后,在RSD的十二个数据集上进行了广泛的实验,涉及三种类型的下游任务(例如,场景分类,对象检测和土地覆盖分类)和两种类型的成像数据(例如,光学和SAR)。结果表明,通过利用拟议的CSPT进行任务感知模型培训,RSD中的几乎所有下游任务都可以胜过先前的监督预处理的方法,然后再进行预先调整,甚至超过了最先进的方法(SOTA)(SOTA)(SOTA)性能没有任何昂贵的标签消费和仔细的模型设计。
translated by 谷歌翻译
开放式综合分割(OPS)问题是一个新的研究方向,旨在对\已知类别和\未知类进行细分,即在培训集中从未注释的对象(“事物”)。 OPS的主要挑战是双重的:(1)\未知物体出现的无限可能性使得很难从有限数量的培训数据中对其进行建模。 (2)在培训时,我们仅提供“空白”类别,该类别实质上将“未知事物”和“背景”类混合在一起。我们从经验上发现,直接使用“ void”类别监督\已知类别或“背景”而不筛选的“背景”不会导致满足的OPS结果。在本文中,我们提出了一个分裂和争议计划,以制定OPS的两阶段决策过程。我们表明,通过将\已知的类别歧视器与其他类别的对象预测头正确相结合,可以显着提高OPS性能。具体而言,我们首先建议创建一个仅具有\已知类别的分类器,并让“ void”类建议从这些类别中实现较低的预测概率。然后,我们使用其他对象预测头将“未知事物”与背景区分开。为了进一步提高性能,我们介绍了从最新模型产生的“未知事物”伪标签,以及丰富训练集的启发式规则。我们广泛的实验评估表明,我们的方法显着提高了\未知的类圆形质量,比现有最佳表现最佳方法的相对改进超过30 \%。
translated by 谷歌翻译
对抗训练方法是针对对抗性例子的最先进(SOTA)经验防御方法。事实证明,许多正则化方法与对抗训练的组合有效。然而,这种正则化方法是在时域中实现的。由于对抗性脆弱性可以被视为一种高频现象,因此必须调节频域中的对抗训练的神经网络模型。面对这些挑战,我们对小波的正则化属性进行了理论分析,可以增强对抗性训练。我们提出了一种基于HAAR小波分解的小波正则化方法,该方法称为小波平均池。该小波正则化模块集成到宽的残留神经网络中,因此形成了新的WideWavelEtResnet模型。在CIFAR-10和CIFAR-100的数据集上,我们提出的对抗小波训练方法在不同类型的攻击下实现了相当大的鲁棒性。它验证了以下假设:我们的小波正则化方法可以增强对抗性的鲁棒性,尤其是在深宽的神经网络中。实施了频率原理(F原理)和解释性的可视化实验,以显示我们方法的有效性。提出了基于不同小波碱函数的详细比较。该代码可在存储库中获得:\ url {https://github.com/momo1986/AdversarialWavelTraining}。
translated by 谷歌翻译
基于模型的离线优化通过动态感知政策为策略学习和分布外概括提供了新的观点,在该策略中,学会的政策可以适应培训阶段列举的不同动态。但是,由于离线设置下的限制,学到的模型无法很好地模仿真实的动态,以支持可靠的分发勘探,这仍然阻碍了政策以良好的概括。为了缩小差距,先前的作品大致集成了随机初始化的模型,以更好地近似实际动力学。但是,这种做法是昂贵且效率低下的,并且无法保证学识渊博的模型可以近似真正的动态,我们在本文中命名了覆盖性。我们通过生成具有可证明的能力以有效且可控制的方式覆盖真实动态的模型来积极解决这个问题。为此,我们根据动力学下的策略占用,为动态模型设计一个距离度量,并提出了一种算法来生成模型,以优化其对真实动力学的覆盖范围。我们对模型生成过程进行了理论分析,并证明我们的算法可以提供增强的覆盖性。作为一项下游任务,我们以较小或没有保守的惩罚训练动态感知政策,实验表明我们的算法在现有的离线RL基准测试中优于先前的离线方法。我们还发现,通过我们的方法学到的政策具有更好的零转移性能,这意味着它们的概括更好。
translated by 谷歌翻译
光流估计是自动驾驶和机器人系统系统中的一项基本任务,它可以在时间上解释流量场景。自动驾驶汽车显然受益于360 {\ deg}全景传感器提供的超宽视野(FOV)。但是,由于全景相机的独特成像过程,专为针孔图像设计的模型不会令人满意地概括为360 {\ deg}全景图像。在本文中,我们提出了一个新颖的网络框架 - panoflow,以学习全景图像的光流。为了克服全景转化中等应角投影引起的扭曲,我们设计了一种流动失真增强(FDA)方法,其中包含径向流量失真(FDA-R)或等骨流量失真(FDA-E)。我们进一步研究了全景视频的环状光流的定义和特性,并通过利用球形图像的环状来推断360 {\ deg}光流并将大型位移转换为相对小的位移,从而提出了环状流量估计(CFE)方法移位。 Panoflow适用于任何现有的流量估计方法,并从狭窄的FOL流量估计的进度中受益。此外,我们创建并释放基于CARLA的合成全景数据集Flow360,以促进训练和定量分析。 Panoflow在公共Omniflownet和已建立的Flow360基准中实现了最先进的表现。我们提出的方法将Flow360上的端点误差(EPE)降低了27.3%。在Omniflownet上,Panoflow获得了3.17像素的EPE,从最佳发布的结果中降低了55.5%的误差。我们还通过收集工具和公共现实世界中的全球数据集对我们的方法进行定性验证我们的方法,这表明对现实世界导航应用程序的强大潜力和稳健性。代码和数据集可在https://github.com/masterhow/panoflow上公开获取。
translated by 谷歌翻译
现有的单眼深度估计方法在不同的场景中实现了出色的鲁棒性,但它们只能检索仿射不变的深度,最多可达到未知的规模和变化。但是,在一些基于视频的场景中,例如视频中的视频深度估计和3D场景重建,驻留在人均预测中的未知量表和偏移可能会导致深度不一致。为了解决这个问题,我们提出了一种局部加权的线性回归方法,以恢复比例并以非常稀疏的锚点的转移,从而确保沿连续帧的比例一致性。广泛的实验表明,我们的方法可以在几个零击基准测试中最多将现有最新方法的性能提高50%。此外,我们合并了超过630万个RGBD图像,以训练强大而健壮的深度模型。我们产生的Resnet50-Backbone模型甚至胜过最先进的DPT VIT-LALGE模型。结合基于几何的重建方法,我们制定了一种新的密集3D场景重建管道,该管道受益于稀疏点的比例一致性和单眼方法的鲁棒性。通过对视频进行简单的人均预测,可以恢复准确的3D场景形状。
translated by 谷歌翻译
用于图像文本生成任务的传统方法主要是分别解决自然双向生成任务,专注于设计任务特定的框架以提高所生成的样本的质量和保真度。最近,Vision-Language预训练模型大大提高了图像到文本生成任务的性能,但仍未开发出用于文本到图像综合任务的大规模预训练模型。在本文中,我们提出了一个具有变压器模型的双向图像文本生成的统一生成的预训练框架的Ernie-Vi​​lg。基于图像量化模型,我们将图像生成和文本生成标准为在文本/图像输入上调节的自回归生成任务。双向图像文本生成建模简化了视觉和语言的语义对齐。对于文本到图像生成过程,我们进一步提出了端到端的训练方法,共同学习视觉序列发生器和图像重建。为了探讨双向文本图像生成的大规模预培训景观,我们在大规模数据集中培训了100亿参数的Ernie-Vi​​lg模型,以145百万(中文)图像 - 文本对实现了达到的状态 - 文本到图像和图像到文本任务的最佳性能,以便在MS-Coco上获取7.9的FID,用于文本到图像合成以及用于图像标题的Coco-CN和AIC-ICC的最佳结果。
translated by 谷歌翻译
开创性双编码器预训练工作(例如,剪辑并对齐)揭示了与对比学习对齐多模态表示的潜力。然而,这些作品需要大量的数据和计算资源(例如,十亿级Web数据和数百个GPU),这阻止了从再生产和进一步探索的资源有限的研究人员。为此,我们探讨了一堆简单但有效的启发式,并提供了全面的培训指导,使我们能够与有限的资源进行双编码器多模态表示对齐。我们为竞争结果提供可重复的强大基线,即Zerovl,只有1400万公共访问的学术数据集和8 v100 GPU。此外,我们收集100米Web数据进行预培训,而不是最先进的方法实现可比或优越的结果,进一步证明了我们对大规模数据的方法的有效性。我们希望这项工作将为多模态预培训的未来研究提供有用的数据点和经验。我们的代码和预先训练的型号将被释放,以促进研究界。
translated by 谷歌翻译