抽象推理是指分析信息,以无形层面发现规则以及以创新方式解决问题的能力。 Raven的渐进式矩阵(RPM)测试通常用于检查抽象推理的能力。要求受试者从答案集中确定正确的选择,以填充RPM右下角(例如,3 $ \ times $ 3矩阵),按照矩阵内的基本规则。最近利用卷积神经网络(CNN)的研究取得了令人鼓舞的进步,以实现RPM测试。但是,它们部分忽略了RPM求解器的必要归纳偏置,例如每个行/列内的订单灵敏度和增量规则诱导。为了解决这个问题,在本文中,我们提出了一个分层的规则感知网络(SRAN),以生成两个输入序列的规则嵌入。我们的SRAN学习了不同级别的多个粒度规则嵌入,并通过封闭的融合模块逐步整合了分层的嵌入流。借助嵌入,应用规则相似性度量标准来确保SRAN不仅可以使用Tuplet损失对SRAN进行训练,还可以有效地推断出最佳答案。我们进一步指出,用于RPM测试的流行Raven数据集中存在的严重缺陷,这阻止了对抽象推理能力的公平评估。为了修复缺陷,我们提出了一种称为属性分配树(ABT)的答案集合生成算法,形成了一个改进的数据集(简称I-Raven)。在PGM和I-Raven数据集上进行了广泛的实验,这表明我们的Sran的表现优于最先进的模型。
translated by 谷歌翻译
我们提出了一种新颖的计算模型“ Savir-T”,用于在Raven的渐进式矩阵(RPM)中体现的视觉推理问题。我们的模型考虑了拼图中每个图像中视觉元素的显式空间语义,编码为时空视标,并了解内部图像以及图像的依赖依赖性依赖性,与视觉推理任务高度相关。通过基于变压器的SAVIR-T体系结构建模的令牌关系,提取组(行或列)通过利用组规则相干性并将其用作电感偏置来提取前两行中的基本规则表示形式,从而引起了提取组(行或列)驱动的表示形式(或列)RPM中的每个令牌。我们使用此关系表示形式来找到正确的选择图像,该图像完成了RPM的最后一行或列。在两个合成RPM基准测试中进行了广泛的实验,包括Raven,I-Raven,Raven-Fair和PGM以及基于自然图像的“ V-Prom”,这表明Savir-T为视觉设定了新的最新时间推理,超过了先前模型的性能。
translated by 谷歌翻译
乌鸦的进步矩阵(RPMS)经常用于评估人类的视觉推理能力。研究人员在开发一个系统方面取得了相当大的努力,这些系统通常通过黑盒端到端卷积神经网络(CNN)用于视觉识别和逻辑推理任务。为了开发一个高度可解释的解决方案的目标,我们提出了一次性的人为可理解的推理(OS-HURS),这是一个两步框架,包括一种感知模块和推理模块,以解决现实世界的挑战可视识别和随后的逻辑推理任务。对于推理模块,我们提出了一种“2 + 1”制剂,可以通过人类更好地理解,并显着降低模型复杂性。因此,可以仅从一个RPM示例推导出精确推理规则,这对于现有解决方案方法来说是不可行的。所提出的推理模块还能够产生一系列推理规则,精确地建模人类知识来解决RPM问题。为了验证真实应用程序的提出方法,构建了RPM样单射帧预测(ROF)数据集,其中在使用现实世界视频帧而不是合成图像构造的RPM上进行视觉推理。各种RPM样数据集上的实验结果表明,与最先进的模型相比,所提出的OS-HUR达到了显着且一致的性能增益。
translated by 谷歌翻译
解决视觉推理测试的计算学习方法,例如Raven的渐进式矩阵(RPM),非常取决于识别测试中使用的视觉概念(即表示)以及基于这些概念(即,推理)。然而,学习表示和推理是一项具有挑战性且不足的任务,经常以舞台的方式(首先表示,然后推理)接近。在这项工作中,我们提出了一个端到端的联合代表性学习框架,该框架利用了弱的归纳偏见形式来共同改善这两项任务。具体而言,我们引入了RPMS,GM-RPM的一般生成图形模型,并将其应用于解决推理测试。我们使用基于GM-RPM原理的基于基于的抽象推理网络(DAREN)的新型学习框架来完成此操作。我们对Daren进行了多个基准数据集的经验评估。 Daren在推理和分离任务上都表现出对最先进的模型(SOTA)模型的一致改进。这证明了分离的潜在表示与解决抽象视觉推理任务的能力之间的密切相关性。
translated by 谷歌翻译
智力是通过连接主义或典型主义者实现的吗?虽然连接主义方法取得了超人的性能,但已经越来越多的证据表明,这些特定的特定优势在系统泛化中特别脆弱。这种观察表明了连接主义和典型主义者之间的中央辩论,其中后者不断地倡导认知架构中的代数治疗。在这项工作中,我们遵循典型主义者的呼叫,并提出一种混合方法来提高推理系统的泛化。具体而言,我们展示了具有代数表示的原型,用于乌鸦的渐进矩阵(RPM)的抽象空间 - 时间推理任务,并呈现代数感知神经半符号(Alans)学习者。艾拉斯学习者受到抽象代数和代表理论的动机。它由神经视觉感知前端和代数抽象推理后端组成:前端总结了基于对象的表示的可视信息,而后端将其转换为代数结构,并在飞行中引导隐藏的操作员。稍后执行诱导的操作员以预测答案的表示,并且选择与预测最相似的选择作为解决方案。广泛的实验表明,通过纳入代数处理,艾拉斯学习者优于需要系统泛化的域中的各种纯粹连接主义模型。我们进一步表明学习的代数表示可以通过同构以产生答案来解码。
translated by 谷歌翻译
在本文中,我们试图通过引入深度学习模型的句法归纳偏见来建立两所学校之间的联系。我们提出了两个归纳偏见的家族,一个家庭用于选区结构,另一个用于依赖性结构。选区归纳偏见鼓励深度学习模型使用不同的单位(或神经元)分别处理长期和短期信息。这种分离为深度学习模型提供了一种方法,可以从顺序输入中构建潜在的层次表示形式,即更高级别的表示由高级表示形式组成,并且可以分解为一系列低级表示。例如,在不了解地面实际结构的情况下,我们提出的模型学会通过根据其句法结构组成变量和运算符的表示来处理逻辑表达。另一方面,依赖归纳偏置鼓励模型在输入序列中找到实体之间的潜在关系。对于自然语言,潜在关系通常被建模为一个定向依赖图,其中一个单词恰好具有一个父节点和零或几个孩子的节点。将此约束应用于类似变压器的模型之后,我们发现该模型能够诱导接近人类专家注释的有向图,并且在不同任务上也优于标准变压器模型。我们认为,这些实验结果为深度学习模型的未来发展展示了一个有趣的选择。
translated by 谷歌翻译
Raven的渐进矩阵(RPMS)经常用于测试人类的视觉推理能力。最近的RPM数据集和解决方案模型的进步部分地解决了视觉上了解RPM问题的挑战和逻辑推理缺失答案。鉴于RPM数据集中的样本不足的普遍性表现差,我们提出了一种有效的方案,即候选答案形态混合(CAM-MIX)。CAM-MIX通过灰度图像形态混合用作数据增强策略,这规范了各种解决方案方法并克服了模型过度拟合问题。通过创建语义类似于正确答案的新负候选答案,可以定义更准确的决策边界。通过应用所提出的数据增强方法,与最先进的模型相比,在各种RPM样数据集上实现了显着且一致的性能改进。
translated by 谷歌翻译
Raven的渐进式矩阵是一个经典智能测试家族,在研究和临床环境中都广泛使用。在AI社区中,有许多令人兴奋的努力在计算上模拟了解决此类形象类似推理问题的问题的各个方面。在本文中,我们提出了一系列计算模型,用于使用类比和图像转换来解决Raven的渐进式矩阵。我们按照人类测试人员通常采用的三种不同策略来运行模型。这些模型对Raven的渐进式矩阵的标准版本进行了测试,其中我们可以解决57个问题。因此,事实证明,类比和图像转换在解决RPM问题方面有效。
translated by 谷歌翻译
Artificial Intelligence (AI) and its applications have sparked extraordinary interest in recent years. This achievement can be ascribed in part to advances in AI subfields including Machine Learning (ML), Computer Vision (CV), and Natural Language Processing (NLP). Deep learning, a sub-field of machine learning that employs artificial neural network concepts, has enabled the most rapid growth in these domains. The integration of vision and language has sparked a lot of attention as a result of this. The tasks have been created in such a way that they properly exemplify the concepts of deep learning. In this review paper, we provide a thorough and an extensive review of the state of the arts approaches, key models design principles and discuss existing datasets, methods, their problem formulation and evaluation measures for VQA and Visual reasoning tasks to understand vision and language representation learning. We also present some potential future paths in this field of research, with the hope that our study may generate new ideas and novel approaches to handle existing difficulties and develop new applications.
translated by 谷歌翻译
现有的视觉问题回答方法倾向于捕获视觉和语言方式中的虚假相关性,并且未能发现真正的休闲机制,这些机制是基于主导的视觉证据和正确的问题意图而实现推理的真正休闲机制。此外,现有方法通常忽略了多模式设置中复杂的事件级别的理解,这需要因果推断对共同模型跨模式事件的时间性,因果关系和动力学的强大认知能力。在这项工作中,我们通过引入因果干预方法来减轻虚假相关性并发现真实的因果结构,从而从新的角度(即跨模式因果关系推理)回答事件级别的视觉问题,即跨模式的因果关系推理并发现了真实的因果结构,以集成视觉和语言的相关性方式。具体而言,我们提出了一个新颖的事件级视觉问题答案框架,称为跨模式因果关系推理(CMCIR),以实现强大的偶然性随意感知的视觉视觉语言问题。为了揭示视觉和语言方式的因果结构,提出了新颖的因果关系 - 感知视觉语言推理(CVLR)模块,以通过精心设计的前对门和后门Causal Causal Intervention模块进行合作地解散视觉和语言的杂语相关性。为了发现语言语义和时空表示之间的细粒度相互作用,我们构建了一种新型的时空变压器(STT),该变压器(STT)构建了视觉内容和语言内容之间的多模式共发生相互作用。大规模事件级城市数据集SUTD-TrafficQA和三个基准现实世界数据集TGIF-QA,MSVD-QA和MSRVTT-QA进行了广泛的实验,这证明了我们的CMCIR在发现视觉效果的Causal Causal Causal结构中的有效性。
translated by 谷歌翻译
神经网络(NNS)和决策树(DTS)都是机器学习的流行模型,但具有相互排斥的优势和局限性。为了带来两个世界中的最好,提出了各种方法来明确或隐式地集成NN和DTS。在这项调查中,这些方法是在我们称为神经树(NTS)的学校中组织的。这项调查旨在对NTS进行全面审查,并尝试确定它们如何增强模型的解释性。我们首先提出了NTS的彻底分类学,该分类法表达了NNS和DTS的逐步整合和共同进化。之后,我们根据NTS的解释性和绩效分析,并建议解决其余挑战的可能解决方案。最后,这项调查以讨论有条件计算和向该领域的有希望的方向进行讨论结束。该调查中审查的论文列表及其相应的代码可在以下网址获得:https://github.com/zju-vipa/awesome-neural-trees
translated by 谷歌翻译
机器学习方法尤其是深度神经网络取得了巨大的成功,但其中许多往往依赖于一些标记的样品进行训练。在真实世界的应用中,我们经常需要通过例如具有新兴预测目标和昂贵的样本注释的动态上下文来解决样本短缺。因此,低资源学习,旨在学习具有足够资源(特别是培训样本)的强大预测模型,现在正在被广泛调查。在所有低资源学习研究中,许多人更喜欢以知识图(kg)的形式利用一些辅助信息,这对于知识表示变得越来越受欢迎,以减少对标记样本的依赖。在这项调查中,我们非常全面地审查了90美元的报纸关于两个主要的低资源学习设置 - 零射击学习(ZSL)的预测,从未出现过训练,而且很少拍摄的学习(FSL)预测的新类仅具有可用的少量标记样本。我们首先介绍了ZSL和FSL研究中使用的KGS以及现有的和潜在的KG施工解决方案,然后系统地分类和总结了KG感知ZSL和FSL方法,将它们划分为不同的范例,例如基于映射的映射,数据增强,基于传播和基于优化的。我们接下来呈现了不同的应用程序,包括计算机视觉和自然语言处理中的kg增强预测任务,还包括kg完成的任务,以及每个任务的一些典型评估资源。我们最终讨论了一些关于新学习和推理范式的方面的一些挑战和未来方向,以及高质量的KGs的建设。
translated by 谷歌翻译
We introduce GQA, a new dataset for real-world visual reasoning and compositional question answering, seeking to address key shortcomings of previous VQA datasets. We have developed a strong and robust question engine that leverages Visual Genome scene graph structures to create 22M diverse reasoning questions, which all come with functional programs that represent their semantics. We use the programs to gain tight control over the answer distribution and present a new tunable smoothing technique to mitigate question biases. Accompanying the dataset is a suite of new metrics that evaluate essential qualities such as consistency, grounding and plausibility. A careful analysis is performed for baselines as well as state-of-the-art models, providing fine-grained results for different question types and topologies. Whereas a blind LSTM obtains a mere 42.1%, and strong VQA models achieve 54.1%, human performance tops at 89.3%, offering ample opportunity for new research to explore. We hope GQA will provide an enabling resource for the next generation of models with enhanced robustness, improved consistency, and deeper semantic understanding of vision and language.
translated by 谷歌翻译
外部知识(A.K.A.侧面信息)在零拍摄学习(ZSL)中起着关键作用,该角色旨在预测从未出现在训练数据中的看不见的类。已被广泛调查了几种外部知识,例如文本和属性,但他们独自受到不完整的语义。因此,一些最近的研究提出了由于其高度富有效力和代表知识的兼容性而使用知识图表(千克)。但是,ZSL社区仍然缺乏用于学习和比较不同外部知识设置和基于不同的KG的ZSL方法的标准基准。在本文中,我们提出了六个资源,涵盖了三个任务,即零拍摄图像分类(ZS-IMGC),零拍摄关系提取(ZS-RE)和零拍KG完成(ZS-KGC)。每个资源都有一个正常的zsl基准标记和包含从文本到属性的kg的kg,从关系知识到逻辑表达式。我们已清楚地介绍了这些资源,包括其建设,统计数据格式和使用情况W.r.t.不同的ZSL方法。更重要的是,我们进行了一项全面的基准研究,具有两个通用和最先进的方法,两种特定方法和一种可解释方法。我们讨论并比较了不同的ZSL范式W.R.T.不同的外部知识设置,并发现我们的资源具有开发更高级ZSL方法的巨大潜力,并为应用KGS进行增强机学习的更多解决方案。所有资源都可以在https://github.com/china-uk-zsl/resources_for_kzsl上获得。
translated by 谷歌翻译
根据图像回答语义复杂的问题是在视觉问题应答(VQA)任务中的具有挑战性。虽然图像可以通过深度学习来良好代表,但是始终简单地嵌入问题,并且不能很好地表明它的含义。此外,视觉和文本特征具有不同模式的间隙,很难对齐和利用跨模块信息。在本文中,我们专注于这两个问题,并提出了一种匹配关注(GMA)网络的图表。首先,它不仅为图像构建图形,而且在句法和嵌入信息方面构建了该问题的图表。接下来,我们通过双级图形编码器探讨了模特内的关系,然后呈现双边跨模型图匹配注意力以推断图像与问题之间的关系。然后将更新的跨模式特征发送到答案预测模块中以进行最终答案预测。实验表明,我们的网络在GQA数据集和VQA 2.0数据集上达到了最先进的性能。消融研究验证了GMA网络中每个模块的有效性。
translated by 谷歌翻译
即使机器学习算法已经在数据科学中发挥了重要作用,但许多当前方法对输入数据提出了不现实的假设。由于不兼容的数据格式,或数据集中的异质,分层或完全缺少的数据片段,因此很难应用此类方法。作为解决方案,我们提出了一个用于样本表示,模型定义和培训的多功能,统一的框架,称为“ Hmill”。我们深入审查框架构建和扩展的机器学习的多个范围范式。从理论上讲,为HMILL的关键组件的设计合理,我们将通用近似定理的扩展显示到框架中实现的模型所实现的所有功能的集合。本文还包含有关我们实施中技术和绩效改进的详细讨论,该讨论将在MIT许可下发布供下载。该框架的主要资产是其灵活性,它可以通过相同的工具对不同的现实世界数据源进行建模。除了单独观察到每个对象的一组属性的标准设置外,我们解释了如何在框架中实现表示整个对象系统的图表中的消息推断。为了支持我们的主张,我们使用框架解决了网络安全域的三个不同问题。第一种用例涉及来自原始网络观察结果的IoT设备识别。在第二个问题中,我们研究了如何使用以有向图表示的操作系统的快照可以对恶意二进制文件进行分类。最后提供的示例是通过网络中实体之间建模域黑名单扩展的任务。在所有三个问题中,基于建议的框架的解决方案可实现与专业方法相当的性能。
translated by 谷歌翻译
类比推理问题挑战了连接主义者和符号AI系统,因为这些系统需要将背景知识,推理和模式识别的结合。符号系统摄入显式域知识并执行演绎推理,但它们对噪声敏感,并且需要输入以预设符号特征。另一方面,Connectionist系统可以直接摄入丰富的输入空间,例如图像,文本或语音,即使使用嘈杂的输入也可以识别模式。但是,Connectionist模型努力将明确的领域知识用于演绎推理。在本文中,我们提出了一个框架,将神经网络的模式识别能力与象征性推理和背景知识结合在一起,以解决一类类似推理问题,其中一组属性和可能的​​关系是已知的。我们从“神经算法推理”方法[DeepMind 2020]中汲取灵感,并通过(i)基于问题的象征模型学习分布式表示(ii)培训神经网络转化反映了关系的分布式表示形式。参与问题,最后(iii)培训神经网络编码器,从图像到(i)中的分布式表示。这三个要素使我们能够使用神经网络作为操纵分布式表示的基本功能执行基于搜索的推理。我们在乌鸦渐进式矩阵中的视觉类比问题上进行了测试,并在人类绩效中实现准确性竞争,在某些情况下,优于初始端到端神经网络方法的方法。尽管最近接受大规模训练的神经模型产生了SOTA,但我们的新型神经符号推理方法是该问题的有希望的方向,可以说是更笼统的,尤其是对于可用的域知识的问题。
translated by 谷歌翻译
Image-text retrieval (ITR) is a challenging task in the field of multimodal information processing due to the semantic gap between different modalities. In recent years, researchers have made great progress in exploring the accurate alignment between image and text. However, existing works mainly focus on the fine-grained alignment between image regions and sentence fragments, which ignores the guiding significance of context background information. Actually, integrating the local fine-grained information and global context background information can provide more semantic clues for retrieval. In this paper, we propose a novel Hierarchical Graph Alignment Network (HGAN) for image-text retrieval. First, to capture the comprehensive multimodal features, we construct the feature graphs for the image and text modality respectively. Then, a multi-granularity shared space is established with a designed Multi-granularity Feature Aggregation and Rearrangement (MFAR) module, which enhances the semantic corresponding relations between the local and global information, and obtains more accurate feature representations for the image and text modalities. Finally, the ultimate image and text features are further refined through three-level similarity functions to achieve the hierarchical alignment. To justify the proposed model, we perform extensive experiments on MS-COCO and Flickr30K datasets. Experimental results show that the proposed HGAN outperforms the state-of-the-art methods on both datasets, which demonstrates the effectiveness and superiority of our model.
translated by 谷歌翻译
视频问题应答需要模型来理解和理由对复杂的视频和语言数据来正确地推导答案。现有努力专注于设计复杂的跨模型交互,使来自两个模态的信息融合,同时将视频和问题全面地作为帧和单词序列对。尽管取得了成功,但这些方法基本上围绕了视频和问题内容的连续性,对问题回答和缺乏可解释性的问题提供了很少的洞察。在这项工作中,我们认为,虽然视频以帧序列呈现,但是在语义空间中的视觉元素(例如,对象,动作,活动和事件)不是顺序但相当分层。为了与语言查询中的语言概念的多粒子概念对齐,我们建议将视频作为条件图层次结构,以相应的文本线索的指导在一起以级别明智的方式编织不同粒度的视觉事实。尽管简单性,我们的广泛实验表明了这种条件等级图形架构的优越性,并且在现有方法上具有明显的性能改进,以及不同类型的问题的更好的概括。进一步分析还巩固模型的可靠性,因为它显示了预测答案的有意义的视觉文本证据。
translated by 谷歌翻译
视觉奇数任务被认为是对人类的普遍独立的分析智能测试。人工智能的进步导致了重要的突破,但是与人类在此类分析智能任务上竞争仍然具有挑战性,并且通常诉诸于非生物学上的架构。我们提出了一个具有生物学现实的系统,该系统从合成眼动运动中接收输入 - 扫视,并与结合新皮质神经元动力学的神经元一起处理它们。我们介绍了一个程序生成的视觉奇数数据集,以训练扩展常规关系网络和我们建议的系统的体系结构。两种方法都超过了人类的准确性,我们发现两者都具有相同的基本推理基本机制。最后,我们表明,具有生物学启发的网络可实现卓越的准确性,学习速度更快,所需的参数比常规网络更少。
translated by 谷歌翻译