传统上,组成性被理解为语言生产力和更广泛的人类认知的主要因素。然而,最近,一些研究开始质疑其状态,表明即使没有明显的组成行为,人工神经网络也擅长概括。我们认为其中一些结论太强和/或不完整。在两个代理通信游戏的背景下,我们表明,当在适当的数据集上进行评估时,合成性确实对于成功的概括至关重要。
translated by 谷歌翻译
在自然语言中,在不同级别的特异性中引用对象是在上下文中有效沟通的基本务实机制。我们开发了一个新颖的沟通游戏,即层次参考游戏,以研究人造代理中这种参考系统的出现。我们考虑了一个简化的世界,其中概念是一组原始属性(例如颜色,样式,形状)的抽象。根据组合数量的属性,概念更一般(“圆”)或更具体的(“红色虚线圆”)。基于上下文,代理必须在该层次结构的不同级别进行交流。我们的结果表明,代理商学会了成功玩游戏,甚至可以推广到新颖的概念。为了获得抽象,他们使用隐式(省略无关信息)和明确(表明属性是无关紧要的)策略。此外,概念层次结构基础的组成结构反映在紧急协议中,表明开发层次参考系统的需求支持组成性的出现。
translated by 谷歌翻译
我们表明,可以制作适用于组成语法的转化,导致语法,即神经网络可以轻松学习,但人类没有。这可以解释当前成分度量之间的断开,即可以是人为人心的人类为中心的,以及神经网络推广到看例的能力。我们建议使用转换作为基准,可用于测量网络的组成归纳偏差的方面,并搜索具有与人类相似的组成感应偏差的网络。作为这种方法的示例,我们提出了一个分层模型,Hu-RNN,其显示了朝向定位的单词的单词的令牌的感应偏差。
translated by 谷歌翻译
人类利用组成性从过去的经验概括到实际或虚构的新颖经验。为此,我们将我们的经验分为基本原子成分。然后,这些原子成分可以通过新颖的方式重新组合,以支持我们想象和参与新经验的能力。我们将其视为学习概括构图的能力。而且,我们将提到利用这种能力作为组成学习行为(CLB)的行为。学习CLB的一个核心问题是解决结合问题(BP)(首先,通过学习将支持性刺激成分与观察到多个刺激的观察,然后将它们结合在单个情节体验中)。尽管人类轻松地表现是智力的另一个壮举,但最先进的人造代理人并非如此。因此,为了建立能够与人类合作的人工代理,我们建议开发一种新颖的基准测试,以通过求解BP的域 - 不可稳定版本来研究代理商展示CLB的能力。我们从引用游戏的语言出现和基础框架中汲取灵感,并提出了参考游戏,标题为“元参考游戏”的元学习扩展,并使用此框架来构建我们的基准测试,我们将符号行为基准(S2B)命名。但是,尽管在本文中,它有可能测试更多符号行为,而不是仅仅是CLB,但我们仅专注于测试CLB的单格语言接地任务。我们使用最先进的RL代理商为其提供基线结果,并表明我们提出的基准是一个令人信服的挑战,我们希望我们能促使研究社区发展出更有能力的人工代理。
translated by 谷歌翻译
为了建立可以与他人有效合作的代理商,最近的研究培训了人工代理在刘易斯式参照团中互相沟通。然而,这通常会导致成功但无法诠释的沟通。我们认为这是由于游戏目标:在共享视觉上下文中沟通单个对象易于过度装备,并且不鼓励语言超出具体参考。相比之下,人类语言传达了丰富的抽象想法。为了促进此类技能,我们提出了需要通过代表抽象视觉概念的对象集传达概括的游戏,可选地具有每个代理的单独的上下文。根据文献中的几个指标,我们发现这些游戏大大提高了学习语言的系统性和可口译性。最后,我们提出了一种通过学习对语言的近似组成重建来识别嵌入在紧急语言中的逻辑操作的方法。
translated by 谷歌翻译
Humans can understand and produce new utterances effortlessly, thanks to their compositional skills. Once a person learns the meaning of a new verb "dax," he or she can immediately understand the meaning of "dax twice" or "sing and dax." In this paper, we introduce the SCAN domain, consisting of a set of simple compositional navigation commands paired with the corresponding action sequences. We then test the zero-shot generalization capabilities of a variety of recurrent neural networks (RNNs) trained on SCAN with sequence-to-sequence methods. We find that RNNs can make successful zero-shot generalizations when the differences between training and test commands are small, so that they can apply "mix-and-match" strategies to solve the task. However, when generalization requires systematic compositional skills (as in the "dax" example above), RNNs fail spectacularly. We conclude with a proof-of-concept experiment in neural machine translation, suggesting that lack of systematicity might be partially responsible for neural networks' notorious training data thirst.
translated by 谷歌翻译
内容的离散和连续表示(例如,语言或图像)具有有趣的属性,以便通过机器的理解或推理此内容来探索或推理。该职位论文提出了我们关于离散和持续陈述的作用及其在深度学习领域的作用的意见。目前的神经网络模型计算连续值数据。信息被压缩成密集,分布式嵌入式。通过Stark对比,人类在他们的语言中使用离散符号。此类符号代表了来自共享上下文信息的含义的世界的压缩版本。此外,人工推理涉及在认知水平处符号操纵,这促进了抽象的推理,知识和理解的构成,泛化和高效学习。通过这些见解的动机,在本文中,我们认为,结合离散和持续的陈述及其处理对于构建展示一般情报形式的系统至关重要。我们建议并讨论了几个途径,可以在包含离散元件来结合两种类型的陈述的优点来改进当前神经网络。
translated by 谷歌翻译
一个令人着迷的假设是,人类和动物的智力可以通过一些原则(而不是启发式方法的百科全书清单)来解释。如果这个假设是正确的,我们可以更容易地理解自己的智能并建造智能机器。就像物理学一样,原理本身不足以预测大脑等复杂系统的行为,并且可能需要大量计算来模拟人类式的智力。这一假设将表明,研究人类和动物所剥削的归纳偏见可以帮助阐明这些原则,并为AI研究和神经科学理论提供灵感。深度学习已经利用了几种关键的归纳偏见,这项工作考虑了更大的清单,重点是关注高级和顺序有意识的处理的工作。阐明这些特定原则的目的是,它们有可能帮助我们建立从人类的能力中受益于灵活分布和系统概括的能力的AI系统,目前,这是一个领域艺术机器学习和人类智力。
translated by 谷歌翻译
The field of emergent communication aims to understand the characteristics of communication as it emerges from artificial agents solving tasks that require information exchange. Communication with discrete messages is considered a desired characteristic, for both scientific and applied reasons. However, training a multi-agent system with discrete communication is not straightforward, requiring either reinforcement learning algorithms or relaxing the discreteness requirement via a continuous approximation such as the Gumbel-softmax. Both these solutions result in poor performance compared to fully continuous communication. In this work, we propose an alternative approach to achieve discrete communication -- quantization of communicated messages. Using message quantization allows us to train the model end-to-end, achieving superior performance in multiple setups. Moreover, quantization is a natural framework that runs the gamut from continuous to discrete communication. Thus, it sets the ground for a broader view of multi-agent communication in the deep learning era.
translated by 谷歌翻译
如果复杂信号可以表示为更简单的子部分的组合,通信是组成的。在本文中,理论上,理论上表明需要在训练框架和数据上进行归纳偏差来发展组成通信。此外,我们证明了在信令游戏中自发地出现的构思性,其中代理通过嘈杂的频道进行通信。我们通过实验证实了一系列噪声水平,这取决于模型和数据,确实促进了组成性。最后,我们在最近研究的组成度量:地形相似性,冲突计数和情境独立方面提供了对这一依赖性和报告结果的全面研究。
translated by 谷歌翻译
当前的语言模型可以产生高质量的文本。他们只是复制他们之前看到的文本,或者他们学习了普遍的语言抽象吗?要取笑这些可能性,我们介绍了乌鸦,这是一套评估生成文本的新颖性,专注于顺序结构(n-gram)和句法结构。我们将这些分析应用于四种神经语言模型(LSTM,变压器,变换器-XL和GPT-2)。对于本地结构 - 例如,单个依赖性 - 模型生成的文本比来自每个模型的测试集的人类生成文本的基线显着不那么新颖。对于大规模结构 - 例如,总句结构 - 模型生成的文本与人生成的基线一样新颖甚至更新颖,但模型仍然有时复制,在某些情况下,在训练集中重复超过1000字超过1,000字的通道。我们还表现了广泛的手动分析,表明GPT-2的新文本通常在形态学和语法中形成良好,但具有合理的语义问题(例如,是自相矛盾)。
translated by 谷歌翻译
Recent progress in artificial intelligence (AI) has renewed interest in building systems that learn and think like people. Many advances have come from using deep neural networks trained end-to-end in tasks such as object recognition, video games, and board games, achieving performance that equals or even beats humans in some respects. Despite their biological inspiration and performance achievements, these systems differ from human intelligence in crucial ways. We review progress in cognitive science suggesting that truly human-like learning and thinking machines will have to reach beyond current engineering trends in both what they learn, and how they learn it. Specifically, we argue that these machines should (a) build causal models of the world that support explanation and understanding, rather than merely solving pattern recognition problems; (b) ground learning in intuitive theories of physics and psychology, to support and enrich the knowledge that is learned; and (c) harness compositionality and learning-to-learn to rapidly acquire and generalize knowledge to new tasks and situations. We suggest concrete challenges and promising routes towards these goals that can combine the strengths of recent neural network advances with more structured cognitive models.
translated by 谷歌翻译
自然语言处理的机器学习快速进步有可能改变有关人类学习语言的辩论。但是,当前人工学习者和人类的学习环境和偏见以削弱从学习模拟获得的证据的影响的方式分歧。例如,当今最有效的神经语言模型接受了典型儿童可用的语言数据量的大约一千倍。为了增加计算模型的可学习性结果的相关性,我们需要培训模型学习者,而没有比人类具有显着优势的学习者。如果合适的模型成功地获得了一些目标语言知识,则可以提供一个概念证明,即在假设的人类学习方案中可以学习目标。合理的模型学习者将使我们能够进行实验操作,以对学习环境中的变量进行因果推断,并严格测试史密斯风格的贫困声明,主张根据人类对人类的先天语言知识,基于有关可学习性的猜测。由于实用和道德的考虑因素,人类受试者将永远无法实现可比的实验,从而使模型学习者成为必不可少的资源。到目前为止,试图剥夺当前模型的不公平优势,为关键语法行为(例如可接受性判断)获得亚人类结果。但是,在我们可以合理地得出结论,语言学习需要比当前模型拥有更多的特定领域知识,我们必须首先以多模式刺激和多代理互动的形式探索非语言意见,以使学习者更有效地学习学习者来自有限的语言输入。
translated by 谷歌翻译
我们想要模型的文本单位是什么?从字节到多字表达式,可以在许多粒度下分析和生成文本。直到最近,大多数自然语言处理(NLP)模型通过单词操作,将那些作为离散和原子令牌处理,但从字节对编码(BPE)开始,基于次字的方法在许多领域都变得占主导地位,使得仍然存在小词汇表允许快速推断。是道路字符级模型的结束或字节级处理吗?在这项调查中,我们通过展示和评估基于学习分割的词语和字符以及基于子字的方法的混合方法以及基于学习的分割的杂交方法,连接多行工作。我们得出结论,对于所有应用来说,并且可能永远不会成为所有应用的银子弹奇异解决方案,并且严重思考令牌化对许多应用仍然很重要。
translated by 谷歌翻译
最近围绕语言处理模型的复杂性的最新炒作使人们对机器获得了类似人类自然语言的指挥的乐观情绪。人工智能中自然语言理解的领域声称在这一领域取得了长足的进步,但是,在这方面和其他学科中使用“理解”的概念性清晰,使我们很难辨别我们实际上有多近的距离。目前的方法和剩余挑战的全面,跨学科的概述尚待进行。除了语言知识之外,这还需要考虑我们特定于物种的能力,以对,记忆,标签和传达我们(足够相似的)体现和位置经验。此外,测量实际约束需要严格分析当前模型的技术能力,以及对理论可能性和局限性的更深入的哲学反思。在本文中,我将所有这些观点(哲学,认知语言和技术)团结在一起,以揭开达到真实(人类般的)语言理解所涉及的挑战。通过解开当前方法固有的理论假设,我希望说明我们距离实现这一目标的实际程度,如果确实是目标。
translated by 谷歌翻译
语言是协调问题的强大解决方案:他们提供了稳定的,有关我们所说的单词如何对应于我们头脑中的信仰和意图的共同期望。然而,在变量和非静止社会环境中的语言使用需要语言表征来灵活:旧词在飞行中获取新的临时或合作伙伴特定含义。在本文中,我们介绍了柴(通过推理的连续分层适应),一个分层贝叶斯的协调理论和会议组织,旨在在这两个基本观察之间调和长期张力。我们认为,沟通的中央计算问题不仅仅是传输,如在经典配方中,而是在多个时间尺度上持续学习和适应。合作伙伴特定的共同点迅速出现在数型互动中的社会推论中,而社群范围内的社会公约是稳定的前锋,这些前锋已经抽象出与多个合作伙伴的互动。我们展示了新的实证数据,展示了我们的模型为多个现象提供了对先前账户挑战的计算基础:(1)与同一合作伙伴的重复互动的更有效的参考表达的融合(2)将合作伙伴特定的共同基础转移到陌生人,并(3)交际范围的影响最终会形成。
translated by 谷歌翻译
将已知的原始概念重组为更大的新型组合是一种典型的人类认知能力。NLP中的大型神经模型是否在从数据中学习时获得此能力是一个悬而未决的问题。在本文中,我们从形式语言的角度看一下这个问题。我们使用确定性有限状态传感器来制作具有控制组合性的可控属性的无限数量数据集。通过对许多传感器进行随机采样,我们探讨了它们的哪些属性(状态数,字母大小,过渡次数等)有助于通过神经网络的组成关系可学习。通常,我们发现模型要么完全学习关系。关键是过渡覆盖范围,以每个过渡为400个示例设置软可学习性限制。
translated by 谷歌翻译
我们研究了参考游戏(一种信令游戏),其中两个代理通过离散瓶颈互相通信,以实现共同的目标。在我们的参照游戏中,扬声器的目标是撰写消息或符号表示“重要的”图像修补程序,而侦听器的任务是将扬声器的消息与相同图像的不同视图匹配。我们表明,这两个代理确实可以在不明确或隐含监督的情况下开发通信协议。我们进一步调查了开发的协议,并通过仅使用重要补丁来展示加速最近的视觉变压器的应用程序,以及用于下游识别任务的预训练(例如,分类)。代码在https://github.com/kampta/patchgame提供。
translated by 谷歌翻译
有证据表明,视觉通信前面的书面语言,并为其返回到史前的基础,以洞穴和岩石绘画描绘了我们遥远的祖先的痕迹。紧急沟通研究试图探索代理商如何学习沟通,以便协作解决任务。现有研究专注于语言,具有学习的通信信道在代理之间发送离散令牌的序列。在这项工作中,我们探索了允许使用简单笔划绘制的代理之间的可视通信通道。我们的代理商由深神经网络参数化,绘图程序是可微分的,允许最终的培训。在参考通信游戏的框架中,我们证明了代理商不仅可以通过绘图成功学习,而是通过适当的归纳偏见,可以以人类可以解释的方式这样做。我们希望鼓励未来的研究将视觉沟通视为培训协作代理人的更灵活和直接的可解释的替代方案。
translated by 谷歌翻译
Recent datasets expose the lack of the systematic generalization ability in standard sequence-to-sequence models. In this work, we analyze this behavior of seq2seq models and identify two contributing factors: a lack of mutual exclusivity bias (i.e., a source sequence already mapped to a target sequence is less likely to be mapped to other target sequences), and the tendency to memorize whole examples rather than separating structures from contents. We propose two techniques to address these two issues respectively: Mutual Exclusivity Training that prevents the model from producing seen generations when facing novel, unseen examples via an unlikelihood-based loss; and prim2primX data augmentation that automatically diversifies the arguments of every syntactic function to prevent memorizing and provide a compositional inductive bias without exposing test-set data. Combining these two techniques, we show substantial empirical improvements using standard sequence-to-sequence models (LSTMs and Transformers) on two widely-used compositionality datasets: SCAN and COGS. Finally, we provide analysis characterizing the improvements as well as the remaining challenges, and provide detailed ablations of our method. Our code is available at https://github.com/owenzx/met-primaug
translated by 谷歌翻译