平面图纸往往在美学上令人愉悦。在此海报中,我们探讨了神经网络学习各种平面图类的能力。此外,我们还研究了该模型在概括平面性之外的有效性。我们发现该模型可以胜过某些图形类别的常规技术。但是,该模型似乎更容易受到数据中的随机性,并且似乎比预期的要稳健。
translated by 谷歌翻译
在过去的几年中,已经开发了图形绘图技术,目的是生成美学上令人愉悦的节点链接布局。最近,利用可区分损失功能的使用已为大量使用梯度下降和相关优化算法铺平了道路。在本文中,我们提出了一个用于开发图神经抽屉(GND)的新框架,即依靠神经计算来构建有效且复杂的图的机器。 GND是图形神经网络(GNN),其学习过程可以由任何提供的损失函数(例如图形图中通常使用的损失函数)驱动。此外,我们证明,该机制可以由通过前馈神经网络计算的损失函数来指导,并根据表达美容特性的监督提示,例如交叉边缘的最小化。在这种情况下,我们表明GNN可以通过位置功能很好地丰富与未标记的顶点处理。我们通过为边缘交叉构建损失函数来提供概念验证,并在提议的框架下工作的不同GNN模型之间提供定量和定性的比较。
translated by 谷歌翻译
已经在图形图上进行了大量研究,但是许多现有方法仅着重于优化图形布局的特定美学方面。给定图形,生成满足某些人类美学偏好的良好布局仍然是一项具有挑战性的任务,尤其是如果无法将这种偏好表示为可区分的目标函数。在本文中,我们提出了一个基于学生教师GAN的图形绘图框架SmartGD,该框架学会了绘制图形,就像人类学习执行任务一样。 SmartGD中的学生网络通过模仿良好的布局示例来学习图形,而SmartGD的教师网络负责提供有关生成布局优点的评分。当缺乏具体的审美标准来指定构成良好布局的内容时,学生网络可以从良好的布局示例中学习。另一方面,如果可以通过定量标准评估布局的好处(即使不是可区分的),学生网络可以将其用作优化目标美学的具体目标。为了实现目标,我们提出了一种新颖的gan变体,自挑战的gan,以了解有关任何审美标准的最佳布局分布,无论标准是否可区分。所提出的图形绘图框架不仅可以以与良好的布局示例相似的样式绘制图形,而且还可以根据任何给定的美学标准优化图形布局。一旦训练了模型,就可以根据示例布局的样式或所选美学标准可视化任意图。全面的实验研究表明,根据普通商定的指标,SMARTGD优于12种基准方法。
translated by 谷歌翻译
Graph-structured data appears frequently in domains including chemistry, natural language semantics, social networks, and knowledge bases. In this work, we study feature learning techniques for graph-structured inputs. Our starting point is previous work on Graph Neural Networks (Scarselli et al., 2009), which we modify to use gated recurrent units and modern optimization techniques and then extend to output sequences. The result is a flexible and broadly useful class of neural network models that has favorable inductive biases relative to purely sequence-based models (e.g., LSTMs) when the problem is graph-structured. We demonstrate the capabilities on some simple AI (bAbI) and graph algorithm learning tasks. We then show it achieves state-of-the-art performance on a problem from program verification, in which subgraphs need to be described as abstract data structures.
translated by 谷歌翻译
在过去十年中,图形内核引起了很多关注,并在结构化数据上发展成为一种快速发展的学习分支。在过去的20年中,该领域发生的相当大的研究活动导致开发数十个图形内核,每个图形内核都对焦于图形的特定结构性质。图形内核已成功地成功地在广泛的域中,从社交网络到生物信息学。本调查的目标是提供图形内核的文献的统一视图。特别是,我们概述了各种图形内核。此外,我们对公共数据集的几个内核进行了实验评估,并提供了比较研究。最后,我们讨论图形内核的关键应用,并概述了一些仍有待解决的挑战。
translated by 谷歌翻译
这篇简短的评论旨在使读者熟悉与计划,调度和学习有关的最新作品。首先,我们研究最先进的计划算法。我们简要介绍神经网络。然后,我们更详细地探索图形神经网络,这是一种适合处理图形结构输入的神经网络的最新变体。我们简要描述了强化学习算法和迄今为止设计的一些方法的概念。接下来,我们研究了一些成功的方法,结合了用于路径规划的神经网络。最后,我们专注于不确定性的时间计划问题。
translated by 谷歌翻译
大图转换为固定尺寸矢量(嵌入)仍然是一个挑战。它的克服将使图形上的任何操作减少到向量空间中的操作。但是,大多数现有方法仅限于具有数十个顶点的图。在本文中,我们通过递归神经网络(编码器和解码器)解决了上述挑战。编码器网络将子图的嵌入嵌入到较大子图的嵌入中,并最终转换为输入图的嵌入。解码器相反。无论(子)图的大小如何,嵌入的尺寸是恒定的。本文提出的仿真实验证实,我们提出的图形自动编码器Regae可以处理具有数千个顶点的图形。
translated by 谷歌翻译
Common to all different kinds of recurrent neural networks (RNNs) is the intention to model relations between data points through time. When there is no immediate relationship between subsequent data points (like when the data points are generated at random, e.g.), we show that RNNs are still able to remember a few data points back into the sequence by memorizing them by heart using standard backpropagation. However, we also show that for classical RNNs, LSTM and GRU networks the distance of data points between recurrent calls that can be reproduced this way is highly limited (compared to even a loose connection between data points) and subject to various constraints imposed by the type and size of the RNN in question. This implies the existence of a hard limit (way below the information-theoretic one) for the distance between related data points within which RNNs are still able to recognize said relation.
translated by 谷歌翻译
本文通过自然应用程序对网页和元素分类来解决复杂结构数据的高效表示的问题。我们假设网页内部元素周围的上下文对问题的价值很高,目前正在被利用。本文旨在通过考虑到其上下文来解决将Web元素分类为DOM树的子树的问题。为实现这一目标,首先讨论当前在结构上工作的专家知识系统,如树 - LSTM。然后,我们向该模型提出上下文感知扩展。我们表明,在多级Web分类任务中,新模型实现了0.7973的平均F1分数。该模型为各种子树生成更好的表示,并且可以用于应用此类元素分类,钢筋在网上学习中的状态估计等。
translated by 谷歌翻译
尽管许多图形绘图算法将节点视为点,但图形可视化工具通常表示它们为形状。这些形状支持显示信息,例如标签或用大小或颜色编码各种数据。但是,它们可以通过隐藏信息的一部分来阻碍探索过程之间的节点之间的重叠。因此,去除这些重叠以提高图形可视化可读性至关重要。如果未通过布局过程处理,则建议将重叠算法(或)算法作为布局后处理。由于图形布局通常传达有关其拓扑的信息,因此重要的是,算法要尽可能地保留它们。我们提出了一种新颖的算法,该算法模型或作为关节应力和缩放优化问题,并利用有效的随机梯度下降。将这种方法与最先进的算法进行了比较,并且几种质量指标证明了其效率快速消除重叠的同时保留初始布局结构。
translated by 谷歌翻译
图表神经网络(GNNS)最近在人工智能(AI)领域的普及,这是由于它们作为输入数据相对非结构化数据类型的独特能力。尽管GNN架构的一些元素在概念上类似于传统神经网络(以及神经网络变体)的操作中,但是其他元件代表了传统深度学习技术的偏离。本教程通过整理和呈现有关GNN最常见和性能变种的动机,概念,数学和应用的细节,将GNN的权力和新颖性暴露给AI从业者。重要的是,我们简明扼要地向实际示例提出了本教程,从而为GNN的主题提供了实用和可访问的教程。
translated by 谷歌翻译
使用深度学习方法处理3D PointCloud并不是一件容易的事。一个常见的选择是使用图形神经网络这样做,但是该框架涉及在点之间的边缘创建边缘,而它们之间显然无关。从历史上看,已经提出了诸如K最近的邻居(K-NN)或XYZ特征上的查询球点,例如KAING邻居(K-NN)或查询球点,而不是改善图表,就将其集中在改进网络上。在这项工作中,我们提出了一种从3D PointCloud创建图形的更有原则的方法。我们的方法基于对输入3D PointCloud的转换执行K-NN。这种转换是由具有可学习参数的多层感知器(MLP)完成的,该参数通过与网络的其余部分共同通过反向传播进行了优化。我们还基于应力最小化引入了一种正则化方法,该方法可以控制我们基线的距离距离:k-nn在XYZ空间上。该框架在ModelNet40上进行了测试,其中由我们的网络生成的图表优于基线的总准确性0.3点。
translated by 谷歌翻译
这篇综述的目的是将读者介绍到图表内,以将其应用于化学信息学中的分类问题。图内核是使我们能够推断分子的化学特性的功能,可以帮助您完成诸如寻找适合药物设计的化合物等任务。内核方法的使用只是一种特殊的两种方式量化了图之间的相似性。我们将讨论限制在这种方法上,尽管近年来已经出现了流行的替代方法,但最著名的是图形神经网络。
translated by 谷歌翻译
在处理大规模网络和关系数据时,降低图是基本的。它们可以通过在粗糙的结构中求解它们来缩小高度计算影响的尺寸。同时,图减少起着在图神经网络中合并层的作用,从结构中提取多分辨率表示。在这些情况下,还原机制保留距离关系和拓扑特性的能力似乎是基本的,以及可扩展性,使其能够应用于实际大小的问题。在本文中,我们基于最大重量$ k $独立的集合的图理论概念引入了图形粗化机制,从而提供了一种贪婪的算法,该算法允许在GPU上有效地并行实现。我们的方法是常规数据(图像,序列)中的第一个图形结构化对应物。我们证明了在路径长度上的失真界限的理论保证,以及在污垢图中保留关键拓扑特性的能力。我们利用这些概念来定义我们在图形分类任务中经验评估的图表合并机制,表明它与文献中的合并方法进行了比较。
translated by 谷歌翻译
Heuristic search algorithms, e.g. A*, are the commonly used tools for pathfinding on grids, i.e. graphs of regular structure that are widely employed to represent environments in robotics, video games etc. Instance-independent heuristics for grid graphs, e.g. Manhattan distance, do not take the obstacles into account and, thus, the search led by such heuristics performs poorly in the obstacle-rich environments. To this end, we suggest learning the instance-dependent heuristic proxies that are supposed to notably increase the efficiency of the search. The first heuristic proxy we suggest to learn is the correction factor, i.e. the ratio between the instance independent cost-to-go estimate and the perfect one (computed offline at the training phase). Unlike learning the absolute values of the cost-to-go heuristic function, which was known before, when learning the correction factor the knowledge of the instance-independent heuristic is utilized. The second heuristic proxy is the path probability, which indicates how likely the grid cell is lying on the shortest path. This heuristic can be utilized in the Focal Search framework as the secondary heuristic, allowing us to preserve the guarantees on the bounded sub-optimality of the solution. We learn both suggested heuristics in a supervised fashion with the state-of-the-art neural networks containing attention blocks (transformers). We conduct a thorough empirical evaluation on a comprehensive dataset of planning tasks, showing that the suggested techniques i) reduce the computational effort of the A* up to a factor of $4$x while producing the solutions, which costs exceed the costs of the optimal solutions by less than $0.3$% on average; ii) outperform the competitors, which include the conventional techniques from the heuristic search, i.e. weighted A*, as well as the state-of-the-art learnable planners.
translated by 谷歌翻译
许多现代神经架构的核心的卷积运算符可以有效地被视为在输入矩阵和滤波器之间执行点产品。虽然这很容易适用于诸如图像的数据,其可以在欧几里德空间中表示为常规网格,延伸卷积操作者以在图形上工作,而是由于它们的不规则结构而被证明更具有挑战性。在本文中,我们建议使用图形内部产品的图形内核,即在图形上计算内部产品,以将标准卷积运算符扩展到图形域。这使我们能够定义不需要计算输入图的嵌入的完全结构模型。我们的架构允许插入任何类型和数量的图形内核,并具有在培训过程中学到的结构面具方面提供一些可解释性的额外益处,类似于传统卷积神经网络中的卷积掩模发生的事情。我们执行广泛的消融研究,调查模型超参数的影响,我们表明我们的模型在标准图形分类数据集中实现了竞争性能。
translated by 谷歌翻译
地震的预测和预测有很长的时间,在某些情况下有肮脏的历史,但是最近的工作重新点燃了基于预警的进步,诱发地震性的危害评估以及对实验室地震的成功预测。在实验室中,摩擦滑移事件为地震和地震周期提供了类似物。 Labquakes是机器学习(ML)的理想目标,因为它们可以在受控条件下以长序列生产。最近的作品表明,ML可以使用断层区的声学排放来预测实验室的几个方面。在这里,我们概括了这些结果,并探索了Labquake预测和自动回归(AR)预测的深度学习(DL)方法。 DL改善了现有的Labquake预测方法。 AR方法允许通过迭代预测在未来的视野中进行预测。我们证明,基于长期任期内存(LSTM)和卷积神经网络的DL模型可以预测在几种条件下实验室,并且可以以忠诚度预测断层区应力,证实声能是断层区应力的指纹。我们还预测了实验室的失败开始(TTSF)和失败结束(TTEF)的时间。有趣的是,在所有地震循环中都可以成功预测TTEF,而TTSF的预测随preseismisic断层蠕变的数量而变化。我们报告了使用三个序列建模框架:LSTM,时间卷积网络和变压器网络预测故障应力演变的AR方法。 AR预测与现有的预测模型不同,该模型仅在特定时间预测目标变量。超出单个地震周期的预测结果有限,但令人鼓舞。我们的ML/DL模型优于最先进的模型,我们的自回归模型代表了一个新颖的框架,可以增强当前的地震预测方法。
translated by 谷歌翻译
经典可塑性模型的历史依赖性行为通常是由现象学定律演变而来的内部变量驱动的。解释这些内部变量如何代表变形的历史,缺乏直接测量这些内部变量进行校准和验证的困难,以及这些现象学定律的弱物理基础一直被批评为创建现实模型的障碍。在这项工作中,将图形数据(例如有限元解决方案)上的几何机器学习用作建立非线性尺寸还原技术和可塑性模型之间的联系的手段。基于几何学习的编码可以将丰富的时间历史数据嵌入到低维的欧几里得空间上,以便可以在嵌入式特征空间中预测塑性变形的演变。然后,相应的解码器可以将这些低维内变量转换回加权图,从而可以观察和分析塑性变形的主导拓扑特征。
translated by 谷歌翻译
几十年来,手写的中文文本识别(HCTR)一直是一个活跃的研究主题。但是,大多数以前的研究仅关注裁剪文本图像的识别,而忽略了实际应用程序中文本线检测引起的错误。尽管近年来已经提出了一些针对页面文本识别的方法,但它们要么仅限于简单布局,要么需要非常详细的注释,包括昂贵的线条级别甚至角色级边界框。为此,我们建议Pagenet端到端弱监督的页面级HCTR。 Pagenet检测并识别角色并预测其之间的阅读顺序,在处理复杂的布局(包括多方向和弯曲的文本线路)时,这更健壮和灵活。利用所提出的弱监督学习框架,Pagenet只需要对真实数据进行注释。但是,它仍然可以在字符和线级别上输出检测和识别结果,从而避免标记字符和文本线条的界限框的劳动和成本。在五个数据集上进行的广泛实验证明了Pagenet优于现有的弱监督和完全监督的页面级方法。这些实验结果可能会引发进一步的研究,而不是基于连接主义时间分类或注意力的现有方法的领域。源代码可在https://github.com/shannanyinxiang/pagenet上获得。
translated by 谷歌翻译
人脑可以被认为是一种图形结构,包括数以千的通过突触连接的生物神经元。如果某些神经元损坏,它具有显着的能力,可以自动重新汇总信息流过备用路径。此外,大脑能够保留信息并将其应用于类似但完全看不见的情况。在本文中,我们从大脑的这些属性中汲取灵感,以开发一个计算框架,以在广义图中找到源节点和目标节点之间的最佳低成本路径。我们证明我们的框架能够在测试时处理看不见的图。此外,当在推理期间任意添加或删除节点时,可以找到替代的最佳路径,同时保持固定的预测时间。代码可在此处找到:https://github.com/hangligit/pathfinding
translated by 谷歌翻译