本文档介绍了生成连续动态优化问题实例的广义移动峰值基准(GMPB)。GMPB产生的景观是通过组装多种可控特性的多种可控特性来构建的,该景观包括从单峰的高度多峰,对称的,对称,平滑地高度不规则,以及各种可变的相互作用和不均匀程度。在本文档中,我们解释了如何通过GMPB的不同参数设置生成这些特征。还解释了GMPB的MATLAB源代码。
translated by 谷歌翻译
Graph Neural Networks (GNNs) have achieved great successes in many learning tasks performed on graph structures. Nonetheless, to propagate information GNNs rely on a message passing scheme which can become prohibitively expensive when working with industrial-scale graphs. Inspired by the PPRGo model, we propose the CorePPR model, a scalable solution that utilises a learnable convex combination of the approximate personalised PageRank and the CoreRank to diffuse multi-hop neighbourhood information in GNNs. Additionally, we incorporate a dynamic mechanism to select the most influential neighbours for a particular node which reduces training time while preserving the performance of the model. Overall, we demonstrate that CorePPR outperforms PPRGo, particularly on large graphs where selecting the most influential nodes is particularly relevant for scalability. Our code is publicly available at: https://github.com/arielramos97/CorePPR.
translated by 谷歌翻译
In recent years, graph neural networks (GNNs) have emerged as a promising tool for solving machine learning problems on graphs. Most GNNs are members of the family of message passing neural networks (MPNNs). There is a close connection between these models and the Weisfeiler-Leman (WL) test of isomorphism, an algorithm that can successfully test isomorphism for a broad class of graphs. Recently, much research has focused on measuring the expressive power of GNNs. For instance, it has been shown that standard MPNNs are at most as powerful as WL in terms of distinguishing non-isomorphic graphs. However, these studies have largely ignored the distances between the representations of nodes/graphs which are of paramount importance for learning tasks. In this paper, we define a distance function between nodes which is based on the hierarchy produced by the WL algorithm, and propose a model that learns representations which preserve those distances between nodes. Since the emerging hierarchy corresponds to a tree, to learn these representations, we capitalize on recent advances in the field of hyperbolic neural networks. We empirically evaluate the proposed model on standard node and graph classification datasets where it achieves competitive performance with state-of-the-art models.
translated by 谷歌翻译
深度学习的最新进展,尤其是编码器架构的发明,已大大改善了抽象性摘要系统的性能。尽管大多数研究都集中在书面文件上,但我们观察到过去几年对对话和多方对话的总结越来越兴趣。一个可以可靠地将人类对话的音频或笔录转换为删节版本的系统,该版本在讨论中最重要的一点上可以在各种现实世界中,从商务会议到医疗咨询再到客户都有价值服务电话。本文着重于多党会议的抽象性摘要,对与此任务相关的挑战,数据集和系统进行了调查,并讨论了未来研究的有希望的方向。
translated by 谷歌翻译
时间序列预测是重要的应用领域的核心,对机器学习算法构成了重大挑战。最近,神经网络体系结构已广泛应用于时间序列的预测问题。这些模型中的大多数都是通过最大程度地减少损失函数来衡量预测偏离实际值的训练的。典型的损耗函数包括均方根误差(MSE)和平均绝对误差(MAE)。在存在噪声和不确定性的情况下,神经网络模型倾向于复制时间序列的最后观察值,从而限制了它们对现实数据的适用性。在本文中,我们提供了上述问题的形式定义,还提供了观察到问题的预测的一些示例。我们还提出了一个正规化项,对先前看到的值的复制进行了惩罚。我们在合成数据集和现实世界数据集上评估了拟议的正规化项。我们的结果表明,正则化项会在一定程度上缓解上述问题,并产生更健壮的模型。
translated by 谷歌翻译
图形神经网络(GNN)已成功用于许多涉及图形结构数据的问题,从而实现了最新的性能。 GNN通常采用消息通话方案,其中每个节点都使用置换不变的聚合函数从其邻居中汇总信息。标准良好的选择(例如平均值或总和函数)具有有限的功能,因为它们无法捕获邻居之间的相互作用。在这项工作中,我们使用信息理论框架正式化了这些交互,该框架特别包括协同信息。在此定义的驱动下,我们介绍了图排序注意(山羊)层,这是一种新型的GNN组件,可捕获邻域中的节点之间的相互作用。这是通过通过注意机制学习局部节点顺序并使用复发性神经网络聚合器来处理订购表示的来实现的。这种设计使我们能够利用置换敏感的聚合器,同时维持所提出的山羊层的排列量表。山羊模型展示了其在捕获复杂信息(例如中心中心性和节点的有效大小)中的建模图指标中提高的性能。在实用用例中,通过在几个现实世界节点分类基准中成功证实了其出色的建模能力。
translated by 谷歌翻译
Gradient estimation -- approximating the gradient of an expectation with respect to the parameters of a distribution -- is central to the solution of many machine learning problems. However, when the distribution is discrete, most common gradient estimators suffer from excessive variance. To improve the quality of gradient estimation, we introduce a variance reduction technique based on Stein operators for discrete distributions. We then use this technique to build flexible control variates for the REINFORCE leave-one-out estimator. Our control variates can be adapted online to minimize variance and do not require extra evaluations of the target function. In benchmark generative modeling tasks such as training binary variational autoencoders, our gradient estimator achieves substantially lower variance than state-of-the-art estimators with the same number of function evaluations.
translated by 谷歌翻译
Graph AutoCododers(GAE)和变分图自动编码器(VGAE)作为链接预测的强大方法出现。他们的表现对社区探测问题的印象不那么令人印象深刻,根据最近和同意的实验评估,它们的表现通常超过了诸如louvain方法之类的简单替代方案。目前尚不清楚可以通过GAE和VGAE改善社区检测的程度,尤其是在没有节点功能的情况下。此外,不确定是否可以在链接预测上同时保留良好的性能。在本文中,我们表明,可以高精度地共同解决这两个任务。为此,我们介绍和理论上研究了一个社区保留的消息传递方案,通过在计算嵌入空间时考虑初始图形结构和基于模块化的先验社区来掺杂我们的GAE和VGAE编码器。我们还提出了新颖的培训和优化策略,包括引入一个模块化的正规器,以补充联合链路预测和社区检测的现有重建损失。我们通过对各种现实世界图的深入实验验证,证明了方法的经验有效性,称为模块化感知的GAE和VGAE。
translated by 谷歌翻译
Dascim(数据科学和采矿)在Ecole Polytechnique的Lix的一部分,于2013年成立,从那时起,通过机器和深度学习方法生产大规模数据分析领域。本集团在NLP领域专门积极活跃,并在方法论和资源水平上具有有趣的结果。在此遵循我们对AFIA社区的不同贡献。
translated by 谷歌翻译
由于梯度的高差导致,离散潜变模型的随机梯度基于优化是挑战。我们引入了用于使用双控制变体的刻痕函数估计的方差减少技术。这些控制变体在主控制变化的顶部上的作用,并尝试进一步降低总估计器的方差。我们使用泰勒扩展开发了加强休养估计器的双重控制变化。对于培训离散潜变量模型,例如具有二进制潜变量的变形自动化器,与使用加强休假估计器的标准培训相比,我们的方法没有增加额外的计算成本。我们将我们的方法应用于挑战高维玩具示例和具有二进制潜变量的变形自动探测器。我们表明,与其他最先进的估计器相比,我们的估算器可能具有较低的方差。
translated by 谷歌翻译