传达相关和忠实信息的能力对于有条件生成的许多任务至关重要,但对于神经SEQ-seq seq模型仍然难以捉摸,这些模型的输出通常显示出幻觉,并且无法正确涵盖重要细节。在这项工作中,我们主张规划作为有用的中间表示,以使有条件的一代减少不透明和扎根。我们的作品提出了将文本计划作为一系列提问(QA)对的新概念化。我们用QA蓝图作为内容选择(即〜说什么)和计划(即〜按什么顺序)来增强现有数据集(例如,用于摘要)。我们通过利用最先进的问题生成技术并将输入输出对自动获取蓝图,并将其转换为输入 - 蓝图输出输出元组。我们开发了基于变压器的模型,每个模型都在它们如何将蓝图合并到生成的输出中(例如,作为全局计划或迭代)。跨指标和数据集的评估表明,蓝图模型比不采取计划并允许对生成输出进行更严格控制的替代方案更为事实。
translated by 谷歌翻译
预测野火蔓延对于土地管理和灾害准备至关重要。为此,我们呈现“第二天野火蔓延,”一种策划,大规模的多变量数据集,历史野火的历史野火占据了美国近十年的遥感数据。与基于地球观测卫星的现有火灾数据集相比,我们的数据集合了2D解释性变量(例如,地形,植被,天气,干旱指数,人口密度)与2D区域对齐,提供了丰富的数据为机器学习设置。为了演示该数据集的有用性,我们实现了一个卷积的AutoEncoder,它利用了该数据的空间信息来预测野火扩散。我们将神经网络与其他机器学习模型的性能进行比较:Logistic回归和随机林。该数据集可以用作基于遥感数据开发野火传播模型的基准,以便有一天的提前期。
translated by 谷歌翻译
Automatic differentiation (AD) is a technique for computing the derivative of a function represented by a program. This technique is considered as the de-facto standard for computing the differentiation in many machine learning and optimisation software tools. Despite the practicality of this technique, the performance of the differentiated programs, especially for functional languages and in the presence of vectors, is suboptimal. We present an AD system for a higher-order functional array-processing language. The core functional language underlying this system simultaneously supports both source-to-source forward-mode AD and global optimisations such as loop transformations. In combination, gradient computation with forward-mode AD can be as efficient as reverse mode, and the Jacobian matrices required for numerical algorithms such as Gauss-Newton and Levenberg-Marquardt can be efficiently computed.
translated by 谷歌翻译