The recent neural implicit representation-based methods have greatly advanced the state of the art for solving the long-standing and challenging problem of reconstructing a discrete surface from a sparse point cloud. These methods generally learn either a binary occupancy or signed/unsigned distance field (SDF/UDF) as surface representation. However, all the existing SDF/UDF-based methods use neural networks to implicitly regress the distance in a purely data-driven manner, thus limiting the accuracy and generalizability to some extent. In contrast, we propose the first geometry-guided method for UDF and its gradient estimation that explicitly formulates the unsigned distance of a query point as the learnable affine averaging of its distances to the tangent planes of neighbouring points. Besides, we model the local geometric structure of the input point clouds by explicitly learning a quadratic polynomial for each point. This not only facilitates upsampling the input sparse point cloud but also naturally induces unoriented normal, which further augments UDF estimation. Finally, to extract triangle meshes from the predicted UDF we propose a customized edge-based marching cube module. We conduct extensive experiments and ablation studies to demonstrate the significant advantages of our method over state-of-the-art methods in terms of reconstruction accuracy, efficiency, and generalizability. The source code is publicly available at https://github.com/rsy6318/GeoUDF.
translated by 谷歌翻译
Dialogue state tracking (DST) aims to convert the dialogue history into dialogue states which consist of slot-value pairs. As condensed structural information memorizing all history information, the dialogue state in the last turn is typically adopted as the input for predicting the current state by DST models. However, these models tend to keep the predicted slot values unchanged, which is defined as state momentum in this paper. Specifically, the models struggle to update slot values that need to be changed and correct wrongly predicted slot values in the last turn. To this end, we propose MoNET to tackle state momentum via noise-enhanced training. First, the previous state of each turn in the training data is noised via replacing some of its slot values. Then, the noised previous state is used as the input to learn to predict the current state, improving the model's ability to update and correct slot values. Furthermore, a contrastive context matching framework is designed to narrow the representation distance between a state and its corresponding noised variant, which reduces the impact of noised state and makes the model better understand the dialogue history. Experimental results on MultiWOZ datasets show that MoNET outperforms previous DST methods. Ablations and analysis verify the effectiveness of MoNET in alleviating state momentum and improving anti-noise ability.
translated by 谷歌翻译
本文考虑了非独立多机器人系统的同时位置和方向计划。与仅关注最终位置限制的常见研究不同,我们将非语言移动机器人建模为刚性机构,并引入机器人最终状态的方向和位置约束。换句话说,机器人不仅应达到指定的位置,而且还应同时指出所需的方向。这个问题的挑战在于全州运动计划的不足,因为只需要通过两个控制输入来计划三个州。为此,我们根据刚体建模提出了动态矢量场(DVF)。具体而言,机器人方向的动力学被带入矢量场,这意味着向量场不再是2-D平面上的静态,而是一个动态的,而动态场却随态度角度而变化。因此,每个机器人可以沿DVF的积分曲线移动以达到所需位置,与此同时,姿态角可以在方向动力学之后收敛到指定值。随后,通过在DVF的框架下设计一个圆形向量场,我们进一步研究了运动计划中的避免障碍物和相互企业的避免。最后,提供了数值仿真示例,以验证提出的方法的有效性。
translated by 谷歌翻译
这项研究调查了基于知识的问题产生的任务(KBQG)。传统的KBQG的作品从知识图中的FACT三元组中产生了问题,该问题无法表达复杂的操作,例如SPARQL中的聚合和比较。此外,由于大规模SPARQL问题对的昂贵注释,因此需要急切地探索SPARQL的KBQG,因此需要急切地探索SPARQL。最近,由于通常接受自然语言(NL)至NL范式培训的生成预训练的语言模型(PLM)已被证明对低资源生成有效,例如T5和Bart,如何有效地利用它们来生成NL - 非NL SPARQL的问题是具有挑战性的。为了应对这些挑战,提出了AutoQGS是SPARQL低资源KBQG的自动推出方法。首先,我们提出要直接从SPARQL生成问题,以处理KBQG任务以处理复杂的操作。其次,我们提出了一个对大规模无监督数据训练的自动档案,以将SPARQL重新描述为NL描述,从而平滑了从非NL SPARQL到NL问题的低资源转换。 WebQuestionsSP,ComlexWebQuestions 1.1和路径问题的实验结果表明,我们的模型可实现最新的性能,尤其是在低资源设置中。此外,为进一步的KBQG研究生成了330k Factoid复杂问题-SPARQL对的语料库。
translated by 谷歌翻译
真实世界的文本应用程序通常涉及组成广泛的文本控制操作,例如编辑文本W.R.T.属性,操纵关键字和结构,并生成所需属性的新文本。事先的工作通常会学习/芬太尼语言模型(LM)以执行操作的个人或特定子集。最近的研究以插件方式研究了合并操作,通常在复杂序列空间中以昂贵的搜索或优化进行了研究。本文提出了一种新的有效方法,用于在紧凑的文本潜在空间中进行可复合的文本操作。文本潜在矢量的低维度和不同性使我们能够基于给定的任意插入运算符(例如属性分类器)基于普通微分方程(ODE)开发有效的采样器。通过通过有效的适应性将预告片的LMS(例如GPT2)连接到潜在空间,然后我们将采样向量解码为所需的文本序列。灵活的方法允许使用来自不同域中的任何相关数据获取的各种控制操作员(情感,时态,形式,关键字等)。实验表明,在我们的方法中构成这些操作员可以生成或编辑高质量文本,从而在发电质量和效率方面显着改善了以前的方法。
translated by 谷歌翻译
本文介绍了一个新颖的神经网络 - 流程完成网络(FCN) - 以从基于图形卷积注意网络的不完整数据中推断出流体动力学,包括流场和作用于身体的力。 FCN由几个图卷积层和空间注意层组成。它旨在推断与涡流力图(VFM)方法结合使用时流场的速度场和涡流力的贡献。与流体动力学中采用的其他神经网络相比,FCN能够处理两个结构化数据和非结构化数据。拟议的FCN的性能通过圆柱周围流场的计算流体动力学(CFD)数据进行评估。我们的模型预测的力系数对直接从CFD获得的工具进行了估算。此外,结果表明,我们的模型同时使用存在的流场信息和梯度信息,比传统的基于基于的基于传统的神经网络(CNN)和深神经网络(DNN)模型更有性能。具体而言,在不同雷诺数数字和培训数据集的不同比例的所有第三酶中,结果表明,在测试数据集中,提议的FCN在测试数据集中达到了5.86%的最大规范均值误差,该误差远低于基于Thetradientional CNN的和TheTraDientional CNN的最大正方形误差基于DNN的模型(分别为42.32%和15.63%)。
translated by 谷歌翻译
实现通用语言情报是自然语言处理的长期目标,标准评估基准发挥基本和指导作用。我们认为,对于通用语言智能评估,基准本身需要全面和系统。为此,我们提出了Cuge,一种中文语言理解和生成评估基准,具有以下特征:(1)分层基准框架,其中数据集主要选择和组织语言能力 - 任务数据集层次结构。 (2)多级评分策略,其中基于分层框架提供了不同级别的模型性能。为了促进CUGE,我们提供了一个公共排行榜,可以自定义,以支持灵活的模型判断标准。代表性预先训练的语言模型的评估结果表明了对通用语言智能的完善的充足空间。 Cuge在Cuge.baai.ac.cn上公开提供。
translated by 谷歌翻译
今天的大部分AI系统都专注于使用自我关注机制和变压器架构在大量多样化的数据中实现令人印象深刻的性能收益。在本文中,我们建议使用外部注意机制增强变压器架构,以带来外部知识和背景。通过将外部信息集成到预测过程中,我们希望减少对更大的模型的需求,并增加AI系统的民主化。我们发现所提出的外部注意机制可以显着提高现有AI系统的性能,使从业者可以轻松地将基础AI模型自定义到许多不同的下游应用程序。特别是,我们专注于勤杂朗语推理的任务,展示所提出的外部注意机制可以增加现有的变压器模型,并显着提高模型的推理能力。拟议的系统,知识外部关注推理(Kear),达到了开放的铜商QA研究基准的人类奇偶校验,其准确性为89.4 \%,与人类准确性为88.9 \%。
translated by 谷歌翻译
通常对端到端自动语音识别(ASR)模型进行训练,以优化整个令牌序列的损失,同时忽略了明确的音素粒度监督。这可能导致由于相似的混淆或音素减少而导致的识别错误。为了减轻这个问题,我们提出了一个基于监督对比学习(Scala)的新框架,以增强端到端ASR系统的音素表示学习。具体而言,我们将自我监督的掩盖对比预测编码(MCPC)扩展到完全监督的设置,在此设置以下方式应用监督。首先,Scala掩盖了可变长度编码器特征,根据音素边界,从预先训练的声学模型中提取的音素强制对齐;然后,它通过对比度学习预测了蒙版的特征。强制对齐可以提供音素标签,以减轻自我监督的MCPC中正阴对引入的噪声。关于阅读和自发语音数据集的实验表明,与基线相比,我们提出的方法分别达到了2.8和1.4点字符错误率(CER)绝对降低。
translated by 谷歌翻译
会话人工智能(Convai)系统最近吸引了许多学术和商业关注,在两端都取得了重大进展。但是,现有的工作讨论了如何在现实世界应用中开发和部署这些系统的社会益处,具有全面的案例研究和利弊分析。在本文中,我们简要介绍了社区对更好的康沃系统的进展,并反思现有技术如何帮助推进来自各种角度的社会良好举措,这些角度是社区中的共同知识。我们进一步讨论了Convai System以更好地帮助我们实现这些目标的挑战,并突出了其在现实世界中开发和部署所涉及的风险。
translated by 谷歌翻译