问答(QA)作为一个研究领域,主要关注知识库(KB)或自由文本作为知识来源。这两个来源在历史上形成了通过资源提出的各种问题,以及为解决这些问题而开发的方法。在这项工作中,我们看到QA的实际用例,而不是用户指导的知识,它将结构化QA的元素与知识库,非结构化QA与叙述相结合,将多关系QA的任务引入个人叙述。作为实现这一目标的第一步,我们做出了三个关键贡献:(i)我们生成并发布TextWorldsQA,一组五个不同的数据集,whereeach数据集包含动态叙述,描述模拟世界中的实体和关系,与可变组成问题配对知识,(ii)我们在这项任务中对几个最先进的QA模型及其变体进行了全面的评估和分析,以及(iii)发布了一个轻量级的基于Python的框架,我们称之为TextWorlds,可以轻松生成任意的额外世界和叙事,目标是允许社区创建和分享越来越多的不同世界作为此任务的测试平台。
translated by 谷歌翻译
在处理机场行李中的材料分类时,双能计算机断层扫描(DECT)允许使用基于两种衰减效应的系数来表征任何给定的材料:康普顿散射和光电吸收。然而,由于在实际行李箱扫描中遇到的高动态范围的材料特性,用于该表征的直接投影域分解方法通常产生差的重构。因此,为了在时序约束下获得更好的重建质量,我们提出了基于分裂的GPU加速统计DECT重建算法。与现有技术相比,我们的主要贡献在于通过在ADMM框架内分离重构和分解而实现的显着加速。在合成和现实世界的行李模型上的实验结果表明收敛所需的时间显着减少。
translated by 谷歌翻译
将模型训练为高端性能需要大型标记数据集的可用性,这些数据集的获取成本很高。我们的工作目标是自动合成与下游任务相关的标记数据集。我们提出Meta-Sim,它学习合成场景的生成模型,并通过图形引擎获取图像以及相应的地面实况。我们使用神经网络对我们的数据集生成器进行参数化,该神经网络可以修改从概率场景图获得的场景图的属性,从而最小化其渲染输出和目标数据之间的分布差距。如果真实数据集带有小的标记验证集,我们还旨在优化元目标,即下游任务性能。实验表明,该方法可以大大提高人工工程概率场景语法的内容生成质量,无论是定性还是定量,都可以通过对下游任务的性能来衡量。
translated by 谷歌翻译
自然语言生成(NLG)的神经方法一直有望用于面向目标的对话。然而,生产这些方法的挑战之一是能够控制响应质量,并确保生成的响应是可接受的。我们建议使用生成,过滤和排名框架,其中首先过滤候选响应以消除不可接受的响应,然后排序以选择最佳响应。虽然可接受性包括语法正确性和语义正确性,但我们仅关注语法分类。本文,并显示用于语法错误纠正的thatexisting数据集不能正确捕获数据驱动的生成器可能产生的错误的分布。我们为由三维数据驱动的NLG系统生成的响应组成的天气领域发布语法分类和语义正确性分类数据集。然后,我们探索两种监督学习方法(CNN和GBDT)来分类语法。我们的实验表明,语法分类对数据中的错误分布非常敏感,并且这些分布随着响应的来源和域而显着变化。我们表明,通过对数据集的合理回忆,可以实现高精度。
translated by 谷歌翻译
在自主嵌入式系统中,减少现实世界中的动作量和学习策略所需的能量通常至关重要。从高维图像表示中训练执行学习代理可能非常昂贵且耗时。自动编码器是深度神经网络,用于将像素化图像等高维数据压缩成小的潜在表示。此压缩模型对于有效学习策略至关重要,尤其是在嵌入式系统上学习时。我们在NVIDIA Jetson TX2嵌入式GPU上实现了这个模型,并评估了各种CPU / GPU核心组合,频率和模型参数的自动编码器的功耗,吞吐量和能耗。另外,我们已经展示了由自动编码器生成的重建,以分析生成的压缩表示的质量以及其中的执行学习代理的性能。最后,我们对嵌入式系统上培训这些模型的可行性及其开发自治策略的有用性进行了评估。使用自动编码器,与具有aconvolutional特征提取器的基线RL代理相比,我们能够实现4-5 $ \次$改进的性能,同时使用小于2W的功率。
translated by 谷歌翻译
人工智能和强化学习的最新进展已经成功地解决了高维状态空间的复杂问题。然而,大多数这些成功主要是在模拟环境中,其中失败很少或没有后果。然而,大多数现实世界的应用程序需要训练安全操作的解决方案,因为灾难性故障是不允许的,尤其是在涉及人为交互时。目前,Safe RL系统在训练和探索期间使用人为监督,以确保RL代理不会进入灾难性状态。这些方法需要大量的人工,而且很难扩大规模。我们提出了一种混合方法,通过结合基于模型的方法和培训受监督的学习者来提高样本效率,同时确保安全性,从而减少人为干预时间。我们使用标准和可视化表示在各种网格环境中评估这些方法,并表明我们的方法在样本效率,达到的灾难性状态数量以及与传统无模型方法相比的总体任务性能方面实现了更好的性能
translated by 谷歌翻译
背景和意义:为临床试验选择队列通常需要昂贵且耗时的手动图表评论,导致参与不良。为了帮助实现该过程的自动化,National NLP临床挑战(N2C2)通过定义13个临床试验队列选择标准并提供培训和测试数据集,共同面临挑战。这项研究受到N2C2挑战的影响。方法:我们将任务分解为对应于每个标准的13个独立子任务,并使用规则或监督机器学习模型实现子任务。每项任务都严格依赖于任务专用词典形式的知识资源,为此我们开发了一种新颖的模型驱动方法。该方法允许我们首先从种子setand扩展词典然后从列表中删除噪声,从而提高准确性。结果:我们的系统在挑战时达到了0.9003的总体F值,并且在45名参与者中排名第一。模型驱动的词典开发和进一步调试训练集上的规则/代码将整体F测量值提高到0.9140,超过了挑战时的最佳数值结果。讨论:群组选择,如表型提取和分类,适用于基于规则或简单的机器学习方法,然而,所涉及的有关物质,例如药物名称或涉及医学问题的医学术语,严格地决定了总体准确性。自动化lexicondevelopment具有可扩展性和准确性的潜力。
translated by 谷歌翻译
整个网络上可用的数据很大程度上是非结构化的。由银行,数字钱包,商家等多种来源发布的优惠是当今世界中最常访问的广告数据之一。这些数据每天都被数百万人访问,很容易被人类解读,但由于它在很大程度上是非结构化和多样化的,因此使用算法方法从这些提议中提取有意义的信息很难。从这些要约中识别必要的要约实体(例如,其数量,适用于该产品的产品,提供要约的商家等)在定位合适的客户以改善销售方面起着至关重要的作用。该工作提出并评估了各种现有的命名实体识别器(NER)模型,这些模型可以从商品供稿中识别所需的实体。我们还提出了一级混合NER模型,该模型由第一级的条件随机场,双向LSTM和Spacy模型的二级堆叠以及第二级的SVM分类器构建。所提出的混合模型已经在从多个来源收集的报价馈送上进行了测试,并且与现有模型相比,在所述领域中表现出更好的性能。
translated by 谷歌翻译
Twitter最近在危机期间被用于与官员沟通并实时提供救援和救援行动。事件的地理位置信息以及用户在这些场景中至关重要。地理位置的识别是具有挑战性的任务之一,因为位置信息字段(例如用户位置和推文的地名)不可靠。从tweettext中提取位置信息很困难,因为它包含许多非标准的英语,语法错误,拼写错误,非标准缩写等等。本研究旨在使用基于卷积神经网络(CNN)的模型提取推文中使用的位置词。我们与地震相关的推文达到了0.929的准确匹配分数,汉明损失0.002和$ F_1 $ -score 0.96。我们的模型能够提取甚至三到四个字的长期位置参考,这也可以从超过92%的精确匹配得分中看出。本文的研究结果有助于早期事件本地化,紧急情况,实时道路交通管理,本地化广告以及各种基于位置的服务。
translated by 谷歌翻译
对于一些受欢迎的产品,产品评论在线发布数百甚至数千。对于买家,卖家甚至研究人员而言,处理如此大量的连续生成的在线内容是一项具有挑战性的任务。本研究的目的是使用他们预测的有用性评分对过多的评论进行排名。使用从随机森林分类器和梯度增强回归器的产品的评论文本数据,产品描述数据和客户问答数据中提取的特征来预测有益分数。系统通过随机森林分类器将评论分为低质量或高质量。高质量评论的有效性评分仅使用gradientboosting回归量预测。低质量评论的乐于助人得分未计算,因为它们永远不会进入前k评论。它们只是在评论列表的末尾添加到评论列表网站。建议的系统在审核列表页面上提供公平的审核放置,并在顶部为客户提供所有高质量的评论。来自两个受欢迎的印度电子商务网站的数据的实验结果证实了我们的主张,因为3-4个新的高质量评论被放置在前十个评论中,以及5-6个基于评论乐于助人的旧评论。我们的研究结果表明,包含产品描述数据和客户问题 - 答案数据中的特征可以提高有用性评分的预测准确性。
translated by 谷歌翻译