每年国际语义网络会议组织一套语义网络挑战,以建立将在一些问题领域推进最先进的解决方案的竞争。语义答案类型和关系预测任务(SMART)任务是ISWC 2021语义网络挑战之一。这是在ISWC 2020成功智能2020后的挑战的第二年。今年的版本侧重于两个对知识库问题应答(KBQA)的非常重要的子任务:答案类型预测和关系预测。问题类型和答案类型预测可以在知识库问题应答系统中发挥关键作用,提供关于有助于生成正确查询或排名答案候选人的预期答案的见解。鉴于自然语言的问题更具体地说,第一个任务是使用目标本体预测答案类型(例如,DBPedia或Wikidata。类似地,第二个任务是识别自然语言查询中的关系并将它们链接到目标本体中的关系。本文讨论了任务描述,基准数据集和评估指标。有关更多信息,请访问https://smart-task.github.io/2021/。
translated by 谷歌翻译
课堂表达学习是可解释的监督机器学习的分支,越来越重要。在描述逻辑中的类表达式学习的大多数现有方法是搜索算法或基于硬规则的。特别地,基于细化运营商的方法遭受可扩展性问题,因为它们依赖于启发式功能来探索每个学习问题的大搜索空间。我们提出了一系列新的方法,我们配合了合成方法。此系列的实例是从提供的示例中直接计算类表达式。因此,它们不受基于搜索方法的运行时限制,也不存在于基于硬规则的方法的缺乏灵活性。我们研究了这种新型方法的三个实例,该方法使用轻量级神经网络架构从积极的例子组合中综合类表达式。他们对四个基准数据集的评估结果表明,它们可以在平均水平上有效地合成相对于输入示例的高质量类表达。此外,与最先进的方法的比较Celoe和Eltl表明我们在大型本体中实现了更好的F措施。为了重现性目的,我们提供了我们的实施以及在HTTPS://github.com/conceptLengtlearner/nces的公共Github存储库中的预先训练模型
translated by 谷歌翻译
知识图中的节点是一个重要任务,例如,预测缺失类型的实体,预测哪些分子导致癌症,或预测哪种药物是有前途的治疗候选者。虽然黑匣子型号经常实现高预测性能,但它们只是hoc后和本地可解释的,并且不允许学习模型轻松丰富域知识。为此,已经提出了学习描述了来自正和否定示例的逻辑概念。然而,学习这种概念通常需要很长时间,最先进的方法为文字数据值提供有限的支持,尽管它们对于许多应用是至关重要的。在本文中,我们提出了Evolearner - 学习ALCQ(D)的进化方法,它是与合格基数限制(Q)和数据属性配对的补充(ALC)的定语语言和数据属性(D)。我们为初始群体贡献了一种新颖的初始化方法:从正示例开始(知识图中的节点),我们执行偏见随机散步并将它们转换为描述逻辑概念。此外,我们通过在决定分割数据的位置时,通过最大化信息增益来提高数据属性的支持。我们表明,我们的方法在结构化机器学习的基准框架SML - 台阶上显着优于现有技术。我们的消融研究证实,这是由于我们的新颖初始化方法和对数据属性的支持。
translated by 谷歌翻译
基于细化运算符的概念学习方法探索部分有序的解决方案空间来计算概念,这些空间用作个体的二进制分类模型。然而,这些方法探索的概念的数量可以很容易地增长到数百万的复杂学习问题。这通常会导致不切实际的运行时间。我们建议通过预测解决方案空间探索前的目标概念的长度来缓解这个问题。通过这些手段,我们可以在概念学习期间修剪搜索空间。为了实现这一目标,我们比较四个神经结构,并在四个基准上进行评估。我们的评估结果表明,经常性的神经网络架构在概念长度预测中表现最佳,宏F-MEARY从38%到92%。然后,我们扩展了eloe算法 - 学习ALC概念 - 我们的概念长度预测器。我们的扩展会产生算法剪辑。在我们的实验中,夹子比ALC的其他最先进的概念学习算法速度至少为7.5倍 - 包括Celoe - 并且在4个数据集中学习的3个概念的F-Peasure中实现了重大改进。为了重现性,我们在HTTPS://github.com/conceptlencthLearner/learnlencths中提供我们在公共Github存储库中的实现
translated by 谷歌翻译
知识图形嵌入研究主要集中在两个最小的规范部门代数,$ \ mathbb {r} $和$ \ mathbb {c} $。最近的结果表明,四元增值嵌入的三线性产品可以是解决链路预测的更有效手段。此外,基于真实嵌入的卷曲的模型通常会产生最先进的链路预测结果。在本文中,我们调查了一种卷积操作的组成,具有超量用乘法。我们提出了四个方法qmult,amult,convic和convo来解决链路预测问题。 Qmult和Omult可以被视为先前最先进方法的四元数和octonion扩展,包括Distmult和复杂。 Convic和Convo在Qmult和Omlult上建立在剩余学习框架的方式中包括卷积操作。我们在七个链路预测数据集中评估了我们的方法,包括WN18RR,FB15K-237和YAGO3-10。实验结果表明,随着知识图的规模和复杂性的增长,学习超复分价值的矢量表示的益处变得更加明显。 Convo优于MRR的FB15K-237上的最先进的方法,命中@ 1并点击@ 3,而Qmult,Omlult,Convic和Convo在所有度量标准中的Yago3-10上的最终倾斜的方式。结果还表明,通过预测平均可以进一步改善链路预测性能。为了培养可重复的研究,我们提供了开源的方法,包括培训和评估脚本以及佩戴型模型。
translated by 谷歌翻译