Multi-label ranking maps instances to a ranked set of predicted labels from multiple possible classes. The ranking approach for multi-label learning problems received attention for its success in multi-label classification, with one of the well-known approaches being pairwise label ranking. However, most existing methods assume that only partial information about the preference relation is known, which is inferred from the partition of labels into a positive and negative set, then treat labels with equal importance. In this paper, we focus on the unique challenge of ranking when the order of the true label set is provided. We propose a novel dedicated loss function to optimize models by incorporating penalties for incorrectly ranked pairs, and make use of the ranking information present in the input. Our method achieves the best reported performance measures on both synthetic and real world ranked datasets and shows improvements on overall ranking of labels. Our experimental results demonstrate that our approach is generalizable to a variety of multi-label classification and ranking tasks, while revealing a calibration towards a certain ranking ordering.
translated by 谷歌翻译
With the boom of digital educational materials and scalable e-learning systems, the potential for realising AI-assisted personalised learning has skyrocketed. In this landscape, the automatic generation of educational questions will play a key role, enabling scalable self-assessment when a global population is manoeuvring their personalised learning journeys. We develop EduQG, a novel educational question generation model built by adapting a large language model. Our initial experiments demonstrate that EduQG can produce superior educational questions by pre-training on scientific text.
translated by 谷歌翻译
监测普遍的空气传播疾病,例如COVID-19的特征涉及呼吸评估。虽然听诊是一种症状监测的主流方法,但其诊断效用受到专用医院就诊的需求而受到阻碍。基于便携式设备上呼吸道声音的记录,持续的远程监视是一种有希望的替代方法,可以帮助筛选Covid-19。在这项研究中,我们介绍了一种新型的深度学习方法,可以将Covid-19患者与健康对照组区分开,鉴于咳嗽或呼吸声的音频记录。所提出的方法利用新型的层次谱图变压器(HST)在呼吸声的光谱图表示上。 HST在频谱图中体现了在本地窗口上的自我发挥机制,并且窗口大小在模型阶段逐渐生长,以捕获本地环境。将HST与最新的常规和深度学习基线进行比较。在跨国数据集上进行的全面演示表明,HST优于竞争方法,在检测COVID-19案例中,在接收器操作特征曲线(AUC)下达到了97%以上的面积。
translated by 谷歌翻译
我们引入了综合学习,这是一个原则性的框架,将弱监督集成到机器学习模型的培训过程中。我们的方法共同训练末端模型和标签模型,该模型汇总了多个弱监督源。我们介绍了一个标签模型,该模型可以学会以不同的数据点的方式汇总弱监督源,并考虑训练期间终端模型的性能。我们表明,我们的方法在一组6个基准分类数据集中优于现有的弱学习技术。当出现少量标记的数据和弱监督时,性能的提高既一致又大,并且可靠地获得了2-5点测试F1分数在非整合方法中获得的增长。
translated by 谷歌翻译
在信息推荐人中,由于需要处理知识域之间的语义和层次结构,因此出现了许多挑战。这项工作旨在提前建立一个国家感知的教育推荐系统,该制度包括知识主题之间的语义相关性,在语义相关主题中传播潜在信息。我们介绍了一种新的学习模型,可以利用Wikipedia链接图来利用知识组件之间的这种语义相关性,旨在更好地预测终身学习情景中的学习者参与和潜在知识。从这个意义上讲,语义Truelearn在利用贝叶斯机器学习时建立了一种人类直观的知识表示,以提高教育参与的预测性能。我们的大型数据集的实验表明,这种新的Truelearn算法的语义版本在预测性能方面实现了统计上显着的改进,简单的扩展为模型增加了语义意识。
translated by 谷歌翻译
在NLP中,大量的任务涉及两种序列之间的成对比较(例如句子相似性和解释识别)。主要是,两种配方用于句子 - 对任务:双编码器和交叉编码器。双编码器产生固定尺寸句子表示,并且在计算上有效,但是,它们通常是跨编码器的表现不佳。交叉编码器可以利用他们的注意力头来利用句子间交互以获得更好的性能,但它们需要任务微调,并且计算更昂贵。在本文中,我们提出了一个完全无监督的句子表示模型被称为跨编码器,它将两个学习范例结合到迭代联合框架中,以同时学习增强的双和交叉编码器。具体而言,在预先接受训练的语言模型(PLM)的顶部,我们首先将其转换为无监督的双编码器,然后在双编码器任务配方之间交替。在每次交替中,一个任务制定将产生伪标签,该伪标签用作其他任务制定的学习信号。然后,我们提出了一种平行于多个PLMS在多个PLM上进行这种自蒸馏方法的延伸,并使用其伪标签的平均值进行互蒸馏。 Trans-encoder据我们所知,创建了第一个完全无监督的跨编码器以及用于句子相似性的最先进的无人监督的双编码器。跨编码器的双编码器和交叉编码器配方均最近提出了最先进的无监督句子编码器,例如镜像相似基准在句子相似基准上最多5%的镜像 - BERT和SIMCSE。
translated by 谷歌翻译
Multiwoz 2.0数据集极大地刺激了面向任务的对话系统的研究。但是,其状态注释包含大量噪声,这阻碍了对模型性能的正确评估。为了解决这个问题,大规模的努力致力于纠正注释。然后释放了三个改进的版本(即Multiwoz 2.1-2.3)。尽管如此,仍然有很多错误和不一致的注释。这项工作介绍了Multiwoz 2.4,该工作完善了Multiwoz 2.1的验证集和测试集中的注释。训练集中的注释保持不变(与多沃兹2.1相同),以引发强大的噪声模型训练。我们在Multiwoz 2.4上基准了八个最新的对话状态跟踪模型。所有这些表现出比Multiwoz 2.1的性能要高得多。
translated by 谷歌翻译