资源说明框架(RDF)和属性图(PG)是表示,存储和查询图数据的两个最常用的数据模型。我们提出了表达推理图存储(ERGS) - 构建在Janusgraph(属性图存储)顶部的图存储,该图还允许存储和查询RDF数据集。首先,我们描述了如何将RDF数据转换为属性图表示,然后描述将SPARQL查询转换为一系列Gremlin遍历的查询翻译模块。因此,开发的转换器和翻译器可以允许任何Apache TinkerPop符合图形数据库存储和查询RDF数据集。我们证明了使用JanusGraph作为基本属性图存储的建议方法的有效性,并将其性能与标准RDF系统进行比较。
translated by 谷歌翻译
联合学习(FL)是一种机器学习范式,本地节点在培训数据保持分散时进行了协作训练中心模型。现有的FL方法通常共享模型参数或采用共同依据来解决不平衡数据分布的问题。但是,他们患有沟通瓶颈。更重要的是,他们有隐私泄漏的风险。在这项工作中,我们在FL框架中开发了一种隐私和沟通高效方法,并使用未标记的跨域公共数据进行单次离线知识蒸馏。我们提出了一个量化的和嘈杂的本地预测合奏,从经过全面训练的本地模型中,以确保更强的隐私保证而无需牺牲准确性。基于有关图像分类和文本分类任务的广泛实验,我们表明,我们的隐私方法优于基线FL算法,其精度和沟通效率都具有出色的性能。
translated by 谷歌翻译
全面监督的人类网格恢复方法是渴望数据的,由于3D规定基准数据集的可用性有限和多样性,因此具有较差的概括性。使用合成数据驱动的训练范例,已经从合成配对的2D表示(例如2D关键点和分段掩码)和3D网格中训练了模型的最新进展,其中已使用合成数据驱动的训练范例和3D网格进行了训练。但是,由于合成训练数据和实际测试数据之间的域间隙很难解决2D密集表示,因此很少探索合成密集的对应图(即IUV)。为了减轻IUV上的这个领域差距,我们提出了使用可靠但稀疏表示的互补信息(2D关键点)提出的交叉代理对齐。具体而言,初始网格估计和两个2D表示之间的比对误差将转发为回归器,并在以下网格回归中动态校正。这种适应性的交叉代理对准明确地从偏差和捕获互补信息中学习:从稀疏的表示和浓郁的浓度中的稳健性。我们对多个标准基准数据集进行了广泛的实验,并展示了竞争结果,帮助减少在人类网格估计中生产最新模型所需的注释工作。
translated by 谷歌翻译
基于点击的交互式图像分割的目的是获得用户交互有限的精确对象分割掩码,即通过最少数量的用户点击。现有方法要求用户提供所有点击:首先检查分割掩码,然后在迭代区域上提供标记区域错误的点。我们提出一个问题:我们的模型可以直接预测在哪里单击,以进一步降低用户交互成本?为此,我们提出{\ pseudoclick},这是一个通用框架,使现有的分割网络能够提出下一步点击。这些自动生成的点击,称为伪单击,这是模仿人类点击的模仿,以完善细分面膜。
translated by 谷歌翻译
我们考虑临床应用异常定位问题。虽然深入学习推动了最近的医学成像进展,但许多临床挑战都没有完全解决,限制了其更广泛的使用。虽然最近的方法报告了高的诊断准确性,但医生因普遍缺乏算法决策和解释性而涉及诊断决策的这些算法,这是关注这些算法。解决这个问题的一种潜在方法是进一步培训这些模型,以便除了分类它们之外,除了分类。然而,准确地进行这一临床专家需要大量的疾病定位注释,这是对大多数应用程序来实现昂贵的任务。在这项工作中,我们通过一种新的注意力弱监督算法来解决这些问题,该弱势监督算法包括分层关注挖掘框架,可以以整体方式统一激活和基于梯度的视觉关注。我们的关键算法创新包括明确序号注意约束的设计,实现了以弱监督的方式实现了原则的模型培训,同时还通过本地化线索促进了产生视觉关注驱动的模型解释。在两个大型胸部X射线数据集(NIH Chescx-Ray14和Chexpert)上,我们展示了对现有技术的显着本地化性能,同时也实现了竞争的分类性能。我们的代码可在https://github.com/oyxhust/ham上找到。
translated by 谷歌翻译
我们考虑了解释一类可拖动的深层概率模型,总和网络(SPN)的问题,并提出了一种算法EXSPN来生成解释。为此,我们定义了特定于上下文的独立树(CSI-Tree)的概念,并提出了将SPN转换为CSI-Tree的迭代算法。最终的CSi-Tree既可以解释又可以解释为域专家。我们通过提取由SPN编码的条件独立性并近似SPN指定的局部环境来实现这一目标。我们对合成,标准和现实世界中临床数据集的广泛经验评估表明,CSI-Tree具有较高的解释性。
translated by 谷歌翻译
文献中最近的方法已经利用了文档中的多模态信息(文本,布局,图像)来服务于特定的下游文档任务。但是,它们受到 - (i)无法学习文档的文本,布局和图像尺寸的跨模型表示,并且(ii)无法处理多页文件。已经在自然语言处理(NLP)域中显示了预训练技术,以了解来自大型未标记数据集的通用文本表示,适用于各种下游NLP任务。在本文中,我们提出了一种基于多任务学习的框架,该框架利用自我监督和监督的预训练任务的组合来学习适用于各种下游文档任务的通用文档表示。具体而言,我们将文档主题建模和文档Shuffle预测作为新的预训练任务,以便学习丰富的图像表示以及文档的文本和布局表示。我们利用啰覆网络架构作为骨干,以以端到端的方式从多页文件中编码多模态信息。我们展示我们在各种不同现实文档任务的培训框架的适用性,例如文档分类,文档信息提取和文件检索。我们在不同的标准文件数据集中评估我们的框架,并进行详尽的实验,以比较符合我们框架的各种消融和最先进的基线的绩效。
translated by 谷歌翻译