Heterogeneous network embedding (HNE) is a challenging task due to the diverse node types and/or diverse relationships between nodes. Existing HNE methods are typically unsupervised. To maximize the profit of utilizing the rare and valuable supervised information in HNEs, we develop a novel Active Heterogeneous Network Embedding (Ac-tiveHNE) framework, which includes two components: Discriminative Heterogeneous Network Embedding (DHNE) and Active Query in Heterogeneous Networks (AQHN). In DHNE, we introduce a novel semi-supervised heterogeneous network embedding method based on graph convolutional neu-ral network. In AQHN, we first introduce three active selection strategies based on uncertainty and representativeness, and then derive a batch selection method that assembles these strategies using a multi-armed bandit mechanism. ActiveHNE aims at improving the performance of HNE by feeding the most valuable supervision obtained by AQHN into DHNE. Experiments on public datasets demonstrate the effectiveness of ActiveHNE and its advantage on reducing the query cost.
translated by 谷歌翻译
Multi-view Multi-instance Multi-label Learning(M3L) deals with complex objects encompassing diverse instances, represented with different feature views, and annotated with multiple labels. Existing M3L solutions only partially explore the inter or intra relations between objects (or bags), instances, and labels, which can convey important contextual information for M3L. As such, they may have a compromised performance. In this paper, we propose a collaborative matrix factorization based solution called M3Lcmf. M3Lcmf first uses a heterogeneous network composed of nodes of bags, instances, and labels, to encode different types of relations via multiple rela-tional data matrices. To preserve the intrinsic structure of the data matrices, M3Lcmf collaboratively factorizes them into low-rank matrices, explores the latent relationships between bags, instances, and labels, and selectively merges the data matrices. An aggregation scheme is further introduced to aggregate the instance-level labels into bag-level and to guide the factorization. An empirical study on benchmark datasets show that M3Lcmf outperforms other related competitive solutions both in the instance-level and bag-level prediction.
translated by 谷歌翻译
多聚类旨在探索替代聚类,从不同角度将数据组织成有意义的组。现有的多聚类算法是针对单视图数据而设计的。我们假设可以利用多视图数据的个性和通用性来生成高质量和多样化的聚类。为此,我们提出了一种新的多视图多聚类(MVMC)算法。 MVMC首先采用多视图自身表示学习来探索个性化编码矩阵和多视图数据的共享通用矩阵。它还使用希尔伯特 - 施密特独立准则(HSIC)减少了矩阵之间的冗余(即,增强个性),并通过强制共享矩阵在所有视图中平滑来收集共享信息。然后,它使用单个矩阵的矩阵因子以及共享矩阵,生成高质量的多样化聚类。我们进一步扩展了多视图数据的多聚类,并提出了一种称为多视图多聚共聚(MVMCC)的解决方案。我们的实证研究表明,MVMC(MVMCC)canexploit多视图数据可以生成多个高质量和多样化的聚类(共聚类),具有优于最先进方法的性能。
translated by 谷歌翻译
跨模式散列因其低模型数据检索的低存储成本和快速查询速度而受到越来越多的关注。然而,mostexisting散列方法是基于对象的手工制作或原始级别特征,这些特征可能与编码过程不是最佳兼容。此外,这些散列方法主要用于处理简单的双重相似性。与多个标签相关联的实例的复杂多级排序语义结构尚未得到很好的探索。在本文中,我们提出了一种基于排序的深度跨模态哈希方法(RDCMH)。 RDCM首先使用数据的特征和标签信息来导出asemi监督的语义排序列表。接下来,为了扩展手工制作特征的语义表示能力,RDCMH将语义分析信息集成到深度跨模态散列中,并联合优化深度特征表示和散列函数的兼容参数。实际多模态数据集的实验表明,RDCMH优于其他竞争对手基线并实现最先进的性能跨模式检索应用程序。
translated by 谷歌翻译
多集群旨在发现组织数据集群的各种方式。尽管取得了进展,但用户分析和理解每个输出聚类的独特结构仍然是一个挑战。在这个过程中,我们考虑嵌入在不同子空间中的不同聚类,并分析嵌入子空间以阐明每个聚类的结构。为此,我们提供了一个称为MISC(多个独立子空间聚类)的两阶段方法。在第一阶段,MISC使用独立子空间分析来寻找多个统计独立(即非冗余)子空间,并通过最小描述长度原理确定子空间的数量。在第二阶段,为了考虑嵌入在每个子空间中的样本的固有几何结构,MISC执行图正则化半非负矩阵分解以探索聚类。它还将内核技巧集成到矩阵分解中,以处理非线性可分离的集群。合成数据集的实验结果表明,MISC可以从独立的子空间中找到不同的有趣聚类,并且在实际数据集上也优于其他相关和竞争方法。
translated by 谷歌翻译
持续学习旨在使机器学习模型能够以顺序方式学习过去和未来任务的通用解决方案空间。 Conventionalmodels在学习新任务时倾向于忘记先前任务的知识,这种现象称为灾难性遗忘。当在持续学习中使用贝叶斯模型时,可以在两个方面保留以前任务的知识:1)。参数的后验分布,包含先前任务中推理的知识,然后作为后续任务的先验; 2)。核心集,包含以前任务的数据分布知识。在这里,我们通过分别使用自然梯度和斯坦梯度表明贝叶斯连续学习可以通过这两种方式得到促进。
translated by 谷歌翻译
视频对象移除在视频处理中是一项具有挑战性的任务,通常需要大量的人力。给定每个帧中前景对象的掩码,目标是完成(绘制)对象区域并生成目标对象的视频。虽然最近基于深度学习的方法在图像修复任务中取得了巨大成功,但是当应用于视频时,它们经常导致帧之间的结果不一致。在这项工作中,我们提出了一种新颖的基于学习的视频对象去除网络(VORNet),通过结合光流翘曲和基于图像的修复模型,以时空一致的方式解决视频对象去除任务。实验在我们的合成视频上完成基于YouTube-VOS视频分割数据集的对象移除(SVOR)数据集,客观和主观评估表明,与现有方法相比,我们的VORNet生成更多空间和时间上一致的视频。
translated by 谷歌翻译
我们通过$ \ ell_1 $ -minimization研究从一组信号中全局恢复字典的问题。我们假设信号是asi.i.d生成的。来自完整参考字典$ D ^ * \ in \ mathbb R ^ {K \ times K} $的$ K $原子的随机线性组合,其中线性组合系数来自伯努利型模型或精确稀疏模型。首先,我们获得必要且充分的规范条件,引用的字典$ D ^ * $是预期的$ \ ell_1 $目标函数的一个尖锐的局部最小值。我们的结果大大扩展了Wu和Yu(2015)的结果,并允许组合系数是非负的。其次,我们在所引用的字典的目标值最小的区域上获得显式绑定。第三,我们证明了参考字典是唯一的尖锐局部最小值,从而建立了第一个已知的$ \ ell_1 $ -minimization字典学习的全局属性。在理论结果的推动下,我们引入了基于扰动的测试来确定adictionary是否是目标函数的尖锐局部最小值。此外,我们还提出了一种新的基于Block CoordinateDescent的字典学习算法,称为DL-BCD,保证具有单调收敛性。模拟研究表明DL-BCD在恢复率方面具有竞争性,与许多状态相比。 -art字典学习算法。
translated by 谷歌翻译
能够解释来自实时视频流的场景的视觉算法对于计算机辅助手术系统来实现上下文感知行为是必要的。在腹腔镜手术中,这种系统所需的一种特定算法是手术阶段的识别,对于该手术阶段,现有技术是基于CNN-LSTM的模型。许多使用此类模型的先前工作已经以完全监督的方式训练它们,需要完全注释的数据集。相反,我们的工作面临着在提供大量注释数据(低于所有可用视频录像的25%)的情况下学习手术阶段识别的问题。我们提出了ateacher / student类型的方法,其中一个称为教师的强预测器,事先在一个关于地面实况注释视频的小数据集上进行训练,为更大的数据集生成合成注释,另一个模型 - 学生 - 从中​​学习。在我们的案例中,教师采用了新颖的CNN-biLSTM-CRF架构,仅用于离线推理。另一方面,学生是能够进行实时预测的CNN-LSTM。各种数量的手动注释视频的结果证明了新CNN-biLSTM-CRF预测器的优越性以及使用针对未注释视频生成的合成标签从CNN-LSTMtrained获得的改进性能。对于离线和在线手术阶段识别,只有很少的注释记录可用,这种新的教师/学生策略通过有效地利用未注释的数据提供了有价值的性能改进。
translated by 谷歌翻译
Kernel Bayesian inference is a principled approach to nonparametric inference in probabilistic graphical models, where probabilistic relationships between variables are learned from data in a nonparametric manner. Various algorithms of kernel Bayesian inference have been developed by combining kernelized basic probabilistic operations such as the kernel sum rule and kernel Bayes' rule. However, the current framework is fully nonparametric, and it does not allow a user to flexibly combine nonparametric and model-based inferences. This is inefficient when there are good probabilistic models (or simulation models) available for some parts of a graphical model; this is in particular true in scientific fields where "models" are the central topic of study. Our contribution in this paper is to introduce a novel approach, termed the model-based kernel sum rule (Mb-KSR), to combine a probabilistic model and kernel Bayesian inference. By combining the Mb-KSR with the existing kernelized probabilistic rules, one can develop various algorithms for hybrid (i.e., nonparametric and model-based) inferences. As an illustrative example, we consider Bayesian filtering in a state space model, where typically there exists an accurate probabilistic model for the state transition process. We propose a novel filtering method that combines model-based inference for 2 Yu Nishiyama et al. the state transition process and data-driven, nonparametric inference for the observation generating process. We empirically validate our approach with synthetic and real-data experiments, the latter being the problem of vision-based mobile robot localization in robotics, which illustrates the effectiveness of the proposed hybrid approach.
translated by 谷歌翻译