免疫组织化学染色图像的可靠定量分析需要准确稳健的细胞检测和分类。最近的弱监督方法通常估计细胞识别的概率密度图。但是,在密集的细胞场景中,由于无法找到通用参数设置,因此可以通过预处理和后处理受到限制。在本文中,我们引入了一个端到端框架,该框架应用了预设锚点的直接回归和分类。具体而言,我们提出了一种锥体特征聚合策略,可以同时组合低级特征和高级语义,该策略为我们的纯粹基于点的模型提供了准确的细胞识别。此外,优化的成本功能旨在通过匹配地面真相和预测点来调整我们的多任务学习框架。实验结果证明了所提出的方法的卓越准确性和效率,这揭示了辅助病理学家评估的很大潜力。
translated by 谷歌翻译
核分型是评估染色体异常可能存在的重要程序。但是,由于非刚性性质,染色体通常在微观图像中弯曲,这种变形形状阻碍了细胞遗传学家的染色体分析。在本文中,我们提出了一个自我发项的指导框架,以消除染色体的曲率。提出的框架提取空间信息和本地纹理,以在回归模块中保留带模式。借助弯曲染色体的互补信息,改进模块旨在进一步改善细节。此外,我们提出了两个专用的几何约束,以维持长度并恢复染色体的变形。为了训练我们的框架,我们创建一个合成数据集,其中通过网格变形从现实世界的直染色体生成弯曲的染色体。定量和定性实验是对合成和现实世界数据进行的。实验结果表明,我们所提出的方法可以有效拉直弯曲的染色体,同时保持带的细节和长度。
translated by 谷歌翻译
Code completion is a valuable topic in both academia and industry. Recently, large-scale mono-programming-lingual (MonoPL) pre-training models have been proposed to boost the performance of code completion. However, the code completion on low-resource programming languages (PL) is difficult for the data-driven paradigm, while there are plenty of developers using low-resource PLs. On the other hand, there are few studies exploring the effects of multi-programming-lingual (MultiPL) pre-training for the code completion, especially the impact on low-resource programming languages. To this end, we propose the MultiCoder to enhance the low-resource code completion via MultiPL pre-training and MultiPL Mixture-of-Experts (MoE) layers. We further propose a novel PL-level MoE routing strategy (PL-MoE) for improving the code completion on all PLs. Experimental results on CodeXGLUE and MultiCC demonstrate that 1) the proposed MultiCoder significantly outperforms the MonoPL baselines on low-resource programming languages, and 2) the PL-MoE module further boosts the performance on six programming languages. In addition, we analyze the effects of the proposed method in details and explore the effectiveness of our method in a variety of scenarios.
translated by 谷歌翻译
Semantic communication is not focused on improving the accuracy of transmitted symbols, but is concerned with expressing the expected meaning that the symbol sequence exactly carries. However, the measurement of semantic messages and their corresponding codebook generation are still open issues. Expansion, which integrates simple things into a complex system and even generates intelligence, is truly consistent with the evolution of the human language system. We apply this idea to the semantic communication system, quantifying semantic transmission by symbol sequences and investigating the semantic information system in a similar way as Shannon's method for digital communication systems. This work is the first to discuss semantic expansion and knowledge collision in the semantic information framework. Some important theoretical results are presented, including the relationship between semantic expansion and the transmission information rate. We believe such a semantic information framework may provide a new paradigm for semantic communications, and semantic expansion and knowledge collision will be the cornerstone of semantic information theory.
translated by 谷歌翻译
随着机器学习技术的发展,研究的注意力已从单模式学习转变为多模式学习,因为现实世界中的数据以不同的方式存在。但是,多模式模型通常比单模式模型具有更多的信息,并且通常将其应用于敏感情况,例如医疗报告生成或疾病鉴定。与针对机器学习分类器的现有会员推断相比,我们关注的是多模式模型的输入和输出的问题,例如不同的模式,例如图像字幕。这项工作通过成员推理攻击的角度研究了多模式模型的隐私泄漏,这是确定数据记录是否涉及模型培训过程的过程。为了实现这一目标,我们提出了多种模型的成员资格推理(M^4i),分别使用两种攻击方法来推断成员身份状态,分别为基于公表示的(MB)M^4i和基于特征(FB)M^4i。更具体地说,MB M^4i在攻击时采用相似性指标来推断目标数据成员资格。 FB M^4i使用预先训练的阴影多模式提取器来通过比较提取的输入和输出功能的相似性来实现数据推理攻击的目的。广泛的实验结果表明,两种攻击方法都可以实现强大的性能。在不受限制的情况下,平均可以获得攻击成功率的72.5%和94.83%。此外,我们评估了针对我们的攻击的多种防御机制。 M^4i攻击的源代码可在https://github.com/multimodalmi/multimodal-membership-inference.git上公开获得。
translated by 谷歌翻译
车辆边缘计算(VEC)可以在网络边缘的不同RSU中缓存内容,以支持实时车辆应用。在VEC中,由于车辆的高运动特性,有必要提前缓存用户数据,并为车辆用户学习最流行和最有趣的内容。由于用户数据通常包含隐私信息,因此用户不愿与他人共享其数据。为了解决这个问题,传统的联合学习(FL)需要通过汇总所有用户的本地模型来保护用户的隐私来同步更新全局模型。但是,车辆可能会在实现本地模型培训之前经常离开VEC的覆盖范围,因此无法按预期上传本地型号,这将降低全球模型的准确性。此外,本地RSU的缓存能力有限,流行内容是多样的,因此预测的流行内容的大小通常超过本地RSU的缓存能力。因此,在考虑内容传输延迟的同时,VEC应在不同的RSU中缓存预测的流行内容。在本文中,我们考虑了车辆的流动性,并提出了基于联合和深度强化学习(CAFR)的VEC中的合作缓存计划。我们首先考虑车辆的移动性,并提出异步FL算法以获得准确的全局模型,然后提出一种算法来预测基于全球模型的流行内容。此外,我们考虑了车辆的移动性,并提出了深入的强化学习算法,以获取预测流行内容的最佳合作缓存位置,以优化内容传输延迟。广泛的实验结果表明,CAFR方案的表现优于其他基线缓存方案。
translated by 谷歌翻译
我们提出了Pangu-Coder,这是一种仅预读的解码器语言模型,该模型采用pangu-alpha架构进行文本到代码生成,即给定自然语言问题描述的编程语言解决方案的合成。我们使用两阶段策略训练Pangu-Coder:第一阶段采用因果语言建模(CLM)来预先培训原始编程语言数据,而第二阶段则使用因果语言建模和掩盖语言建模(MLM)的组合培训目标,专注于文本到代码生成的下游任务,并培训松散的自然语言程序定义和代码功能。最后,我们讨论了pangu-coder-ft,该pander the是通过竞争性编程问题和代码与持续集成测试的结合进行了微调的。我们评估了pangu-coder,重点是它是否生成功能上正确的程序,并证明它在参加较小的上下文窗口和较少的数据培训的同时,它比诸如Codex之类的类似大小的模型(例如Codex)实现等效性或更好的性能。
translated by 谷歌翻译
真实的人类对话数据是复杂,异质和嘈杂的,从该数据中构建开放域对话系统仍然是一项艰巨的任务。实际上,此类对话数据仍然包含大量信息和知识,但是,它们没有得到充分探索。在本文中,我们展示了现有的开放域对话生成方法,这些方法记住上下文响应配对的数据,并使用自动回归或编码模型模型不利于培训数据。与当前的方法不同,使用外部知识,我们探索了一个检索生成培训框架,该培训框架可以通过将它们视为“证据”来利用异质和嘈杂的培训数据。特别是,我们使用Bertscore进行检索,这给出了证据和一代的更好品质。公开可用数据集的实验表明,我们的方法可以帮助模型产生更好的响应,即使此类培训数据通常会留下深刻的印象为低质量数据。这种性能增益与通过扩大训练组更好的改进的绩效增益相当,甚至更好。我们还发现,模型性能与检索到的证据的相关性有正相关。此外,我们的方法在零拍实验上表现良好,这表明我们的方法对现实世界数据可能更强大。
translated by 谷歌翻译
联合学习(FL)已出现联合列车在IOT中具有分布式数据集的模型,同时避免对中央数据收集的需求。由于观察范围有限,这种数据集只能反映当地信息,这限制了训练型的型号的质量。在实际网络中,全球信息和本地观察总是共存,这需要联合考虑学习做出合理的政策。然而,在分布式客户端中的水平流域中,中央代理机构仅作为模型聚合器,而不利用其全局功能进一步改进模型。这可能在很大程度上降低了一些任务中的性能,例如流量预测,其中全球信息明显提高了准确性。同时,这种全局特征可能不会直接发送给用于数据安全的代理。然后如何利用居住在中央机构的全球观察,同时保护其安全升起作为FL中的重要问题。在本文中,我们开发了垂直横向联合学习(VHFL)过程,其中全局特征在没有额外通信轮的过程中与代理共享代理。考虑到延迟和数据包丢失,我们分析了网络系统的收敛性并通过实验验证了其性能。建议的VHFL可以提高与水平FL相比的准确性,同时保护全球数据的安全性。
translated by 谷歌翻译
Deep learning models can achieve high accuracy when trained on large amounts of labeled data. However, real-world scenarios often involve several challenges: Training data may become available in installments, may originate from multiple different domains, and may not contain labels for training. Certain settings, for instance medical applications, often involve further restrictions that prohibit retention of previously seen data due to privacy regulations. In this work, to address such challenges, we study unsupervised segmentation in continual learning scenarios that involve domain shift. To that end, we introduce GarDA (Generative Appearance Replay for continual Domain Adaptation), a generative-replay based approach that can adapt a segmentation model sequentially to new domains with unlabeled data. In contrast to single-step unsupervised domain adaptation (UDA), continual adaptation to a sequence of domains enables leveraging and consolidation of information from multiple domains. Unlike previous approaches in incremental UDA, our method does not require access to previously seen data, making it applicable in many practical scenarios. We evaluate GarDA on two datasets with different organs and modalities, where it substantially outperforms existing techniques.
translated by 谷歌翻译