对于基于MR物理学的模拟,对虚拟心脏MR图像的数据库进行了极大的兴趣,以开发深度学习分析网络。但是,这种数据库的使用受到限制或由于现实差距,缺失纹理以及模拟图像的简化外观而显示出次优性能。在这项工作中,我们1)在虚拟XCAT主题上提供不同的解剖学模拟,以及2)提出SIM2Real翻译网络以改善图像现实主义。我们的可用性实验表明,SIM2REAL数据具有增强训练数据并提高分割算法的性能的良好潜力。
translated by 谷歌翻译
本研究的目的是申请和评估跨多媒体挑战的开箱即用的深度学习框架。我们使用从对比度增强的T1 MR到高分辨率T2 MR的域改性的剪切模型。作为数据增强,我们生成了带有较低信号强度的前庭施瓦莫纳的额外图像。对于分段任务,我们使用NNU-Net框架。我们的最终提交在验证阶段实现了0.8299的平均骰子分数,测试阶段0.8253。我们的方法在Crossmoda挑战中排名第3。
translated by 谷歌翻译
Segmenting the fine structure of the mouse brain on magnetic resonance (MR) images is critical for delineating morphological regions, analyzing brain function, and understanding their relationships. Compared to a single MRI modality, multimodal MRI data provide complementary tissue features that can be exploited by deep learning models, resulting in better segmentation results. However, multimodal mouse brain MRI data is often lacking, making automatic segmentation of mouse brain fine structure a very challenging task. To address this issue, it is necessary to fuse multimodal MRI data to produce distinguished contrasts in different brain structures. Hence, we propose a novel disentangled and contrastive GAN-based framework, named MouseGAN++, to synthesize multiple MR modalities from single ones in a structure-preserving manner, thus improving the segmentation performance by imputing missing modalities and multi-modality fusion. Our results demonstrate that the translation performance of our method outperforms the state-of-the-art methods. Using the subsequently learned modality-invariant information as well as the modality-translated images, MouseGAN++ can segment fine brain structures with averaged dice coefficients of 90.0% (T2w) and 87.9% (T1w), respectively, achieving around +10% performance improvement compared to the state-of-the-art algorithms. Our results demonstrate that MouseGAN++, as a simultaneous image synthesis and segmentation method, can be used to fuse cross-modality information in an unpaired manner and yield more robust performance in the absence of multimodal data. We release our method as a mouse brain structural segmentation tool for free academic usage at https://github.com/yu02019.
translated by 谷歌翻译
腹主动脉瘤(AAA)是一种血管疾病,其中主动脉的一部分肿大,削弱其壁并可能破裂血管。腹部超声已用于诊断,但由于其图像质量和操作员的依赖性有限,通常需要进行CT扫描进行监测和治疗计划。最近,腹部CT数据集已成功用于训练深神经网络以进行自动主动脉分割。因此,可以利用从这项解决的任务中收集的知识来改善我们的AAA诊断和监测分段。为此,我们提出了Cactuss:一种常见的解剖CT-US空间,它是CT和美国模式之间的虚拟桥梁,以实现自动AAA筛选超声检查。仙人掌利用公开可用的标记数据来学习基于从美国和CT继承属性的中介表示。我们在此新表示中训练分割网络,并采用附加的图像到图像翻译网络,使我们的模型能够在真实的B模式图像上执行。与完全监督的方法进行的定量比较证明了在骰子评分和诊断指标方面的能力,这表明我们的方法还满足了AAA扫描和诊断的临床要求。
translated by 谷歌翻译
为了实现良好的性能和概括性,医疗图像分割模型应在具有足够可变性的大量数据集上进行培训。由于道德和治理限制以及与标签数据相关的成本,经常对科学发展进行扼杀,并经过对有限数据的培训和测试。数据增强通常用于人为地增加数据分布的可变性并提高模型的通用性。最近的作品探索了图像合成的深层生成模型,因为这种方法将使有效的无限数据生成多种多样的数据,从而解决了通用性和数据访问问题。但是,许多提出的解决方案限制了用户对生成内容的控制。在这项工作中,我们提出了Brainspade,该模型将基于合成扩散的标签发生器与语义图像发生器结合在一起。我们的模型可以在有或没有感兴趣的病理的情况下产生完全合成的大脑标签,然后产生任意引导样式的相应MRI图像。实验表明,Brainspade合成数据可用于训练分割模型,其性能与在真实数据中训练的模型相当。
translated by 谷歌翻译
这项工作提出了一个新颖的框架CISFA(对比图像合成和自我监督的特征适应),该框架建立在图像域翻译和无监督的特征适应性上,以进行跨模式生物医学图像分割。与现有作品不同,我们使用单方面的生成模型,并在输入图像的采样贴片和相应的合成图像之间添加加权贴片对比度损失,该图像用作形状约束。此外,我们注意到生成的图像和输入图像共享相似的结构信息,但具有不同的方式。因此,我们在生成的图像和输入图像上强制实施对比损失,以训练分割模型的编码器,以最大程度地减少学到的嵌入空间中成对图像之间的差异。与依靠对抗性学习进行特征适应的现有作品相比,这种方法使编码器能够以更明确的方式学习独立于域的功能。我们对包含腹腔和全心的CT和MRI图像的分割任务进行了广泛评估。实验结果表明,所提出的框架不仅输出了较小的器官形状变形的合成图像,而且还超过了最先进的域适应方法的较大边缘。
translated by 谷歌翻译
基于深度学习的疾病检测和分割算法承诺提高许多临床过程。然而,由于数据隐私,法律障碍和非统一数据采集协议,此类算法需要大量的注释训练数据,通常在医学环境中不可用。具有注释病理学的合成数据库可以提供所需的培训数据量。我们展示了缺血性卒中的例子,即利用基于深度学习的增强的病变分割的改善是可行的。为此,我们训练不同的图像到图像转换模型,以合成大脑体积的磁共振图像,并且没有来自语义分割图的中风病变。此外,我们培养一种生成的对抗性网络来产生合成病变面具。随后,我们组合这两个组件来构建大型合成描边图像数据库。使用U-NET评估各种模型的性能,该U-NET在临床测试集上培训以进行段中风病变。我们向最佳性能报告$ \ mathbf {72.8} $%[$ \ mathbf {70.8 \ pm1.0} $%]的骰子分数,这胜过了单独临床图像培训的模型培训$ \ mathbf { 67.3} $%[$ \ mathbf {63.2 \ pm1.9} $%],并且接近人类互相互联网骰子评分$ \ mathbf {76.9} $%。此外,我们表明,对于仅为10或50个临床案例的小型数据库,与使用不使用合成数据的设置相比,合成数据增强产生了显着的改进。据我们所知,这提出了基于图像到图像翻译的合成数据增强的第一个比较分析,并将第一应用于缺血性卒中。
translated by 谷歌翻译
In image-to-image translation, each patch in the output should reflect the content of the corresponding patch in the input, independent of domain. We propose a straightforward method for doing so -maximizing mutual information between the two, using a framework based on contrastive learning. The method encourages two elements (corresponding patches) to map to a similar point in a learned feature space, relative to other elements (other patches) in the dataset, referred to as negatives. We explore several critical design choices for making contrastive learning effective in the image synthesis setting. Notably, we use a multilayer, patch-based approach, rather than operate on entire images. Furthermore, we draw negatives from within the input image itself, rather than from the rest of the dataset. We demonstrate that our framework enables one-sided translation in the unpaired image-to-image translation setting, while improving quality and reducing training time. In addition, our method can even be extended to the training setting where each "domain" is only a single image.
translated by 谷歌翻译
我们提出了一种使用合理的心形和现实外观合成心脏MR图像的方法,目的是生成标记的数据进行深度学习(DL)训练。它将图像合成分解为标签变形和标签到图像翻译任务。前者是通过VAE模型中的潜在空间插值来实现的,而后者是通过条件GAN模型完成的。我们设计了一种在受过训练的VAE模型的潜在空间中的标记操纵方法,即病理合成,旨在合成一系列具有所需心脏病特征的伪病理合成受试者。此外,我们建议通过估计潜在矢量之间的相关系数矩阵来对2D切片之间的关系进行建模,并利用它在解码到图像空间之前将样品随机绘制的元素关联。这种简单而有效的方法导致从2D片段产生3D一致的受试者。这种方法可以提供一种解决方案,以多样化和丰富心脏MR图像的可用数据库,并为开发基于DL的图像分析算法的开发铺平道路。该代码将在https://github.com/sinaamirrajab/cardiacpathologysynthesis中找到。
translated by 谷歌翻译
Large annotated datasets are required to train segmentation networks. In medical imaging, it is often difficult, time consuming and expensive to create such datasets, and it may also be difficult to share these datasets with other researchers. Different AI models can today generate very realistic synthetic images, which can potentially be openly shared as they do not belong to specific persons. However, recent work has shown that using synthetic images for training deep networks often leads to worse performance compared to using real images. Here we demonstrate that using synthetic images and annotations from an ensemble of 10 GANs, instead of from a single GAN, increases the Dice score on real test images with 4.7 % to 14.0 % on specific classes.
translated by 谷歌翻译
基于深度学习的计算机辅助诊断(CAD)已成为医疗行业的重要诊断技术,有效提高诊断精度。然而,脑肿瘤磁共振(MR)图像数据集的稀缺性导致深度学习算法的低性能。传统数据增强(DA)生成的转换图像的分布本质上类似于原始的图像,从而在泛化能力方面产生有限的性能。这项工作提高了具有结构相似性损失功能(PGGAN-SSIM)的GAN的逐步生长,以解决图像模糊问题和模型崩溃。我们还探讨了其他基于GAN的数据增强,以证明所提出的模型的有效性。我们的结果表明,PGGAN-SSIM成功地生成了256x256的现实脑肿瘤MR图像,填充了原始数据集未发现的真实图像分布。此外,PGGAN-SSSIM超过了其他基于GAN的方法,实现了FRECHET成立距离(FID)和多尺度结构相似性(MS-SSIM)的有希望的性能提升。
translated by 谷歌翻译
Deep learning models can achieve high accuracy when trained on large amounts of labeled data. However, real-world scenarios often involve several challenges: Training data may become available in installments, may originate from multiple different domains, and may not contain labels for training. Certain settings, for instance medical applications, often involve further restrictions that prohibit retention of previously seen data due to privacy regulations. In this work, to address such challenges, we study unsupervised segmentation in continual learning scenarios that involve domain shift. To that end, we introduce GarDA (Generative Appearance Replay for continual Domain Adaptation), a generative-replay based approach that can adapt a segmentation model sequentially to new domains with unlabeled data. In contrast to single-step unsupervised domain adaptation (UDA), continual adaptation to a sequence of domains enables leveraging and consolidation of information from multiple domains. Unlike previous approaches in incremental UDA, our method does not require access to previously seen data, making it applicable in many practical scenarios. We evaluate GarDA on two datasets with different organs and modalities, where it substantially outperforms existing techniques.
translated by 谷歌翻译
Quantifying the perceptual similarity of two images is a long-standing problem in low-level computer vision. The natural image domain commonly relies on supervised learning, e.g., a pre-trained VGG, to obtain a latent representation. However, due to domain shift, pre-trained models from the natural image domain might not apply to other image domains, such as medical imaging. Notably, in medical imaging, evaluating the perceptual similarity is exclusively performed by specialists trained extensively in diverse medical fields. Thus, medical imaging remains devoid of task-specific, objective perceptual measures. This work answers the question: Is it necessary to rely on supervised learning to obtain an effective representation that could measure perceptual similarity, or is self-supervision sufficient? To understand whether recent contrastive self-supervised representation (CSR) may come to the rescue, we start with natural images and systematically evaluate CSR as a metric across numerous contemporary architectures and tasks and compare them with existing methods. We find that in the natural image domain, CSR behaves on par with the supervised one on several perceptual tests as a metric, and in the medical domain, CSR better quantifies perceptual similarity concerning the experts' ratings. We also demonstrate that CSR can significantly improve image quality in two image synthesis tasks. Finally, our extensive results suggest that perceptuality is an emergent property of CSR, which can be adapted to many image domains without requiring annotations.
translated by 谷歌翻译
图像到图像转换是最近使用生成对冲网络(GaN)将图像从一个域转换为另一个域的趋势。现有的GaN模型仅利用转换的输入和输出方式执行培训。在本文中,我们执行GaN模型的语义注射训练。具体而言,我们用原始输入和输出方式训练,并注入几个时代,用于从输入到语义地图的翻译。让我们将原始培训称为输入图像转换为目标域的培训。原始训练中的语义训练注射改善了训练的GaN模型的泛化能力。此外,它还以更好的方式在生成的图像中以更好的方式保留分类信息。语义地图仅在训练时间使用,并且在测试时间不需要。通过在城市景观和RGB-NIR立体数据集上使用最先进的GaN模型进行实验。与原始训练相比,在注入语义训练后,我们遵守SSIM,FID和KID等方面的提高性能。
translated by 谷歌翻译
交换自动编码器在深层图像操纵和图像到图像翻译中实现了最先进的性能。我们通过基于梯度逆转层引入简单而有效的辅助模块来改善这项工作。辅助模块的损失迫使发电机学会使用全零纹理代码重建图像,从而鼓励结构和纹理信息之间更好地分解。提出的基于属性的转移方法可以在样式传输中进行精致的控制,同时在不使用语义掩码的情况下保留结构信息。为了操纵图像,我们将对象的几何形状和输入图像的一般样式编码为两个潜在代码,并具有实施结构一致性的附加约束。此外,由于辅助损失,训练时间大大减少。提出的模型的优越性在复杂的域中得到了证明,例如已知最先进的卫星图像。最后,我们表明我们的模型改善了广泛的数据集的质量指标,同时通过多模式图像生成技术实现了可比的结果。
translated by 谷歌翻译
已经在医学成像结构域中应用了生成模型,用于各种图像识别和综合任务。然而,对于诸如协助医学训练的重要应用,仍然需要更可控和可解释的图像合成模型。在这项工作中,我们利用了有效的自我关注和对比学习模块,并在最先进的生成的对抗网络(GAN)上建立,以实现一个属性感知的图像综合模型,称为attributegan,它可以产生高质量基于多属性输入的组织病理学图像。与现有的单个属性条件生成模型相比,我们提出的模型更好地反映了输入属性,并实现了属性值之间的更平滑的插值。我们对尿液癌的染色H&E图像的组织病理学数据集进行实验,并通过与最先进的模型以及我们模型的不同变体来展示我们提出的模型的有效性。代码可在https://github.com/karenyyy/miccai2021AttribUtegan获得。
translated by 谷歌翻译
精确的心脏计算,多种式图像的分析和建模对于心脏病的诊断和治疗是重要的。晚期钆增强磁共振成像(LGE MRI)是一种有希望的技术,可视化和量化心肌梗塞(MI)和心房疤痕。由于LGE MRI的低图像质量和复杂的增强图案,MI和心房疤痕的自动化量可能是具有挑战性的。此外,与带金标准标签的其他序列LGE MRIS相比特别有限,这表示用于开发用于自动分割和LGE MRIS定量的新型算法的另一个障碍。本章旨在总结最先进的基于深度学习的多模态心脏图像分析的先进贡献。首先,我们向基于多序心脏MRI的心肌和病理分割介绍了两个基准工作。其次,提出了两种新的左心房瘢痕分割和从LGE MRI定量的新型框架。第三,我们为跨型心脏图像分割提出了三种无监督的域适应技术。
translated by 谷歌翻译
超声是医学成像中第二大大量的模式。它具有成本效益,无害,便携式和在众多临床程序中常规实施。尽管如此,图像质量的特征是外观磨砂,较差的SNR和斑点噪声。对于恶性肿瘤,边缘是模糊的。因此,非常需要改善超声图像质量。我们假设使用神经网络可以通过转化为更现实的显示,该显示模仿了整个组织的解剖学切割,可以实现这一目标。为了实现此目标,最好的方法是使用一组配对图像。但是,在我们的情况下,这实际上是不可能的。因此,使用了循环生成的对抗网络(Cyclegan),以分别学习每个域性能并强制执行跨域循环一致性。用于训练的两个数据集该模型是“乳房超声图像”(BUSI)和在我们实验室获取的家禽乳腺组织样品的一组光学图像。生成的伪解剖图像可改善对病变的视觉歧视,并具有更清晰的边界定义和明显的对比度。为了评估解剖学特征的保存,超声图像中的病变和生成的伪解剖图像均自动分割和比较。这种比较得出的良性肿瘤的中位骰子得分为0.91,恶性肿瘤的骰子得分为0.70。良性和恶性肿瘤的中位病变中心误差分别为0.58%和3.27%,良性和恶性肿瘤的中值面积误差指数分别为0.40%和4.34%。总之,这些产生的伪解剖图像以更直观的方式呈现,可以增强组织解剖结构,并有可能简化诊断并改善临床结果。
translated by 谷歌翻译
现在,人工智能(AI)可以自动解释医学图像以供临床使用。但是,AI在介入图像中的潜在用途(相对于参与分类或诊断的图像),例如在手术期间的指导,在很大程度上尚未开发。这是因为目前,使用现场分析对现场手术收集的数据进行了事后分析,这是因为手术AI系统具有基本和实际限制,包括道德考虑,费用,可扩展性,数据完整性以及缺乏地面真相。在这里,我们证明从人类模型中创建逼真的模拟图像是可行的替代方法,并与大规模的原位数据收集进行了补充。我们表明,对现实合成数据的训练AI图像分析模型,结合当代域的概括或适应技术,导致在实际数据上的模型与在精确匹配的真实数据训练集中训练的模型相当地执行的模型。由于从基于人类的模型尺度的合成生成培训数据,因此我们发现我们称为X射线图像分析的模型传输范式(我们称为Syntheex)甚至可以超越实际数据训练的模型,因为训练的有效性较大的数据集。我们证明了合成在三个临床任务上的潜力:髋关节图像分析,手术机器人工具检测和COVID-19肺病变分割。 Synthex提供了一个机会,可以极大地加速基于X射线药物的智能系统的概念,设计和评估。此外,模拟图像环境还提供了测试新颖仪器,设计互补手术方法的机会,并设想了改善结果,节省时间或减轻人为错误的新技术,从实时人类数据收集的道德和实际考虑方面摆脱了人为错误。
translated by 谷歌翻译
组织病理学图像合成的现有深网无法为聚类核生成准确的边界,并且无法输出与不同器官一致的图像样式。为了解决这些问题,我们提出了一种样式引导的实例自适应标准化(SIAN),以合成不同器官的逼真的颜色分布和纹理。 Sian包含四个阶段:语义,风格化,实例化和调制。这四个阶段共同起作用,并集成到生成网络中,以嵌入图像语义,样式和实例级级边界。实验结果证明了所有组件在Sian中的有效性,并表明所提出的方法比使用Frechet Inception Inception距离(FID),结构相似性指数(SSIM),检测质量胜过组织病理学图像合成的最新条件gan。 (DQ),分割质量(SQ)和圆锥体质量(PQ)。此外,通过合并使用Sian产生的合成图像,可以显着改善分割网络的性能。
translated by 谷歌翻译