Segmentation of regions of interest (ROIs) for identifying abnormalities is a leading problem in medical imaging. Using Machine Learning (ML) for this problem generally requires manually annotated ground-truth segmentations, demanding extensive time and resources from radiologists. This work presents a novel weakly supervised approach that utilizes binary image-level labels, which are much simpler to acquire, to effectively segment anomalies in medical Magnetic Resonance (MR) images without ground truth annotations. We train a binary classifier using these labels and use it to derive seeds indicating regions likely and unlikely to contain tumors. These seeds are used to train a generative adversarial network (GAN) that converts cancerous images to healthy variants, which are then used in conjunction with the seeds to train a ML model that generates effective segmentations. This method produces segmentations that achieve Dice coefficients of 0.7903, 0.7868, and 0.7712 on the MICCAI Brain Tumor Segmentation (BraTS) 2020 dataset for the training, validation, and test cohorts respectively. We also propose a weakly supervised means of filtering the segmentations, removing a small subset of poorer segmentations to acquire a large subset of high quality segmentations. The proposed filtering further improves the Dice coefficients to up to 0.8374, 0.8232, and 0.8136 for training, validation, and test, respectively.
translated by 谷歌翻译
训练机器学习(ML)模型以分割肿瘤和医学图像中的其他异常是一个越来越受欢迎的研究领域,但通常需要手动注释的地面真实分段,这需要大量的时间和资源来创建。这项工作提出了一个使用二进制分类标签的ML模型的管道,可以轻松获取,以分割ROI,而无需进行地面真实注释。我们使用了来自多模式脑肿瘤分割挑战(BRAT)的2D磁共振成像(MRI)脑扫描2020数据集,标签表明存在高级神经胶质瘤(HGG)肿瘤来训练管道。我们的管道还引入了基于深度学习的超级像素生成的新颖变体,该变体能够以聚类的超像素为指导,并同时训练超像素聚类模型。在我们的测试集中,我们的管道的分割达到了61.7%的骰子系数,当使用流行的局部局部可解释的模型 - 敏捷解释(LIME)方法时,获得的42.8%骰子系数是一个实质性的改善。
translated by 谷歌翻译
可推广性是机器学习(ML)图像分类器的最终目标,其中噪声和有限的数据集大小是主要问题。我们通过利用深度多任务学习(DMTL)的框架来应对这些挑战,并将图像深度估计作为一项辅助任务。在MNIST数据集的自定义和深度增强的推导下,我们显示a)多任务损耗功能是实施DMTL的最有效方法,b)有限的数据集大小主要导致分类不准确,并且c)深度估计主要受到噪声的影响。 。为了进一步验证结果,我们手动将NYU深度V2数据集标记为场景分类任务。作为对该领域的贡献,我们以Python Antial Format公开提供了作为开源数据集的数据,并提供了场景标签。我们对MNIST和NYU-DEPTH-V2的实验显示了DMTL在数据集嘈杂并且示例的数量受到限制时提高了分类器的普遍性。
translated by 谷歌翻译
放射学诊断的传统数据集倾向于在放射学报告旁边提供放射学图像。但是,放射科医生进行的放射学读数是一个复杂的过程,在阅读过程中,放射科医生的眼睛固定等信息有可能成为可从中学习的宝贵数据源。但是,此类数据的收集既昂贵又耗时。这导致了一个问题,即此类数据是否值得投资收集。本文利用最近发表的Eye Gaze数据集对面对不同级别的输入功能的影响的影响和解释性(DL)分类的影响进行详尽的研究,即:放射学图像,放射学报告文本和放射学家眼睛凝视数据。我们发现,通过放射学报告自由文本和放射学图像的组合,可以实现X射线图像的最佳分类性能,而眼睛凝视数据没有提供性能的提升。尽管如此,与培训的模型相比,与从事分类和注意力图的模型相比,眼睛凝视数据将作为次级基础真理以及类标签以及类似于辅助图的模型产生更好的注意力图。
translated by 谷歌翻译
人工智能(AI)技术在医学成像数据中的应用带来了令人鼓舞的结果。作为医学成像中AI管道的重要分支,放射线学面临两个主要挑战,即可重复性和可访问性。在这项工作中,我们介绍了开放放射线学,一组放射素学数据集以及一条全面的放射线学管道,该管道研究了放射素学的效果,具有提取设置,例如萃取设置,例如BINWIDTH和图像归一化对放射线学结果表现可重复性的可重复性。为了使放射科学研究更容易访问和可重现,我们为放射系统数据提供了建筑机器学习(ML)模型的指南,引入开放式放射线学,开放源代码放射线数据集的不断发展的集合,并为数据集发布基线模型。
translated by 谷歌翻译
由于深度学习在放射学领域被广泛使用,因此在使用模型进行诊断时,这种模型的解释性越来越成为获得临床医生的信任至关重要的。在这项研究中,使用U-NET架构进行了三个实验集,以改善分类性能,同时通过在训练过程中结合热图生成器来增强与模型相对应的热图。所有实验均使用包含胸部X光片的数据集,来自三个条件之一(“正常”,“充血性心力衰竭(CHF)”和“肺炎”)的相关标签,以及有关放射科医师眼神坐标的数值信息在图像上。引入该数据集的论文(A. Karargyris和Moradi,2021年)开发了一个U-NET模型,该模型被视为这项研究的基线模型,以显示如何将眼目光数据用于多模式培训中的眼睛凝视数据以进行多模式培训以进行多模式训练。解释性改进。为了比较分类性能,测量了接收器操作特征曲线(AUC)下面积的95%置信区间(CI)。最佳方法的AUC为0.913(CI:0.860-0.966)。最大的改进是“肺炎”和“ CHF”类别,基线模型最努力地进行分类,导致AUCS 0.859(CI:0.732-0.957)和0.962(CI:0.933-0.989)。所提出的方法的解码器还能够产生概率掩模,以突出模型分类中确定的图像部分,类似于放射科医生的眼睛凝视数据。因此,这项工作表明,将热图发生器和眼睛凝视信息纳入训练可以同时改善疾病分类,并提供可解释的视觉效果,与放射线医生在进行诊断时如何看待胸部X光片。
translated by 谷歌翻译