语义分割是医学图像计算中最受欢迎的研究领域之一。也许令人惊讶的是,尽管它可以追溯到2018年,但NNU-NET仍在为各种细分问题提供竞争性的开箱即用解决方案,并定期用作挑战挑战算法的开发框架。在这里,我们使用NNU-NET参与AMOS2022挑战,该挑战带有一套独特的任务:数据集不仅是有史以来最大的最大的数据集,而且拥有15个目标结构,而且竞争还需要提交的解决方案来处理这两种MRI和CT扫描。通过仔细修改NNU-NET的超参数,在编码器中添加剩余连接以及设计自定义后处理策略,我们能够实质上改进NNU-NET基线。我们的最终合奏在任务1(CT)的骰子得分为90.13,而任务2(CT+MRI)的骰子得分为89.06,在提供的培训案例中进行了5倍的交叉验证。
translated by 谷歌翻译
Automatic segmentation is essential for the brain tumor diagnosis, disease prognosis, and follow-up therapy of patients with gliomas. Still, accurate detection of gliomas and their sub-regions in multimodal MRI is very challenging due to the variety of scanners and imaging protocols. Over the last years, the BraTS Challenge has provided a large number of multi-institutional MRI scans as a benchmark for glioma segmentation algorithms. This paper describes our contribution to the BraTS 2022 Continuous Evaluation challenge. We propose a new ensemble of multiple deep learning frameworks namely, DeepSeg, nnU-Net, and DeepSCAN for automatic glioma boundaries detection in pre-operative MRI. It is worth noting that our ensemble models took first place in the final evaluation on the BraTS testing dataset with Dice scores of 0.9294, 0.8788, and 0.8803, and Hausdorf distance of 5.23, 13.54, and 12.05, for the whole tumor, tumor core, and enhancing tumor, respectively. Furthermore, the proposed ensemble method ranked first in the final ranking on another unseen test dataset, namely Sub-Saharan Africa dataset, achieving mean Dice scores of 0.9737, 0.9593, and 0.9022, and HD95 of 2.66, 1.72, 3.32 for the whole tumor, tumor core, and enhancing tumor, respectively. The docker image for the winning submission is publicly available at (https://hub.docker.com/r/razeineldin/camed22).
translated by 谷歌翻译
Glioblastomas是最具侵略性的快速生长的主要脑癌,起源于大脑的胶质细胞。准确鉴定恶性脑肿瘤及其子区域仍然是医学图像分割中最具挑战性问题之一。脑肿瘤分割挑战(Brats)是自动脑胶质细胞瘤分割算法的流行基准,自于其启动。在今年的挑战中,Brats 2021提供了2,000名术前患者的最大多参数(MPMRI)数据集。在本文中,我们提出了两个深度学习框架的新聚合,即在术前MPMRI中的自动胶质母细胞瘤识别的Deepseg和NNU-Net。我们的集合方法获得了92.00,87.33和84.10和Hausdorff距离为3.81,8.91和16.02的骰子相似度分数,用于增强肿瘤,肿瘤核心和全肿瘤区域,单独进行。这些实验结果提供了证据表明它可以在临床上容易地应用,从而助攻脑癌预后,治疗计划和治疗反应监测。
translated by 谷歌翻译
在医学图像中的对象的同时定位和分类,也称为医学对象检测,是高临床相关性,因为诊断决策通常依赖于物体的评级而不是例如像素。对于此任务,方法配置的繁琐和迭代过程构成了一个主要的研究瓶颈。最近,NNU-Net在巨大成功中解决了图像细分任务的挑战。在NNU-Net的议程之后,在这项工作中,我们系统化并自动化了医疗对象检测的配置过程。由此产生的自配置方法NNDetection,在没有任何手动干预到任意医学检测问题的情况下适应本身,同时实现结果腹板或优于现有技术。我们展示了NNDetection对两台公共基准,亚当和Luna16的有效性,并提出了关于综合方法评估的公共数据集的进一步医疗对象检测任务。代码是https://github.com/mic-dkfz/nndetection。
translated by 谷歌翻译
来自3D CTA的多结构(即肾脏,肾脏,动脉和静脉)的准确和自动分割是基于手术的肾脏癌治疗的最重要任务之一(例如,腹腔镜部分肾切除术)。本文简要介绍了MICCAI 2022 KIPA挑战中多结构SEG-Interation方法的主要技术细节。本文的主要贡献是,我们设计具有大量上下文信息限制功能的3D UNET。我们的方法在MICCAI 2022 KIPA CHAL-LENGE开放测试数据集上排名第八,平均位置为8.2。我们的代码和训练有素的模型可在https://github.com/fengjiejiejiejie/kipa22_nnunet上公开获得。
translated by 谷歌翻译
医学成像的病变分割是临床研究中的一个重要课题。研究人员提出了各种检测和分段算法来解决这项任务。最近,基于深度学习的方法显着提高了传统方法的性能。然而,大多数最先进的深度学习方法需要手动设计多个网络组件和培训策略。在本文中,我们提出了一种新的自动化机器学习算法T-Automl,不仅搜索最佳神经结构,而且还可以同时找到超参数和数据增强策略的最佳组合。该方法采用现代变压器模型,引入了适应搜索空间嵌入的动态长度,并且可以显着提高搜索能力。我们在几个大型公共病变分割数据集上验证T-Automl并实现最先进的性能。
translated by 谷歌翻译
Segmentation of lung tissue in computed tomography (CT) images is a precursor to most pulmonary image analysis applications. Semantic segmentation methods using deep learning have exhibited top-tier performance in recent years. This paper presents a fully automatic method for identifying the lungs in three-dimensional (3D) pulmonary CT images, which we call it Lung-Net. We conjectured that a significant deeper network with inceptionV3 units can achieve a better feature representation of lung CT images without increasing the model complexity in terms of the number of trainable parameters. The method has three main advantages. First, a U-Net architecture with InceptionV3 blocks is developed to resolve the problem of performance degradation and parameter overload. Then, using information from consecutive slices, a new data structure is created to increase generalization potential, allowing more discriminating features to be extracted by making data representation as efficient as possible. Finally, the robustness of the proposed segmentation framework was quantitatively assessed using one public database to train and test the model (LUNA16) and two public databases (ISBI VESSEL12 challenge and CRPF dataset) only for testing the model; each database consists of 700, 23, and 40 CT images, respectively, that were acquired with a different scanner and protocol. Based on the experimental results, the proposed method achieved competitive results over the existing techniques with Dice coefficient of 99.7, 99.1, and 98.8 for LUNA16, VESSEL12, and CRPF datasets, respectively. For segmenting lung tissue in CT images, the proposed model is efficient in terms of time and parameters and outperforms other state-of-the-art methods. Additionally, this model is publicly accessible via a graphical user interface.
translated by 谷歌翻译
我们为Brats21挑战中的脑肿瘤分割任务提出了优化的U-Net架构。为了找到最佳模型架构和学习时间表,我们运行了一个广泛的消融研究来测试:深度监督损失,焦点,解码器注意,下降块和残余连接。此外,我们搜索了U-Net编码器的最佳深度,卷积通道数量和后处理策略。我们的方法赢得了验证阶段,并在测试阶段进行了第三位。我们已开放源代码以在NVIDIA深度学习示例GitHub存储库中重现我们的Brats21提交。
translated by 谷歌翻译
足球溃疡是糖尿病的常见并发症,与大量发病率和死亡率有关,仍然是低腿截肢的主要危险因素。从脚伤中提取准确的形态特征对于适当的治疗至关重要。尽管医学专家的视觉检查是诊断的常见方法,但这是主观且容易出错的方法,因此,计算机辅助方法提供了一种有趣的选择。基于深度学习的方法,尤其是卷积神经网络(CNN),在包括医学图像分割(医学图像分割)的各种任务方面表现出了出色的性能。在本文中,我们提出了一种基于两个基于编码器的CNN模型,即Linknet和U-NET,以执行足球溃疡分割。为了处理有限数量的可用培训样品,我们使用预训练的权重(linkNet模型的有效网络B1和U-NET模型的有效网络B2),并使用MEDETEC数据集进行进一步的预训练,同时还应用了许多形态 - 基于颜色的增强技术。为了提高分割性能,我们结合了五倍的交叉验证,测试时间扩展和结果融合。我们的方法适用于公开可用的慢性伤口数据集和Miccai 2021足球溃疡分段(Fuseg)挑战,我们的方法分别以92.07%和88.80%的基于数据的骰子得分实现最先进的性能,并且是最高的,并且是最高的,并且是最高的。 Fuseg挑战排行榜中排名的方法。 https://github.com/masih4/foot_ulcer_segmentation公开获得对接指南,推理代码和保存训练的模型。
translated by 谷歌翻译
我们实施了两个不同的三维深度学习神经网络,并评估了它们在非对比度计算机断层扫描(CT)上看到的颅内出血(ICH)的能力。一种模型,称为“沿正交关注u-net沿正交级别的素隔离”(Viola-Unet),其体系结构元素可适应2022年实例的数据挑战。第二个比较模型是从No-New U-NET(NNU-NET)得出的。输入图像和地面真理分割图用于以监督方式分别训练两个网络。验证数据随后用于半监督培训。在5倍交叉验证期间比较了模型预测。中提琴 - UNET的表现优于四个性能指标中的两个(即NSD和RVD)的比较网络。将中提琴和NNU-NET网络组合的合奏模型在DSC和HD方面的性能最高。我们证明,与3D U-NET相关的ICH分割性能优势有效地合并了U-NET的解码分支期间的空间正交特征。 Viola-Unet AI工具的代码基础,预估计的权重和Docker图像将在https://github.com/samleoqh/viola-unet上公开获得。
translated by 谷歌翻译
医学成像深度学习模型通常是大而复杂的,需要专门的硬件来训练和评估这些模型。为了解决此类问题,我们提出了PocketNet范式,以减少深度学习模型的规模,通过促进卷积神经网络中的渠道数量的增长。我们证明,对于一系列的分割和分类任务,PocketNet架构产生的结果与常规神经网络相当,同时将参数数量减少多个数量级,最多使用90%的GPU记忆,并加快训练时间的加快。高达40%,从而允许在资源约束设置中培训和部署此类模型。
translated by 谷歌翻译
医疗图像分割通常需要在单个图像上分割多个椭圆对象。这包括除其他任务外,还分割了诸如轴向CTA切片的主动脉之类的容器。在本文中,我们提出了一种一般方法,用于改善这些任务中神经网络的语义分割性能,并验证我们在主动脉分割任务中的方法。我们使用两个神经网络的级联反应,其中一个基于U-NET体系结构执行粗糙的分割,另一个对输入的极性图像转换执行了最终分割。粗糙分割的连接组件分析用于构建极性变换,并且使用磁滞阈值融合了对同一图像的多个转换的预测。我们表明,这种方法可以改善主动脉分割性能,而无需复杂的神经网络体系结构。此外,我们表明我们的方法可以提高稳健性和像素级的回忆,同时根据最新的状态实现细分性能。
translated by 谷歌翻译
由于物体形状和图案(例如器官或肿瘤)的高可变性,3D医学图像的语义分割是一个具有挑战性的任务。鉴于最近在医学图像分割中深入学习的成功,已经引入了神经结构搜索(NAS)以查找高性能3D分段网络架构。但是,由于3D数据的大量计算要求和架构搜索的离散优化性质,之前的NAS方法需要很长的搜索时间或必要的连续放松,并且通常导致次优网络架构。虽然单次NAS可能会解决这些缺点,但其在分段域中的应用尚未在膨胀的多尺度多路径搜索空间中进行很好地研究。为了为医学图像分割启用一次性NAS,我们的方法名为Hypersegnas,介绍了通过结合建筑拓扑信息来帮助超级培训培训。在培训超级网络培训并在架构搜索期间引入开销时,可以删除这种超空头。我们表明,与以前的最先进的(SOTA)分割网络相比,Hypersegnas产生更好的表现和更直观的架构;此外,它可以在不同的计算限制下快速准确地找到良好的体系结构候选者。我们的方法是在医疗细分Decovaton(MSD)挑战的公共数据集上评估,并实现了SOTA表演。
translated by 谷歌翻译
为了促进医学图像分割技术的开发,提供了用于多功能医疗图像分割的大型腹部多器官数据集Amos,并通过使用数据集来构成AMOS 2022挑战。在本报告中,我们介绍了AMOS 2022挑战的解决方案。我们采用具有深远视觉的剩余U-NET作为我们的基本模型。实验结果表明,对于仅CT任务和CT/MRI任务,骰子相似系数和归一化表面骰子的平均得分分别为0.8504和0.8476。
translated by 谷歌翻译
大型策划数据集是必要的,但是注释医学图像是一个耗时,费力且昂贵的过程。因此,最近的监督方法着重于利用大量未标记的数据。但是,这样做是一项具有挑战性的任务。为了解决这个问题,我们提出了一种新的3D Cross伪监督(3D-CPS)方法,这是一种基于NNU-NET的半监督网络体系结构,采用交叉伪监督方法。我们设计了一种新的基于NNU-NET的预处理方法,并在推理阶段采用强制间距设置策略来加快推理时间。此外,我们将半监督的损耗重量设置为与每个时期的线性扩展,以防止在早期训练过程中模型从低质量的伪标签中。我们提出的方法在MICCAI Flare2022验证集(20例)上,平均骰子相似系数(DSC)为0.881,平均归一化表面距离(NSD)为0.913。
translated by 谷歌翻译
U-NET一直是医疗图像分割任务的首选架构,但是将U-NET体系结构扩展到3D图像时会出现计算挑战。我们提出了隐式U-NET体系结构,该体系结构将有效的隐式表示范式适应监督的图像分割任务。通过将卷积特征提取器与隐式定位网络相结合,我们隐式U-NET的参数比等效的U-NET少40%。此外,我们提出了培训和推理程序,以利用稀疏的预测。与等效的完全卷积U-NET相比,隐式U-NET减少了约30%的推理和训练时间以及训练记忆足迹,同时在我们的两个不同的腹部CT扫描数据集中取得了可比的结果。
translated by 谷歌翻译
在这项工作中,我们介绍了我们提出的方法,该方法是使用SWIN UNETR和基于U-NET的深神经网络体系结构从CT扫描中分割肺动脉的方法。六个型号,基于SWIN UNETR的三个型号以及基于3D U-NET的三个模型,使用加权平均值来制作最终的分割掩码。我们的团队通过这种方法获得了84.36%的多级骰子得分。我们的工作代码可在以下链接上提供:https://github.com/akansh12/parse2022。这项工作是Miccai Parse 2022挑战的一部分。
translated by 谷歌翻译
自动化的腹部多器官分割是计算机辅助诊断腹部器官相关疾病的至关重要但具有挑战性的任务。尽管许多深度学习模型在许多医学图像分割任务中取得了显着的成功,但由于腹部器官的不同大小以及它们之间的含糊界限,腹部器官的准确分割仍然具有挑战性。在本文中,我们提出了一个边界感知网络(BA-NET),以分段CT扫描和MRI扫描进行腹部器官。该模型包含共享编码器,边界解码器和分割解码器。两个解码器都采用了多尺度的深度监督策略,这可以减轻可变器官尺寸引起的问题。边界解码器在每个量表上产生的边界概率图被用作提高分割特征图的注意。我们评估了腹部多器官细分(AMOS)挑战数据集的BA-NET,并获得了CT扫描的多器官分割的平均骰子分数为89.29 $ \%$,平均骰子得分为71.92 $ \%$ \%$ \% MRI扫描。结果表明,在两个分割任务上,BA-NET优于NNUNET。
translated by 谷歌翻译
尽管存在能够在许多医疗数据集上表现出很好的语义分割方法,但是通常,它们不设计用于直接用于临床实践。两个主要问题是通过不同的视觉外观的解开数据的概括,例如,使用不同的扫描仪获取的图像,以及计算时间和所需图形处理单元(GPU)存储器的效率。在这项工作中,我们使用基于SpatialConfiguration-Net(SCN)的多器官分段模型,该模型集成了标记器官中的空间配置的先验知识,以解决网络输出中的虚假响应。此外,我们修改了分割模型的体系结构,尽可能地减少其存储器占用空间,而不会急剧影响预测的质量。最后,我们实现了最小的推理脚本,我们优化了两者,执行时间和所需的GPU内存。
translated by 谷歌翻译