The number of international benchmarking competitions is steadily increasing in various fields of machine learning (ML) research and practice. So far, however, little is known about the common practice as well as bottlenecks faced by the community in tackling the research questions posed. To shed light on the status quo of algorithm development in the specific field of biomedical imaging analysis, we designed an international survey that was issued to all participants of challenges conducted in conjunction with the IEEE ISBI 2021 and MICCAI 2021 conferences (80 competitions in total). The survey covered participants' expertise and working environments, their chosen strategies, as well as algorithm characteristics. A median of 72% challenge participants took part in the survey. According to our results, knowledge exchange was the primary incentive (70%) for participation, while the reception of prize money played only a minor role (16%). While a median of 80 working hours was spent on method development, a large portion of participants stated that they did not have enough time for method development (32%). 25% perceived the infrastructure to be a bottleneck. Overall, 94% of all solutions were deep learning-based. Of these, 84% were based on standard architectures. 43% of the respondents reported that the data samples (e.g., images) were too large to be processed at once. This was most commonly addressed by patch-based training (69%), downsampling (37%), and solving 3D analysis tasks as a series of 2D tasks. K-fold cross-validation on the training set was performed by only 37% of the participants and only 50% of the participants performed ensembling based on multiple identical models (61%) or heterogeneous models (39%). 48% of the respondents applied postprocessing steps.
translated by 谷歌翻译
人类评分是分割质量的抽象表示。为了近似于稀缺专家数据的人类质量评级,我们训练替代质量估计模型。我们根据Brats注释方案评估复杂的多级分割问题,特别是神经胶质瘤分割。培训数据以15位专家神经放射科学家的质量评级为特征,范围从1到6星,用于各种计算机生成和手动3D注释。即使网络在2D图像上运行并使用稀缺的训练数据,我们也可以在与人类内部内可靠性相当的错误范围内近似分段质量。细分质量预测具有广泛的应用。虽然对分割质量的理解对于成功分割质量算法的成功临床翻译至关重要,但它可以在培训新的分割模型中发挥至关重要的作用。由于推断时间分裂,可以直接在损失函数中或在联合学习设置中作为完全自动的数据集策划机制。
translated by 谷歌翻译
事实证明,深度卷积神经网络在语义分割任务中非常有效。引入了最流行的损失功能,以提高体积分数,例如Sorensen骰子系数。根据设计,DSC可以解决类不平衡;但是,它不能识别类中的实例不平衡。结果,大型前景实例可以主导次要实例,并且仍然产生令人满意的Sorensen骰子系数。然而,错过实例将导致检测性能不佳。这代表了诸如疾病进展监测等应用中的一个关键问题。例如,必须在多发性硬化症患者的随访中定位和监视小规模病变。我们提出了一个新型的损失功能家族,绰号斑点损失,主要旨在最大化实例级检测指标,例如F1得分和灵敏度。 BLOB损失是针对语义分割问题而设计的,其中实例是类中连接的组件。我们在五个复杂的3D语义分割任务中广泛评估了基于DSC的斑点损失,这些任务具有明显的实例异质性,从纹理和形态上讲。与软骰子损失相比,我们的MS病变改善了5%,肝肿瘤改善了3%,考虑F1分数的显微镜细分任务平均提高了2%。
translated by 谷歌翻译
医学图像分割的深度学习模型可能会出乎意料地且出乎意料地失败,而与训练图像相比,在不同中心获得的病理案例和图像,标签错误违反了专家知识。此类错误破坏了对医学图像细分的深度学习模型的可信赖性。检测和纠正此类故障的机制对于将该技术安全地转化为诊所至关重要,并且可能是对未来人工智能法规(AI)的要求。在这项工作中,我们提出了一个值得信赖的AI理论框架和一个实用系统,该系统可以使用后备方法和基于Dempster-Shafer理论的失败机制增强任何骨干AI系统。我们的方法依赖于可信赖的AI的可行定义。我们的方法会自动放弃由骨干AI预测的体素级标签,该标签违反了专家知识,并依赖于这些体素的后备。我们证明了拟议的值得信赖的AI方法在最大的报告的胎儿MRI的注释数据集中,由13个中心的540个手动注释的胎儿脑3D T2W MRI组成。我们值得信赖的AI方法改善了在各个中心获得的胎儿脑MRI和各种脑异常的胎儿的最先进的主链AI的鲁棒性。
translated by 谷歌翻译
在CT图像中与Covid-19相关联的肺病变的自动分割需要大量的注释体积。注释授权专家知识,并通过全部手动分割方法获得时间密集。另外,肺病变具有大的患者间变异,具有与健康肺组织相似的视觉外观的病理学。当应用数据标签时,在应用现有的半自动交互式分段技术时,这会带来挑战。为了解决这些挑战,我们提出了一个有效的卷积神经网络(CNNS),可以在注释者提供基于杂交的交互时在线学习。为了从仅通过用户交互标记的样本加速学习,基于补丁的方法用于训练网络。此外,我们使用加权交叉熵丢失来解决可能由用户交互导致的类别不平衡。在线推理期间,使用完全卷积的方法将学习网络应用于整个输入卷。我们将建议的方法与最先进的方法进行比较,并表明它优于与Covid-19相关联的肺病变的任务表现出现有的方法,在减少3美元\ Times $减少执行时间的同时实现16%的骰子分数。需要9000个较小的基于血小板的标记体素。由于在线学习方面,我们的方法将快速适应用户输入,从而产生高质量的细分标签。源代码将在接受时提供。
translated by 谷歌翻译
来自多个磁共振成像(MRI)方式的脑肿瘤分割是医学图像计算中的具有挑战性的任务。主要挑战在于各种扫描仪和成像协议的普遍性。在本文中,我们探讨了在不增加推理时间的情况下增加模型稳健性的策略。为此目的,我们探索使用不同损失,优化仪和培训验证数据拆分培训的型号的强大合奏。重要的是,我们探讨了U-Net架构的瓶颈中的变压器。虽然我们在瓶颈中发现变压器比平均基线U-Net更差,但是广义的Wasserstein骰子损失一致地产生优异的结果。此外,我们采用了高效的测试时间增强策略,以实现更快和强大的推论。我们的最终集合具有测试时间增强的七个3D U-Nets的平均骰子得分为89.4%,平均HAUSDORFF 95%距离10.0 mm在Brats 2021测试数据集时。我们的代码和培训的型号在https://github.com/lucasfidon/trabit_brats2021上公开提供。
translated by 谷歌翻译
本文介绍了我们参与FETA挑战2021的方法(团队名称:特拉比特)。认为医学图像分割的卷积神经网络的性能被认为与训练数据的数量正相关。 FETA挑战不会限制参与者仅使用提供的培训数据,还可以使用其他公共可用的来源。然而,开放式胎儿脑数据仍然有限。因此,有利的策略可以扩展训练数据以覆盖更广泛的围产期脑成像来源。除了敌人挑战数据之外,围产期脑部MRIS,目前可公开可用,跨越正常和病理胎儿地图空间以及新生儿扫描。然而,在不同数据集中分段的围产期脑MRIS通常具有不同的注释协议。这使得将这些数据集结合起来训练深度神经网络的挑战。我们最近提出了一系列损失职能,标签集丢失功能,用于部分监督学习。标签集丢失功能允许使用部分分段图像培训深度神经网络,即某些类可以将某些类分为超级类别。我们建议使用标签集丢失功能来通过合并几个公共数据集来改善多级胎儿脑细分的最先进的深度学习管道的分割性能。为了促进可延流性,我们的方法不会引入任何额外的超参数调整。
translated by 谷歌翻译
最近关于Covid-19的研究表明,CT成像提供了评估疾病进展和协助诊断的有用信息,以及帮助理解疾病。有越来越多的研究,建议使用深度学习来使用胸部CT扫描提供快速准确地定量Covid-19。兴趣的主要任务是胸部CT扫描的肺和肺病变的自动分割,确认或疑似Covid-19患者。在这项研究中,我们使用多中心数据集比较12个深度学习算法,包括开源和内部开发的算法。结果表明,合并不同的方法可以提高肺部分割,二元病变分割和多种子病变分割的总体测试集性能,从而分别为0.982,0.724和0.469的平均骰子分别。将得到的二元病变分段为91.3ml的平均绝对体积误差。通常,区分不同病变类型的任务更加困难,分别具有152mL的平均绝对体积差,分别为整合和磨碎玻璃不透明度为0.369和0.523的平均骰子分数。所有方法都以平均体积误差进行二元病变分割,该分段优于人类评估者的视觉评估,表明这些方法足以用于临床实践中使用的大规模评估。
translated by 谷歌翻译
限制机器学习系统的故障对于安全至关重要的应用至关重要。为了提高机器学习系统的鲁棒性,已提出了分配鲁棒优化(DRO)作为经验风险最小化(ERM)的概括。然而,由于与ERM的随机梯度下降(SGD)优化器相比,由于可用于DRO的优化器的相对效率相对效率相对低效率,因此在深度学习中的使用受到了严格的限制。我们建议使用硬度加权采样的SGD,这是机器学习中DRO的原则性高效优化方法,在深度学习的背景下特别适合。与实践中的硬示例挖掘策略类似,所提出的算法可以直接实施和计算,并且与用于深度学习的基于SGD的优化器一样有效,需要最小的开销计算。与典型的临时硬采矿方法相反,我们证明了我们的DRO算法的收敛性,用于过度参数化的深度学习网络,并具有RELU激活以及有限数量的层和参数。我们对MRI中胎儿脑3D MRI分割和脑肿瘤分割的实验证明了我们方法的可行性和有用性。使用我们的硬度加权采样进行训练,最先进的深度学习管道可改善自动胎儿脑中解剖学变异的鲁棒性3D MRI分割,并改善了对脑肿瘤分割的图像方案变化的鲁棒性。我们的代码可从https://github.com/lucasfidon/hardnessweightedsampler获得。
translated by 谷歌翻译
In the era of noisy intermediate scale quantum devices, variational quantum circuits (VQCs) are currently one of the main strategies for building quantum machine learning models. These models are made up of a quantum part and a classical part. The quantum part is given by a parametrization $U$, which, in general, is obtained from the product of different quantum gates. By its turn, the classical part corresponds to an optimizer that updates the parameters of $U$ in order to minimize a cost function $C$. However, despite the many applications of VQCs, there are still questions to be answered, such as for example: What is the best sequence of gates to be used? How to optimize their parameters? Which cost function to use? How the architecture of the quantum chips influences the final results? In this article, we focus on answering the last question. We will show that, in general, the cost function will tend to a typical average value the closer the parameterization used is from a $2$-design. Therefore, the closer this parameterization is to a $2$-design, the less the result of the quantum neural network model will depend on its parametrization. As a consequence, we can use the own architecture of the quantum chips to defined the VQC parametrization, avoiding the use of additional swap gates and thus diminishing the VQC depth and the associated errors.
translated by 谷歌翻译