据我们所知,所有用于前列腺癌的计算机辅助检测和诊断(CAD)系统(PCA)检测仅考虑双参数磁共振成像(BP-MRI),包括T2W和ADC序列,同时排除了4D灌注序列,该序列排除了4D灌注序列,该序列不包括4D灌注序列,该序列不包括T2W和ADC序列。但是,是此诊断任务的标准临床方案的一部分。在本文中,我们质疑将灌注成像中信息整合到深神经体系结构中的策略。为此,我们评估了几种方法来在U-NET等U-NET中编码灌注信息,还考虑了早期融合策略和中期融合策略。我们将多参数MRI(MP-MRI)模型的性能与基于219 MP-MRI考试的私有数据集的基线BP-MRI模型进行了比较。从动态对比度增强的MR检查得出的灌注图显示出对PCA病变的分割和分级性能的积极影响,尤其是对应于洗涤曲线最大斜率以及TMAX灌注图的3D MR体积。无论融合策略如何中型融合策略,也与最新技术相比,还达到了竞争性的科恩的喀巴评分。
translated by 谷歌翻译
Non-invasive prostate cancer detection from MRI has the potential to revolutionize patient care by providing early detection of clinically-significant disease (ISUP grade group >= 2), but has thus far shown limited positive predictive value. To address this, we present an MRI-based deep learning method for predicting clinically significant prostate cancer applicable to a patient population with subsequent ground truth biopsy results ranging from benign pathology to ISUP grade group~5. Specifically, we demonstrate that mixed supervision via diverse histopathological ground truth improves classification performance despite the cost of reduced concordance with image-based segmentation. That is, where prior approaches have utilized pathology results as ground truth derived from targeted biopsies and whole-mount prostatectomy to strongly supervise the localization of clinically significant cancer, our approach also utilizes weak supervision signals extracted from nontargeted systematic biopsies with regional localization to improve overall performance. Our key innovation is performing regression by distribution rather than simply by value, enabling use of additional pathology findings traditionally ignored by deep learning strategies. We evaluated our model on a dataset of 973 (testing n=160) multi-parametric prostate MRI exams collected at UCSF from 2015-2018 followed by MRI/ultrasound fusion (targeted) biopsy and systematic (nontargeted) biopsy of the prostate gland, demonstrating that deep networks trained with mixed supervision of histopathology can significantly exceed the performance of the Prostate Imaging-Reporting and Data System (PI-RADS) clinical standard for prostate MRI interpretation.
translated by 谷歌翻译
前列腺癌是男性癌症死亡的最常见原因之一。对非侵入性和准确诊断方法的需求不断增长,促进目前在临床实践中的标准前列腺癌风险评估。尽管如此,从多游幂磁共振图像中开发前列腺癌诊断中的计算机辅助癌症诊断仍然是一个挑战。在这项工作中,我们提出了一种新的深度学习方法,可以通过构建两阶段多数量多流卷积神经网络(CNN)基于架构架构的相应磁共振图像中的前列腺病变自动分类。在不实现复杂的图像预处理步骤或第三方软件的情况下,我们的框架在接收器操作特性(ROC)曲线值为0.87的接收器下实现了该区域的分类性能。结果表现出大部分提交的方法,并分享了普罗妥克斯挑战组织者报告的最高价值。我们拟议的基于CNN的框架反映了辅助前列腺癌中的医学图像解释并减少不必要的活组织检查的可能性。
translated by 谷歌翻译
肾细胞癌(RCC)是一种常见的癌症,随着临床行为的变化。懒惰的RCC通常是低级的,没有坏死,可以在没有治疗的情况下监测。激进的RCC通常是高级的,如果未及时检测和治疗,可能会导致转移和死亡。虽然大多数肾脏癌在CT扫描中都检测到,但分级是基于侵入性活检或手术的组织学。确定对CT图像的侵略性在临床上很重要,因为它促进了风险分层和治疗计划。这项研究旨在使用机器学习方法来识别与病理学特征相关的放射学特征,以促进评估CT图像而不是组织学上的癌症侵略性。本文提出了一种新型的自动化方法,即按区域(Corrfabr)相关的特征聚集,用于通过利用放射学和相应的不对齐病理学图像之间的相关性来对透明细胞RCC进行分类。 CORRFABR由三个主要步骤组成:(1)特征聚集,其中从放射学和病理图像中提取区域级特征,(2)融合,放射学特征与病理特征相关的放射学特征在区域级别上学习,并且(3)在其中预测的地方学到的相关特征用于仅使用CT作为输入来区分侵略性和顽固的透明细胞RCC。因此,在训练过程中,Corrfabr从放射学和病理学图像中学习,但是在没有病理图像的情况下,Corrfabr将使用CORFABR将侵略性与顽固的透明细胞RCC区分开。 Corrfabr仅比放射学特征改善了分类性能,二进制分类F1分数从0.68(0.04)增加到0.73(0.03)。这证明了将病理疾病特征纳入CT图像上透明细胞RCC侵袭性的分类的潜力。
translated by 谷歌翻译
新辅助化疗(NAC)对乳腺癌的病理完全反应(PCR)的早期预测在手术计划和优化治疗策略中起着至关重要的作用。最近,建议从多参数MRI(MP-MRI)数据(包括动态对比增强的MRI和扩散加权MRI(DWI))中的多参数MRI(MP-MRI)数据提出基于机器和深度学习的方法。我们引入了PD-DWI,这是一种生理分解的DWI机器学习模型,可预测DWI和临床数据的PCR。我们的模型首先将RAW DWI数据分解为影响DWI信号的各种生理线索,然后使用分解数据,除了临床变量外,还用作基于放射线学的XGBoost模型的输入特征。我们使用公开可用的乳房多参数MRI来预测NAC响应(BMMR2)挑战的公共乳房多参数MRI,证明了PD-DWI模型的添加值与传统的机器学习方法相比,用于从MP-MRI数据进行PCR预测的传统机器学习方法。与当前排行榜上的最佳结果(0.8849 vs. 0.8397)相比,我们的模型大大改善了曲线下的面积(AUC)。 PD-DWI有可能改善NAC乳腺癌后PCR的预测,减少MP-MRI的总体采集时间,并消除对比造影剂注射的需求。
translated by 谷歌翻译
在过去的几年中,对MPMRI的恶性前列腺癌患者进行了自动诊断。模型解释和域漂移一直是临床利用的主要路障。作为我们以前的工作的扩展,我们在公共队列上培训了一个定制的卷积神经网络,其中有201名患者和感兴趣区域周围的裁剪2D斑块作为输入,将前列腺的2.5d片用作前列腺的2.5d片。使用Autokeras在模型空间中搜索了输入和最佳模型。外围区(PZ)和中央腺(CG)分别进行了训练和测试,有效地证明了一些不同的东西,PZ探测器和CG探测器有效地展示了序列中最可疑的切片,希望极大地减轻医生的工作量。
translated by 谷歌翻译
基于深入的学习的诊断性能随着更多的注释数据而增加,但手动注释是大多数领域的瓶颈。专家在临床常规期间评估诊断图像,并在报告中写出他们的调查结果。基于临床报告的自动注释可以克服手动标记瓶颈。我们假设可以使用这些报告的稀疏信息引导的模型预测来生成用于检测任务的密度注释。为了证明疗效,我们在放射学报告中临床显着发现的数量指导的临床上显着的前列腺癌(CSPCA)注释。我们包括7,756个前列腺MRI检查,其中3,050人被手动注释,4,706次自动注释。我们对手动注释的子集进行了自动注释质量:我们的得分提取正确地确定了99.3 \%$ 99.3 \%$ 99.3 \%$的CSPCA病变数量,我们的CSPCA分段模型正确地本地化了83.8 \ PM 1.1 \%$的病变。我们评估了来自外部中心的300名检查前列腺癌检测表现,具有组织病理学证实的基础事实。通过自动标记的考试增强培训集改善了在接收器的患者的诊断区域,从$ 88.1 \ pm 1.1 \%$至89.8 \ pm 1.0 \%$($ p = 1.2 \ cdot 10 ^ { - 4} $ )每案中的一个错误阳性的基于病变的敏感性,每案件从79.2美元2.8 \%$ 85.4 \ PM 1.9 \%$($ P <10 ^ { - 4} $),以$ alm \ pm std。$超过15个独立运行。这种改进的性能展示了我们报告引导的自动注释的可行性。源代码在https://github.com/diagnijmegen/report-guiding-annotation上公开可用。最佳的CSPCA检测算法在https://grand-challenge.org/algorithms/bpmri-cspca-detection-report-guiding-annotations/中提供。
translated by 谷歌翻译
在过去的几年中,在深度学习中,在深度学习中广泛研究了域的概括问题,但对对比增强成像的关注受到了有限的关注。但是,临床中心之间的对比度成像方案存在明显差异,尤其是在对比度注入和图像采集之间,而与可用的非对抗成像的可用数据集相比,访问多中心对比度增强图像数据受到限制。这需要新的工具来概括单个中心的深度学习模型,跨越新的看不见的域和临床中心,以对比增强成像。在本文中,我们介绍了深度学习技术的详尽评估,以实现对对比度增强图像分割的看不见的临床中心的普遍性。为此,研究,优化和系统评估了几种技术,包括数据增强,域混合,转移学习和域的适应性。为了证明域泛化对对比增强成像的潜力,评估了对对比增强心脏磁共振成像(MRI)中的心室分割的方法。结果是根据位于三个国家(法国,西班牙和中国)的四家医院中获得的多中心心脏对比增强的MRI数据集获得的。他们表明,数据增强和转移学习的组合可以导致单中心模型,这些模型可以很好地推广到训练过程中未包括的新临床中心。在对比增强成像中,具有合适的概括程序的单域神经网络可以达到甚至超过多中心多供应商模型的性能,从而消除了对综合多中心数据集的需求,以训练可概括的模型。
translated by 谷歌翻译
多参数磁共振成像(MPMRI)在检测前列腺癌病变中的作用越来越大。因此,解释这些扫描的医学专业人员通过使用计算机辅助检测系统来减少人为错误的风险。但是,系统实施中使用的各种算法产生了不同的结果。在这里,我们研究了每个前列腺区域的最佳机器学习分类器。我们还发现了明显的功能,以阐明模型的分类原理。在提供的数据中,我们收集并增强了T2加权图像和明显的扩散系数MAP图像,以首先通过三阶统计特征提取作为机器学习分类器的输入。对于我们的深度学习分类器,我们使用卷积神经网(CNN)体系结构进行自动提取和分类。通过显着映射以了解内部的分类机制,可以改善CNN结果的可解释性。最终,我们得出的结论是,有效检测周围和前纤维肌间基质(AS)病变更多地取决于统计分布特征,而过渡区(TZ)的病变更多地取决于纹理特征。合奏算法最适合PZ和TZ区域,而CNN在AS区域中最好。这些分类器可用于验证放射科医生的预测,并减少怀疑患有前列腺癌的患者的阅读差异。还可以进一步研究这项研究中报告的显着特征,以更好地了解使用mpMRI的前列腺病变的隐藏特征和生物标志物。
translated by 谷歌翻译
前列腺癌是美国男人的第二致致命癌症。虽然磁共振成像(MRI)越来越多地用于引导前列腺癌诊断的靶向活组织检查,但其效用仍然受到限制,因为假阳性和假否定的高率以及较低的读者协议。机器学习方法在前列腺MRI上检测和定位癌症可以帮助标准化放射科学诠释。然而,现有的机器学习方法不仅在模型架构中不等,而且还可以在用于模型培训的地面真理标签策略中。在这项研究中,我们比较不同的标记策略,即病理证实放射科标签,整个安装组织病理学图像上的病理学家标签,以及病变水平和像素级数字病理学家标签(先前验证了组织病理学图像上的深层学习算法以预测像素 - 整个安装组织病理学图像上的Gleason模式)。我们分析这些标签对训练有素的机器学习模型的性能的影响。我们的实验表明,用它们培训的(1)放射科标签和模型可能会错过癌症,或低估癌症程度,(2)与他们培训的数字病理学家标签和模型与病理学家标签有高度的一致性,而(3)用数字病理学家培训的模型标签在两种不同疾病分布的两种不同群组中达到最佳性能,而不管使用的模型建筑如何。数字病理学家标签可以减少与人类注释相关的挑战,包括劳动力,时间,和读者间变异性,并且可以通过使可靠的机器学习模型进行培训来检测和定位前列腺癌,帮助弥合前列腺放射学和病理学之间的差距在MRI。
translated by 谷歌翻译
简介白质超强度(WMHS)的自动分割是磁共振成像(MRI)神经影像分析的重要步骤。流体减弱的反转恢复(FLAIR加权)是MRI对比度,对于可视化和量化WMHS,这是脑小血管疾病和阿尔茨海默氏病(AD)特别有用的。临床MRI方案迁移到三维(3D)FLAIR加权的采集,以在所有三个体素维度中实现高空间分辨率。当前的研究详细介绍了深度学习工具的部署,以使自动化的WMH分割和表征从获得的3D Flair加权图像作为国家广告成像计划的一部分获得。 DDI研究中的642名参与者(283名男性,平均年龄:(65.18 +/- 9.33)年)中的材料和方法,在五个国家收集地点进行了培训和验证两个内部网络。在642名参与者的内部数据和一个外部数据集中,对三个模型进行了测试,其中包含来自国际合作者的29个情况。这些测试集进行了独立评估。使用了五个已建立的WMH性能指标与地面真理人体分割进行比较。测试的三个网络的结果,3D NNU-NET具有最佳性能,平均骰子相似性系数得分为0.78 +/- 0.10,其性能优于内部开发的2.5D模型和SOTA DEEP DEEP BAYESIAN网络。结论MRI协议中3D Flair加权图像的使用越来越多,我们的结果表明,WMH分割模型可以在3D数据上进行训练,并产生与无需更高的或更好的无需先进的WMH分割性能用于包括T1加权图像系列。
translated by 谷歌翻译
前列腺癌是全世界男性癌症第二大的癌症和第六主要原因。专家在诊断前列腺癌期间面临的主要问题是含有肿瘤组织的感兴趣区域(ROI)的定位。目前,在大多数情况下,该ROI的分割是由专家医生手动进行的,但是该程序受到某些患者的检测率低(约27-44%)或过度诊断的困扰。因此,几项研究工作解决了从磁共振图像中自动分割和提取ROI特征的挑战,因为此过程可以极大地促进许多诊断和治疗应用。然而,缺乏明确的前列腺边界,前列腺组织固有的异质性以及多种前列腺形状的多样性使这一过程非常难以自动化。在这项工作中,通过获得的MRI图像数据集对六个深度学习模型进行了培训和分析。来自Dijon中心的医院和Catalunya大学。我们使用分类跨环膜损失函数进行了多种深度学习模型(即U-NET,注意U-NET,密度密度,R2U-NET和R2U-NET)的比较。使用通常用于图像分割的三个指标进行分析:骰子分数,JACCARD索引和均方误差。为我们提供最佳结果分割的模型是R2U-NET,骰子,Jaccard和平均平方误差分别达到0.869、0.782和0.00013。
translated by 谷歌翻译
检测软骨损失对于诊断骨和类风湿关节炎至关重要。到目前为止,已经有大量自动分割工具用于大型关节的磁共振图像中的软骨评估。与膝盖或臀部相比,手腕软骨具有更复杂的结构,因此为大型关节开发的自动工具预计不会用于手腕软骨分割。在这方面,全自动手腕软骨分割方法将具有很高的临床感兴趣。我们评估了U-NET体系结构的四个优化变体的性能,并截断了其深度和注意力层(U-NET_AL)。将相应的结果与我们先前设计的基于斑块的卷积神经网络(CNN)的结果进行了比较。基于使用几个形态学(2D DSC,3D DSC,精度)和体积指标的比较分析进行了比较分析评估分割质量。这四个网络在分割均匀性和质量方面优于基于补丁的CNN。使用U-NET_AL计算的中值3D DSC值(0.817)明显大于其他网络计算的相应DSC值。此外,相对于地面真相,U-NET_AL CNN提供了最低的平均体积误差(17%)和最高的Pearson相关系数(0.765)。值得注意的是,使用U-NET_AL计算出的可重复性大于手动分割的可重复性。 U-NET卷积神经网络具有额外的注意层,可提供最佳的手腕软骨分割性能。为了在临床条件下使用,可以在代表一组特定患者的数据集上微调训练的网络。软骨体积测量的误差应使用非MRI方法独立评估。
translated by 谷歌翻译
深度学习已在许多神经影像应用中有效。但是,在许多情况下,捕获与小血管疾病有关的信息的成像序列的数量不足以支持数据驱动的技术。此外,基于队列的研究可能并不总是具有用于准确病变检测的最佳或必需成像序列。因此,有必要确定哪些成像序列对于准确检测至关重要。在这项研究中,我们旨在找到磁共振成像(MRI)序列的最佳组合,以深入基于学习的肿瘤周围空间(EPV)。为此,我们实施了一个有效的轻巧U-NET,适用于EPVS检测,并全面研究了来自易感加权成像(SWI),流体侵入的反转恢复(FLAIR),T1加权(T1W)和T2的不同信息组合 - 加权(T2W)MRI序列。我们得出的结论是,T2W MRI对于准确的EPV检测最为重要,并且在深神经网络中掺入SWI,FLAIR和T1W MRI可能会使精度的提高无关。
translated by 谷歌翻译
前列腺癌是全球诊断出的最危险的癌症。前列腺诊断受到许多因素的影响,例如病变复杂性,观察者可见性和可变性。在过去的几十年中,许多基于磁共振成像(MRI)的技术已用于前列腺癌的鉴定和分类。开发这些技术至关重要,并且具有很大的医学效果,因为它们可以提高治疗益处和患者生存的机会。已经提出了一种取决于MRI的新技术来改善诊断。该技术包括两个阶段。首先,已经对MRI图像进行了预处理,以使医疗图像更适合于检测步骤。其次,已经基于预先训练的深度学习模型InceptionResnetv2进行了前列腺癌的识别,该模型具有许多优势并取得了有效的结果。在本文中,用于此目的的InceptionResnETV2深度学习模型的平均精度为89.20%,曲线下的面积(AUC)等于93.6%。与其他先前技术相比,该提出的新深度学习技术的实验结果代表了有希望的和有效的结果。
translated by 谷歌翻译
目的:多发性硬化症(MS)是一种自身免疫和脱髓鞘疾病,导致中枢神经系统的病变。可以使用磁共振成像(MRI)跟踪和诊断该疾病。到目前为止,多数多层自动生物医学方法用于在成本,时间和可用性方面对患者没有有益的病变。本文的作者提出了一种使用只有一个模态(Flair Image)的方法,准确地将MS病变分段。方法:由3D-Reset和空间通道注意模块进行设计,灵活的基于补丁的卷积神经网络(CNN),以段MS病变。该方法由三个阶段组成:(1)对比度限制自适应直方图均衡(CLAHE)被施加到原始图像并连接到提取的边缘以形成4D图像; (2)尺寸80 * 80 * 80 * 2的贴片从4D图像中随机选择; (3)将提取的贴片传递到用于分割病变的关注的CNN中。最后,将所提出的方法与先前的相同数据集进行比较。结果:目前的研究评估了模型,具有测试集的ISIB挑战数据。实验结果表明,该方法在骰子相似性和绝对体积差方面显着超越了现有方法,而该方法仅使用一种模态(Flair)来分割病变。结论:作者推出了一种自动化的方法来分割基于最多两种方式作为输入的损伤。所提出的架构由卷积,解卷积和SCA-VOXRES模块作为注意模块组成。结果表明,所提出的方法优于与其他方法相比良好。
translated by 谷歌翻译
脑转移经常发生在转移性癌症的患者中。早期和准确地检测脑转移对于放射治疗的治疗计划和预后至关重要。为了提高深入学习的脑转移检测性能,提出了一种称为体积级灵敏度特异性(VSS)的定制检测损失,该损失是单个转移检测灵敏度和(子)体积水平的特异性。作为敏感性和精度始终在转移水平中始终是折射率,可以通过调节VSS损耗中的重量而无需骰子分数系数进行分段转移来实现高精度或高精度。为了减少被检测为假阳性转移的转移样结构,提出了一种时间的现有量作为神经网络的额外输入。我们提出的VSS损失提高了脑转移检测的敏感性,将灵敏度提高了86.7%至95.5%。或者,它将精度提高了68.8%至97.8%。随着额外的时间现有量,在高灵敏度模型中,约45%的假阳性转移减少,高特异性模型的精度达到99.6%。所有转移的平均骰子系数约为0.81。随着高灵敏度和高特异性模型的集合,平均每位患者的1.5个假阳性转移需要进一步检查,而大多数真正的阳性转移确认。该集合学习能够区分从需要特殊专家审查或进一步跟进的转移候选人的高信心真正的阳性转移,特别适合实际临床实践中专家支持的要求。
translated by 谷歌翻译
检测新的多发性硬化症(MS)病变是该疾病进化的重要标志。基于学习的方法的适用性可以有效地自动化此任务。然而,缺乏带有新型病变的注释纵向数据是训练健壮和概括模型的限制因素。在这项工作中,我们描述了一条基于学习的管道,该管道解决了检测和细分新MS病变的挑战性任务。首先,我们建议使用单个时间点对在分割任务进行训练的模型中使用转移学习。因此,我们从更轻松的任务中利用知识,并为此提供更多注释的数据集。其次,我们提出了一种数据综合策略,以使用单个时间点扫描生成新的纵向时间点。通过这种方式,我们将检测模型预算到大型合成注释数据集上。最后,我们使用旨在模拟MRI中数据多样性的数据实践技术。通过这样做,我们增加了可用的小注释纵向数据集的大小。我们的消融研究表明,每个贡献都会提高分割精度。使用拟议的管道,我们获得了MSSEG2 MICCAI挑战中新的MS病变的分割和检测的最佳分数。
translated by 谷歌翻译
Brain tumor imaging has been part of the clinical routine for many years to perform non-invasive detection and grading of tumors. Tumor segmentation is a crucial step for managing primary brain tumors because it allows a volumetric analysis to have a longitudinal follow-up of tumor growth or shrinkage to monitor disease progression and therapy response. In addition, it facilitates further quantitative analysis such as radiomics. Deep learning models, in particular CNNs, have been a methodology of choice in many applications of medical image analysis including brain tumor segmentation. In this study, we investigated the main design aspects of CNN models for the specific task of MRI-based brain tumor segmentation. Two commonly used CNN architectures (i.e. DeepMedic and U-Net) were used to evaluate the impact of the essential parameters such as learning rate, batch size, loss function, and optimizer. The performance of CNN models using different configurations was assessed with the BraTS 2018 dataset to determine the most performant model. Then, the generalization ability of the model was assessed using our in-house dataset. For all experiments, U-Net achieved a higher DSC compared to the DeepMedic. However, the difference was only statistically significant for whole tumor segmentation using FLAIR sequence data and tumor core segmentation using T1w sequence data. Adam and SGD both with the initial learning rate set to 0.001 provided the highest segmentation DSC when training the CNN model using U-Net and DeepMedic architectures, respectively. No significant difference was observed when using different normalization approaches. In terms of loss functions, a weighted combination of soft Dice and cross-entropy loss with the weighting term set to 0.5 resulted in an improved segmentation performance and training stability for both DeepMedic and U-Net models.
translated by 谷歌翻译
Prostate cancer (PCa) is one of the most prevalent cancers in men and many people around the world die from clinically significant PCa (csPCa). Early diagnosis of csPCa in bi-parametric MRI (bpMRI), which is non-invasive, cost-effective, and more efficient compared to multiparametric MRI (mpMRI), can contribute to precision care for PCa. The rapid rise in artificial intelligence (AI) algorithms are enabling unprecedented improvements in providing decision support systems that can aid in csPCa diagnosis and understanding. However, existing state of the art AI algorithms which are based on deep learning technology are often limited to 2D images that fails to capture inter-slice correlations in 3D volumetric images. The use of 3D convolutional neural networks (CNNs) partly overcomes this limitation, but it does not adapt to the anisotropy of images, resulting in sub-optimal semantic representation and poor generalization. Furthermore, due to the limitation of the amount of labelled data of bpMRI and the difficulty of labelling, existing CNNs are built on relatively small datasets, leading to a poor performance. To address the limitations identified above, we propose a new Zonal-aware Self-supervised Mesh Network (Z-SSMNet) that adaptatively fuses multiple 2D, 2.5D and 3D CNNs to effectively balance representation for sparse inter-slice information and dense intra-slice information in bpMRI. A self-supervised learning (SSL) technique is further introduced to pre-train our network using unlabelled data to learn the generalizable image features. Furthermore, we constrained our network to understand the zonal specific domain knowledge to improve the diagnosis precision of csPCa. Experiments on the PI-CAI Challenge dataset demonstrate our proposed method achieves better performance for csPCa detection and diagnosis in bpMRI.
translated by 谷歌翻译