病理系统地诱导形态学变化,从而提供了主要但不足以量化的可观察到诊断来源。该研究基于计算机断层扫描(CT)体积的形态特征(3D形态学)开发了病理状态的预测模型。开发了一个完整的工作流程,以进行网状提取和简化器官表面的工作流程,并与平均曲率和网状能的分布自动提取形态特征自动提取。然后对XGBoost监督分类器进行了训练和测试,以预测病理状态。该框架应用于肺结节恶性肿瘤的预测。在具有恶性肿瘤的NLST数据库的子集中,仅使用3D形态学证实了活检,将肺结节的分类模型分类为恶性与良性AUC的良性0.964。 (1)临床相关特征的其他三组经典特征经过训练和测试,AUC为0.58,(2)111辐射因子学的AUC为0.976,(3)含有结节大小,衰减和衰减和衰减的放射科医生地面真相(GT) Spiculation定性注释的AUC为0.979。我们还测试了Brock模型并获得0.826的AUC。将3D形态学和放射素学特征结合在一起,可以实现最新的结果,而AUC为0.978,其中3D形态学具有一些最高的预测能力。作为对公共独立队列的验证,将模型应用于LIDC数据集,3D形态学的AUC达到0.906,而3D型物体+放射线学则获得了0.958的AUC,在挑战中排名第二。它将曲率分布确定为预测肺结核恶性肿瘤的有效特征,并可以直接应用于任意计算机辅助诊断任务。
translated by 谷歌翻译
为了研究非对比计算断层扫描(CT)周围的胸膜,气道和血管是否可以区分良性和恶性肺结核。 LIDC-IDRI DataSet是最大的公共CT数据库之一进行了研究。共有1556例来自694名患者的结节涉及统计分析,其中平均刻录3和> 3的结节分别表示为良性和恶性肿瘤。此外,来自113例诊断患者的339个结节独立地评估了诊断原律。将计算机算法开发成肺部结构并量化胸膜表面,气道和血管的距离,以及结节附近的呼吸道和血管的计数数和归一化。进行差距(或)和Chi-Square(\ Chi ^ 2)测试以证明周围结构的特征与结节恶性肿瘤之间的相关性。在逻辑回归中进行非参数接收器操作特征(ROC)分析,以评估每个结构的辨别能力。对于良性和恶性群体,分别从结节到胸膜,气道和血管的平均距离(6.56,5.19),(37.08,26.43)和(1.42,17.07)mm。结节与通气通路的计数和血管数的相关性分别(或= 22.96,\ Chi ^ 2 = 105.04)和(或= 7.06,\ Chi ^ 2 = 290.11)。结节之间的相关性和气道和血管的体积是(或= 9.19,\ Chi ^ 2 = 159.02)和(或= 2.29,\ Chi ^ 2 = 55.89)。胸膜,呼吸道和血管的曲线下曲线(AUC)分别为0.5202,0.6943和0.6529。我们的研究结果表明,与良性的,恶性结节通常被更多的肺部结构包围,表明这些结构的特征可以被视为肺癌生物标志物。
translated by 谷歌翻译
在肺结节表面上的尖锐/肺泡是肺癌恶性肿瘤的良好预测指标,因此是放射科医生的良好预测指标,作为标准化的肺-RADS临床评分标准的一部分。鉴于放射科医生的结节和2D切片评估的3D几何形状,手动调节/肺泡注释是一项繁琐的任务,因此,迄今为止,尚无公共数据集以探测这些临床报告在SOTA恶性预测中的重要性算法。作为本文的一部分,我们释放了一个大规模临床解释的放射线数据集,即Cirdataset,其中包含来自两个公共数据集的分段肺结节的956个放射学家QA/QC'QA/QC'spiculation/lobulation注释,Lidc-Idri(N = 883)(n = 883)(n = 883)(n = 883) lungx(n = 73)。我们还提出了一个基于多级Voxel2mesh扩展到节段结节的端到端深度学习模型(同时保留尖峰),对尖峰进行分类(尖锐/尖峰和弯曲/叶状/叶状)并执行恶性预测。先前的方法已经对LIDC和LUNGX数据集进行了恶性预测,但没有对任何临床报道/可操作的特征(由于已知的超参数敏感性问题,具有一般归因方案)。随着这种全面宣布的Cirdataset和端到端深度学习基线的发布,我们希望恶性预测方法可以验证其解释,对我们的基线进行基准测试,并提供临床上的见解。数据集,代码,预处理模型和Docker容器可在https://github.com/nadeemlab/cir上找到。
translated by 谷歌翻译
人工智能(AI)技术具有重要潜力,可以实现有效,鲁棒和自动的图像表型,包括识别细微图案。基于AI的检测搜索图像空间基于模式和特征来找到兴趣区域。存在一种良性的肿瘤组织学,可以通过使用图像特征的基于AI的分类方法来识别。图像从图像中提取可用于的可覆盖方式,可以通过显式(手工/工程化)和深度辐射谱系框架来探索途径。辐射瘤分析有可能用作非侵入性技术,以准确表征肿瘤,以改善诊断和治疗监测。这项工作介绍基于AI的技术,专注于肿瘤宠物和PET / CT成像,用于不同的检测,分类和预测/预测任务。我们还讨论了所需的努力,使AI技术转换为常规临床工作流程,以及潜在的改进和互补技术,例如在电子健康记录和神经象征性AI技术上使用自然语言处理。
translated by 谷歌翻译
早期检测改善了胰腺导管腺癌(PDAC)中的预后,但挑战,因为病变通常很小,并且在对比增强的计算断层扫描扫描(CE-CT)上定义很差。深度学习可以促进PDAC诊断,但是当前模型仍然无法识别小(<2cm)病变。在这项研究中,最先进的深度学习模型用于开发用于PDAC检测的自动框架,专注于小病变。另外,研究了整合周围解剖学的影响。 CE-CT来自119个病理验证的PDAC患者的群组和123名没有PDAC患者的队列用于训练NNUNET用于自动病变检测和分割(\ TEXTIT {NNUNET \ _t})。训练了两种额外的鼻塞,以研究解剖学积分的影响:(1)分割胰腺和肿瘤(\ yryit {nnunet \ _tp}),(2)分割胰腺,肿瘤和多周围的解剖结构(\ textit {nnunet \_多发性硬化症})。外部可公开的测试集用于比较三个网络的性能。 \ Textit {nnunet \ _ms}实现了最佳性能,在整个测试集的接收器操作特性曲线下的区域为0.91,肿瘤的0.88 <2cm,显示最先进的深度学习可以检测到小型PDAC和解剖信息的好处。
translated by 谷歌翻译
肺癌是全球癌症死亡的主要原因,肺腺癌是最普遍的肺癌形式。 EGFR阳性肺腺癌已被证明对TKI治疗的反应率很高,这是肺癌分子测试的基本性质。尽管目前的指南考虑必要测试,但很大一部分患者并未常规化,导致数百万的人未接受最佳治疗肺癌。测序是EGFR突变分子测试的黄金标准,但是结果可能需要数周的时间才能回来,这在时间限制的情况下并不理想。能够快速,便宜地检测EGFR突变的替代筛查工具的开发,同时保存组织以进行测序可以帮助减少受比较治疗的患者的数量。我们提出了一种多模式方法,该方法将病理图像和临床变量整合在一起,以预测EGFR突变状态,迄今为止最大的临床队列中的AUC为84%。这样的计算模型可以以很少的额外成本进行大部分部署。它的临床应用可以减少中国接受亚最佳治疗的患者数量53.1%,在美国将高达96.6%的患者减少96.6%。
translated by 谷歌翻译
目的:利用高分辨率定量CT(QCT)成像特征来预测间质肺疾病(ILD)的纤维纤维诊断和预后。方法:40名ILD患者(20例常规间质性肺炎(UIP),20个非UIP模式ILD)由2位放射科医生的专家共识分类,随后持续了7年。记录临床变量。分割肺场后,使用基于晶格的方法(TM模型)提取了总共26个纹理特征。将TM模型与先前基于直方图的模型(HM)进行了比较,以便将UIP与非UIP分类。为了进行预后评估,进行了生存分析,将专家诊断标签与TM指标进行比较。结果:在分类分析中,TM模型的表现优于HM方法,AUC为0.70。虽然在COX回归分析中,UIP与非UIP专家标签的生存曲线在统计学上并没有差异,但TM QCT特征允许该队列的统计学意义分区。结论:TM模型在区分非UIP模式方面优于HM模型。最重要的是,TM允许将队列分配为不同的生存群体,而专家UIP与非UIP标签则不得。 QCT TM模型可以改善ILD的诊断,并提供更准确的预后,更好地指导患者管理。
translated by 谷歌翻译
最近关于Covid-19的研究表明,CT成像提供了评估疾病进展和协助诊断的有用信息,以及帮助理解疾病。有越来越多的研究,建议使用深度学习来使用胸部CT扫描提供快速准确地定量Covid-19。兴趣的主要任务是胸部CT扫描的肺和肺病变的自动分割,确认或疑似Covid-19患者。在这项研究中,我们使用多中心数据集比较12个深度学习算法,包括开源和内部开发的算法。结果表明,合并不同的方法可以提高肺部分割,二元病变分割和多种子病变分割的总体测试集性能,从而分别为0.982,0.724和0.469的平均骰子分别。将得到的二元病变分段为91.3ml的平均绝对体积误差。通常,区分不同病变类型的任务更加困难,分别具有152mL的平均绝对体积差,分别为整合和磨碎玻璃不透明度为0.369和0.523的平均骰子分数。所有方法都以平均体积误差进行二元病变分割,该分段优于人类评估者的视觉评估,表明这些方法足以用于临床实践中使用的大规模评估。
translated by 谷歌翻译
病变分割是放射线工作流程的关键步骤。手动分割需要长时间的执行时间,并且容易发生可变性,从而损害了放射线研究及其鲁棒性的实现。在这项研究中,对非小细胞肺癌患者的计算机断层扫描图像进行了深入学习的自动分割方法。还评估了手动与自动分割在生存放射模型的性能中的使用。方法总共包括899名NSCLC患者(2个专有:A和B,1个公共数据集:C)。肺部病变的自动分割是通过训练先前开发的建筑NNU-NET进行的,包括2D,3D和级联方法。用骰子系数评估自动分割的质量,以手动轮廓为参考。通过从数据集A的手动和自动轮廓中提取放射性的手工制作和深度学习特征来探索自动分割对患者生存的放射素模型对患者生存的性能的影响。评估并比较模型的精度。结果通过平均2D和3D模型的预测以及应用后处理技术来提取最大连接的组件,可以实现具有骰子= 0.78 +(0.12)的自动和手动轮廓之间的最佳一致性。当使用手动或自动轮廓,手工制作或深度特征时,在生存模型的表现中未观察到统计差异。最好的分类器显示出0.65至0.78之间的精度。结论NNU-NET在自动分割肺部病变中的有希望的作用已得到证实,从而大大降低了时必的医生的工作量,而不会损害基于放射线学的生存预测模型的准确性。
translated by 谷歌翻译
超声检查的诊断准确性提高仍然是一个重要目标。在这项研究中,我们提出了一种基于生物物理特征的机器学习方法,用于乳腺癌检测,以改善基准深度学习算法以外的性能,并提供一张颜色的覆盖层覆盖层的视觉图,这些视觉图是病变中恶性肿瘤的可能性。该总体框架称为特定疾病的成像。以前,分别利用改良的完全卷积网络和改良的Googlenet对150个乳房病变进行了细分和分类。在这项研究中,在轮廓病变中进行了多参数分析。从基于生物物理和形态学模型的超声射频,包膜和对数压缩数据中提取特征。带有高斯内核的支持向量机构建了非线性超平面,我们计算了多参数空间中每个特征的超平面和数据点之间的距离。距离可以定量评估病变,并提出颜色编码并覆盖在B模式图像上的恶性肿瘤的可能性。对体内患者数据进行了培训和评估。在我们的研究中,最常见类型和大小的乳腺病变的总体准确性超过98.0%,分类为0.98,而接收器操作特征曲线下的区域的总体准确性比放射科医生的性能和深度学习系统更精确。此外,概率与BI RAD之间的相关性实现了预测乳腺癌的定量指南。因此,我们预计所提出的框架可以帮助放射科医生实现更准确,方便的乳腺癌分类和检测。
translated by 谷歌翻译
世界目前正在经历持续的传染病大流行病,该传染病是冠状病毒疾病2019(即covid-19),这是由严重的急性呼吸综合征冠状病毒2(SARS-COV-2)引起的。计算机断层扫描(CT)在评估感染的严重程度方面发挥着重要作用,并且还可用于识别这些症状和无症状的Covid-19载体。随着Covid-19患者的累积数量的激增,放射科医师越来越强调手动检查CT扫描。因此,自动化3D CT扫描识别工具的需求量高,因为手动分析对放射科医师耗时,并且它们的疲劳可能导致可能的误判。然而,由于位于不同医院的CT扫描仪的各种技术规范,CT图像的外观可能显着不同,导致许多自动图像识别方法的失败。因此,多域和多扫描仪研究的多域移位问题是不可能对可靠识别和可再现和客观诊断和预后至关重要的至关重要。在本文中,我们提出了Covid-19 CT扫描识别模型即Coronavirus信息融合和诊断网络(CIFD-NET),可以通过新的强大弱监督的学习范式有效地处理多域移位问题。与其他最先进的方法相比,我们的模型可以可靠,高效地解决CT扫描图像中不同外观的问题。
translated by 谷歌翻译
本文提出了第二版的头部和颈部肿瘤(Hecktor)挑战的概述,作为第24届医学图像计算和计算机辅助干预(Miccai)2021的卫星活动。挑战由三个任务组成与患有头颈癌(H&N)的患者的PET / CT图像的自动分析有关,专注于oropharynx地区。任务1是FDG-PET / CT图像中H&N主肿瘤肿瘤体积(GTVT)的自动分割。任务2是来自同一FDG-PET / CT的进展自由生存(PFS)的自动预测。最后,任务3与任务2的任务2与参与者提供的地面真理GTVT注释相同。这些数据从六个中心收集,总共325个图像,分为224个培训和101个测试用例。通过103个注册团队和448个结果提交的重要参与,突出了对挑战的兴趣。在第一任务中获得0.7591的骰子相似度系数(DSC),分别在任务2和3中的0.7196和0.6978的一致性指数(C-Index)。在所有任务中,发现这种方法的简单性是确保泛化性能的关键。 PFS预测性能在任务2和3中的比较表明,提供GTVT轮廓对于实现最佳结果,这表明可以使用完全自动方法。这可能避免了对GTVT轮廓的需求,用于可重复和大规模的辐射瘤研究的开头途径,包括千元潜在的受试者。
translated by 谷歌翻译
Despite high global prevalence of hepatic steatosis, no automated diagnostics demonstrated generalizability in detecting steatosis on multiple international datasets. Traditionally, hepatic steatosis detection relies on clinicians selecting the region of interest (ROI) on computed tomography (CT) to measure liver attenuation. ROI selection demands time and expertise, and therefore is not routinely performed in populations. To automate the process, we validated an existing artificial intelligence (AI) system for 3D liver segmentation and used it to purpose a novel method: AI-ROI, which could automatically select the ROI for attenuation measurements. AI segmentation and AI-ROI method were evaluated on 1,014 non-contrast enhanced chest CT images from eight international datasets: LIDC-IDRI, NSCLC-Lung1, RIDER, VESSEL12, RICORD-1A, RICORD-1B, COVID-19-Italy, and COVID-19-China. AI segmentation achieved a mean dice coefficient of 0.957. Attenuations measured by AI-ROI showed no significant differences (p = 0.545) and a reduction of 71% time compared to expert measurements. The area under the curve (AUC) of the steatosis classification of AI-ROI is 0.921 (95% CI: 0.883 - 0.959). If performed as a routine screening method, our AI protocol could potentially allow early non-invasive, non-pharmacological preventative interventions for hepatic steatosis. 1,014 expert-annotated liver segmentations of patients with hepatic steatosis annotations can be downloaded here: https://drive.google.com/drive/folders/1-g_zJeAaZXYXGqL1OeF6pUjr6KB0igJX.
translated by 谷歌翻译
Lung cancer is a severe menace to human health, due to which millions of people die because of late diagnoses of cancer; thus, it is vital to detect the disease as early as possible. The Computerized chest analysis Tomography of scan is assumed to be one of the efficient solutions for detecting and classifying lung nodules. The necessity of high accuracy of analyzing C.T. scan images of the lung is considered as one of the crucial challenges in detecting and classifying lung cancer. A new long-short-term-memory (LSTM) based deep fusion structure, is introduced, where, the texture features computed from lung nodules through new volumetric grey-level-co-occurrence-matrices (GLCM) computations are applied to classify the nodules into: benign, malignant and ambiguous. An improved Otsu segmentation method combined with the water strider optimization algorithm (WSA) is proposed to detect the lung nodules. Otsu-WSA thresholding can overcome the restrictions present in previous thresholding methods. Extended experiments are run to assess this fusion structure by considering 2D-GLCM computations based 2D-slices fusion, and an approximation of this 3D-GLCM with volumetric 2.5D-GLCM computations-based LSTM fusion structure. The proposed methods are trained and assessed through the LIDC-IDRI dataset, where 94.4%, 91.6%, and 95.8% Accuracy, sensitivity, and specificity are obtained, respectively for 2D-GLCM fusion and 97.33%, 96%, and 98%, accuracy, sensitivity, and specificity, respectively, for 2.5D-GLCM fusion. The yield of the same are 98.7%, 98%, and 99%, for the 3D-GLCM fusion. The obtained results and analysis indicate that the WSA-Otsu method requires less execution time and yields a more accurate thresholding process. It is found that 3D-GLCM based LSTM outperforms its counterparts.
translated by 谷歌翻译
Segmentation of lung tissue in computed tomography (CT) images is a precursor to most pulmonary image analysis applications. Semantic segmentation methods using deep learning have exhibited top-tier performance in recent years. This paper presents a fully automatic method for identifying the lungs in three-dimensional (3D) pulmonary CT images, which we call it Lung-Net. We conjectured that a significant deeper network with inceptionV3 units can achieve a better feature representation of lung CT images without increasing the model complexity in terms of the number of trainable parameters. The method has three main advantages. First, a U-Net architecture with InceptionV3 blocks is developed to resolve the problem of performance degradation and parameter overload. Then, using information from consecutive slices, a new data structure is created to increase generalization potential, allowing more discriminating features to be extracted by making data representation as efficient as possible. Finally, the robustness of the proposed segmentation framework was quantitatively assessed using one public database to train and test the model (LUNA16) and two public databases (ISBI VESSEL12 challenge and CRPF dataset) only for testing the model; each database consists of 700, 23, and 40 CT images, respectively, that were acquired with a different scanner and protocol. Based on the experimental results, the proposed method achieved competitive results over the existing techniques with Dice coefficient of 99.7, 99.1, and 98.8 for LUNA16, VESSEL12, and CRPF datasets, respectively. For segmenting lung tissue in CT images, the proposed model is efficient in terms of time and parameters and outperforms other state-of-the-art methods. Additionally, this model is publicly accessible via a graphical user interface.
translated by 谷歌翻译
目的:为全身CT设计多疾病分类扫描使用自动提取标签从放射科文reports.Materials和方法三个不同的器官系统:这项回顾性研究共有12,092例患者(平均年龄57 + - 18; 6172名妇女)包括对模型开发和测试(2012-2017自)。基于规则的算法被用来从12,092患者提取13667身体CT扫描19,225疾病的标签。使用三维DenseVNet,三个器官系统是分段的:肺和胸膜;肝胆;和肾脏及输尿管。对于每个器官,三维卷积神经网络分类没有明显的疾病与四种常见疾病为跨越所有三个模型总共15个不同的标签。测试是在相对于2875个手动导出的参考标签2158个CT体积的子集从2133名患者( - ; 1079名妇女18,平均年龄58 +)进行。性能报告为曲线(AUC)与通过方法德朗95%置信区间下接收器的操作特性的区域。结果:提取的标签说明书验证确认91%横跨15个不同的唱片公司99%的准确率。对于肺和胸膜标签的AUC分别为:肺不张0.77(95%CI:0.74,0.81),结节0.65(0.61,0.69),肺气肿0.89(0.86,0.92),积液0.97(0.96,0.98),并且没有明显的疾病0.89( 0.87,0.91)。对于肝和胆囊的AUC分别为:肝胆钙化0.62(95%CI:0.56,0.67),病变0.73(0.69,0.77),扩张0.87(0.84,0.90),脂肪0.89(0.86,0.92),并且没有明显的疾病0.82( 0.78,0.85)。对于肾脏及输尿管的AUC分别为:石0.83(95%CI:0.79,0.87),萎缩0.92(0.89,0.94),病变0.68(0.64,0.72),囊肿0.70(0.66,0.73),并且没有明显的疾病0.79(0.75 ,0.83)。结论:弱监督深度学习模型能够在多器官系统不同的疾病分类。
translated by 谷歌翻译
对脑外伤(TBI)患者的准确预后很难为治疗,患者管理和长期护理提供信息至关重要。年龄,运动和学生反应性,缺氧和低血压以及计算机断层扫描(CT)的放射学发现等患者特征已被确定为TBI结果预测的重要变量。 CT是临床实践中选择的急性成像方式,因为其获取速度和广泛的可用性。但是,这种方式主要用于定性和半定量评估,例如马歇尔评分系统,该系统容易受到主观性和人为错误。这项工作探讨了使用最先进的,深度学习的TBI病变分割方法从常规获得的医院入院CT扫描中提取的成像生物标志物的预测能力。我们使用病变体积和相应的病变统计作为扩展TBI结果预测模型的输入。我们将我们提出的功能的预测能力与马歇尔分数进行比较,并与经典的TBI生物标志物配对。我们发现,在预测不利的TBI结果时,自动提取的定量CT功能的性能与Marshall分数相似或更好。利用自动地图集对齐,我们还确定额叶外病变是不良预后的重要指标。我们的工作可能有助于更好地理解TBI,并提供有关如何使用自动化神经影像分析来改善TBI后预测的新见解。
translated by 谷歌翻译
放射线学使用定量医学成像特征来预测临床结果。目前,在新的临床应用中,必须通过启发式试验和纠正过程手动完成各种可用选项的最佳放射组方法。在这项研究中,我们提出了一个框架,以自动优化每个应用程序的放射线工作流程的构建。为此,我们将放射线学作为模块化工作流程,并为每个组件包含大量的常见算法。为了优化每个应用程序的工作流程,我们使用随机搜索和结合使用自动化机器学习。我们在十二个不同的临床应用中评估我们的方法,从而在曲线下导致以下区域:1)脂肪肉瘤(0.83); 2)脱粘型纤维瘤病(0.82); 3)原发性肝肿瘤(0.80); 4)胃肠道肿瘤(0.77); 5)结直肠肝转移(0.61); 6)黑色素瘤转移(0.45); 7)肝细胞癌(0.75); 8)肠系膜纤维化(0.80); 9)前列腺癌(0.72); 10)神经胶质瘤(0.71); 11)阿尔茨海默氏病(0.87);和12)头颈癌(0.84)。我们表明,我们的框架具有比较人类专家的竞争性能,优于放射线基线,并且表现相似或优于贝叶斯优化和更高级的合奏方法。最后,我们的方法完全自动优化了放射线工作流的构建,从而简化了在新应用程序中对放射线生物标志物的搜索。为了促进可重复性和未来的研究,我们公开发布了六个数据集,框架的软件实施以及重现这项研究的代码。
translated by 谷歌翻译
目的:基于深度学习的放射素学(DLR)在医学图像分析中取得了巨大的成功,并被认为是依赖手工特征的常规放射线学的替代。在这项研究中,我们旨在探索DLR使用预处理PET/CT预测鼻咽癌(NPC)中5年无进展生存期(PFS)的能力。方法:总共招募了257名患者(内部/外部队列中的170/87),具有晚期NPC(TNM III期或IVA)。我们开发了一个端到端的多模式DLR模型,其中优化了3D卷积神经网络以从预处理PET/CT图像中提取深度特征,并预测了5年PFS的概率。作为高级临床特征,TNM阶段可以集成到我们的DLR模型中,以进一步提高预后性能。为了比较常规放射素学和DLR,提取了1456个手工制作的特征,并从54种特征选择方法和9种分类方法的54个交叉组合中选择了最佳常规放射线方法。此外,使用临床特征,常规放射线学签名和DLR签名进行风险组分层。结果:我们使用PET和CT的多模式DLR模型比最佳常规放射线方法获得了更高的预后性能。此外,多模式DLR模型仅使用PET或仅CT优于单模式DLR模型。对于风险组分层,常规的放射线学签名和DLR签名使内部和外部队列中的高风险患者群体之间有显着差异,而外部队列中的临床特征则失败。结论:我们的研究确定了高级NPC中生存预测的潜在预后工具,表明DLR可以为当前TNM分期提供互补值。
translated by 谷歌翻译
肝脏是脊椎动物中最关键的代谢器官之一,由于其在人体中的重要功能,例如废物产物和药物的血液排毒。由于肝肿瘤引起的肝病是全球最常见的死亡率之一。因此,在肿瘤发育的早期阶段检测肝肿瘤是医疗治疗的关键部分。许多成像方式可以用作检测肝肿瘤的帮助工具。计算机断层扫描(CT)是软组织器官(例如肝脏)最常用的成像方式。这是因为它是一种侵入性方式,可以相对迅速捕获。本文提出了一个有效的自动肝分割框架,以使用3D CNN深度元网络模型检测和分割肝脏腹部扫描。许多研究采用了精确分割肝区域,然后使用分割的肝区域作为肿瘤分割方法的输入,因为它降低了由于将腹部器官分割为肿瘤而导致的错误率。所提出的3D CNN DeepMedic模型具有两个输入途径,而不是一个途径,如原始3D CNN模型所示。在本文中,该网络提供了多个腹部CT版本,这有助于提高细分质量。提出的模型分别达到94.36%,94.57%,91.86%和93.14%的精度,灵敏度,特异性和骰子相似性得分。实验结果表明该方法的适用性。
translated by 谷歌翻译