我们建议使用双BERT特征提取从肺CT-Scan切片图像中提出一个自动COVID1-19诊断框架。在第一个BERT特征提取中,首先使用3D-CNN提取CNN内部特征图。与其使用全局平均池,不如使用晚期的时间po来汇总这些特征图中的时间信息,然后是分类层。该3D-CNN-BERT分类网络首先是对每个原始CT扫描量的固定数量的固定切片图像进行训练的。在第二阶段,在每个CT扫描量的所有切片图像上都提取了3D-CNN-BERT嵌入功能,并且将这些特征平均为固定数量的片段。然后,另一个BERT网络用于将这些多个功能汇总到单个功能中,然后再进行另一个分类层。将两个阶段的分类结果组合在一起以生成最终输出。在验证数据集上,我们达到0.9164的宏F1分数。
translated by 谷歌翻译
本文提出了一种用于图像分类的卷积神经网络(CNN)模型,旨在提高Covid-19诊断的预测性能,同时避免更深,因此更复杂的替代方案。所提出的模型包括四个类似的卷积层,然后是扁平化和两个致密层。这项工作提出了一种基于仅通过2D CNN模型的像素的图像的简单分类2D CT扫描片图像的较差的解决方案。尽管架构中的简单性,所提出的模型在宏F1分数方面,所提出的模型显示出超过最先进的图像上的定量结果超过了相同数据集。在这种情况下,从图像中提取特征,图像的分割部分,或其他更复杂的技术,最终瞄准图像分类,不会产生更好的结果。由此,本文介绍了一个简单而强大的深度学习的自动化Covid-19分类解决方案。
translated by 谷歌翻译
This paper presents our solution for the 2nd COVID-19 Severity Detection Competition. This task aims to distinguish the Mild, Moderate, Severe, and Critical grades in COVID-19 chest CT images. In our approach, we devise a novel infection-aware 3D Contrastive Mixup Classification network for severity grading. Specifcally, we train two segmentation networks to first extract the lung region and then the inner lesion region. The lesion segmentation mask serves as complementary information for the original CT slices. To relieve the issue of imbalanced data distribution, we further improve the advanced Contrastive Mixup Classification network by weighted cross-entropy loss. On the COVID-19 severity detection leaderboard, our approach won the first place with a Macro F1 Score of 51.76%. It significantly outperforms the baseline method by over 11.46%.
translated by 谷歌翻译
在过去的两年中,世界遭受了COVID-19(SARS-COV-2)的困扰,造成了人们的日常生活损失和变化。因此,使用深度学习对胸部计算机断层扫描(CT)扫描进行了深入学习的自动检测变得很有希望,这有助于有效纠正诊断。最近,提出了基于变压器的COVID-19检测方法,以利用CT体积中的3D信息。但是,其选择切片的采样方法并不是最佳的。为了利用CT体积中的丰富3D信息,我们使用新型的数据策展和适应性采样方法提出了基于变压器的COVID-19检测,并使用灰度级别同时出现矩阵(GLCM)。为了训练由CNN层组成的模型,然后是变压器体系结构,我们首先基于肺部分割执行数据策划,并利用CT卷中每个切片的GLCM值的熵来为预测选择重要切片。实验结果表明,所提出的方法以较大的边缘改善了检测性能,而没有对模型进行太多修改。
translated by 谷歌翻译
这项研究中我们的主要目标是提出一种基于转移学习的方法,用于从计算机断层扫描(CT)图像中检测。用于任务的转移学习模型是验证的X受感受模型。使用了模型结构和ImageNet上的预训练权重。通过128批量的大小和224x224、3个通道输入图像训练所得的修改模型,并从原始512x512,灰度图像转换。使用的数据集是A COV19-CT-DB。数据集中的标签包括1919年COVID-1919检测的COVID-19病例和非旋转19例。首先,使用数据集的验证分区以及精确召回和宏F1分数的准确性和损失来衡量所提出方法的性能。验证集中的最终宏F1得分超过了基线模型。
translated by 谷歌翻译
随着Covid-19的爆发,近年来已经出现了大量相关研究。我们提出了一个基于肺CT扫描图像的自动COVID-19诊断框架,即PVT-COV19D。为了适应图像输入的不同维度,我们首先使用变压器模型对图像进行了分类,然后根据正常分布对数据集中进行采样,并将采样结果馈送到修改的PVTV2模型中以进行训练。COV19-CT-DB数据集上的大量实验证明了该方法的有效性。
translated by 谷歌翻译
本文介绍了有组织的第二次共同19号比赛的基线方法,该方法发生在欧洲计算机视觉会议(ECCV 2022)的Aimia研讨会框架内。它提出了COV19-CT-DB数据库,该数据库为COVID-19 DENCTICT注释,由约7,700 3-D CT扫描组成。通过四个COVID-19严重性条件,进一步注释了由COVID-19案例组成的数据库的一部分。我们已经在培训,验证和测试数据集中划分了数据库和后期。前两个数据集用于培训和验证机器学习模型,而后者将用于评估开发模型。基线方法由基于CNN-RNN网络的深度学习方法组成,并报告其在COVID19-CT-DB数据库上的性能。
translated by 谷歌翻译
计算机断层扫描(CT)成像对于诊断各种疾病可能非常实用。但是,CT图像的性质更加多样化,因为CT扫描的分辨率和数量由机器及其设置确定。传统的深度学习模型很难挠痒痒,因为深神经网络的基本要求是输入数据的一致形状。在本文中,我们提出了一种新颖,有效的两步方法,以彻底解决Covid-19症状分类的问题。首先,通过常规骨干网络提取CT扫描的每个切片的语义特征嵌入。然后,我们提出了长期的短期记忆(LSTM)和基于变压器的子网络来处理时间特征学习,从而导致时空特征表示学习。以这种方式,拟议的两步LSTM模型可以防止过度拟合,并提高性能。全面的实验表明,提出的两步方法不仅显示出出色的性能,而且可以互相补偿。更具体地说,两步LSTM模型的假阴性速率较低,而2步SWIN模型的假阳性速率较低。总而言之,建议模型合奏可以在现实世界应用中采用更稳定和有希望的性能。
translated by 谷歌翻译
医学图像预处理中最有争议的研究领域之一是3D CT扫描。随着Covid-19的快速扩散,CT扫描在正确,迅速诊断疾病的功能变得至关重要。它对预防感染有积极影响。通过CT-Scan图像诊断疾病有许多任务,包括Covid-19。在本文中,我们提出了一种使用堆叠深神经网络的方法,通过一系列3D CT扫描图像来检测COVID 19。在我们的方法中,我们使用两个骨架进行实验是Densenet 121和Resnet101。此方法在某些评估指标上实现了竞争性能
translated by 谷歌翻译
在本文中,我们研究了使用深度学习模型时的可转移性限制,用于对CT图像中肺炎感染区域的语义分割。拟议的方法采用4通道输入;基于Hounsfield量表的3个通道,以及一个表示肺部区域的通道(二进制)。我们使用了3个不同的公开可用的CT数据集。如果没有肺部面罩,深度学习模型会生成代理图像。实验结果表明,在创建共同分割模型时,应仔细使用可转移性;在大量数据中重新训练该模型多次以上会导致分割精度的降低。
translated by 谷歌翻译
自2019年底Covid-19出现以来,Covid-19已成为人工智能(AI)社区的积极研究主题。最有趣的AI主题之一是COVID-19对医学成像的分析。 CT扫描成像是有关该疾病的最有用的工具。这项工作是第二次COV19D竞赛的一部分,在其中设定了两个挑战:COVID-19检测和COVID-19的严重性检测。对于从CT扫描的COVID-19检测,我们提出了具有Densenet-161模型的2D卷积块的集合。在这里,每个具有Densenet-161体系结构的2D卷积块是分别训练的,在测试阶段,集合模型基于其概率的平均值。另一方面,我们提出了一个卷积层的集合,该集合具有用于COVID-19的严重程度检测的成立模型。除了卷积层外,还使用了三个成立变体,即Inception-V3,Inception-V4和Inception-Resnet。我们提出的方法在第二COV19D竞赛的验证数据中的表现优于基线方法,分别为COVID-19检测和COVID-19的严重性检测分别为11%和16%。
translated by 谷歌翻译
一种名为Covid-19的新发现的冠状病毒疾病主要影响人类呼吸系统。 Covid-19是一种由起源于中国武汉的病毒引起的传染病。早期诊断是医疗保健提供者的主要挑战。在较早的阶段,医疗机构令人眼花azz乱,因为没有适当的健康辅助工具或医学可以检测到COVID-19。引入了一种新的诊断工具RT-PCR(逆转录聚合酶链反应)。它从患者的鼻子或喉咙中收集拭子标本,在那里共有19个病毒。该方法有一些与准确性和测试时间有关的局限性。医学专家建议一种称为CT(计算机断层扫描)的替代方法,该方法可以快速诊断受感染的肺部区域并在早期阶段识别Covid-19。使用胸部CT图像,计算机研究人员开发了几种识别Covid-19疾病的深度学习模型。这项研究介绍了卷积神经网络(CNN)和基于VGG16的模型,用于自动化的COVID-19在胸部CT图像上识别。使用14320 CT图像的公共数据集的实验结果显示,CNN和VGG16的分类精度分别为96.34%和96.99%。
translated by 谷歌翻译
世界目前正在经历持续的传染病大流行病,该传染病是冠状病毒疾病2019(即covid-19),这是由严重的急性呼吸综合征冠状病毒2(SARS-COV-2)引起的。计算机断层扫描(CT)在评估感染的严重程度方面发挥着重要作用,并且还可用于识别这些症状和无症状的Covid-19载体。随着Covid-19患者的累积数量的激增,放射科医师越来越强调手动检查CT扫描。因此,自动化3D CT扫描识别工具的需求量高,因为手动分析对放射科医师耗时,并且它们的疲劳可能导致可能的误判。然而,由于位于不同医院的CT扫描仪的各种技术规范,CT图像的外观可能显着不同,导致许多自动图像识别方法的失败。因此,多域和多扫描仪研究的多域移位问题是不可能对可靠识别和可再现和客观诊断和预后至关重要的至关重要。在本文中,我们提出了Covid-19 CT扫描识别模型即Coronavirus信息融合和诊断网络(CIFD-NET),可以通过新的强大弱监督的学习范式有效地处理多域移位问题。与其他最先进的方法相比,我们的模型可以可靠,高效地解决CT扫描图像中不同外观的问题。
translated by 谷歌翻译
本文提出了COVID-19患者肺部肺部感染和正常区域的自动分割方法。从2019年12月起,2019年新型冠状病毒疾病(Covid-19)遍布世界,对我们的经济活动和日常生活产生重大影响。为了诊断大量感染的患者,需要计算机诊断辅助。胸部CT对于诊断病毒性肺炎,包括Covid-19是有效的。 Covid-19的诊断辅助需要从计算机的CT卷的肺部条件的定量分析方法。本文用Covid-19分割完全卷积网络(FCN)提出了来自CT卷中的CT卷中肺部感染和正常区域的自动分割方法。在诊断包括Covid-19的肺部疾病中,肺部正常和感染区域的条件分析很重要。我们的方法识别CT卷中的肺正态和感染区。对于具有各种形状和尺寸的细分感染区域,我们引入了密集的汇集连接并扩张了我们的FCN中的互联网。我们将该方法应用于Covid-19案例的CT卷。从轻度到Covid-19的严重病例,所提出的方法在肺部正确分段正常和感染区域。正常和感染区域的骰子评分分别为0.911和0.753。
translated by 谷歌翻译
这项研究的目的是开发一个强大的基于深度学习的框架,以区分Covid-19,社区获得的肺炎(CAP)和基于使用各种方案和放射剂量在不同成像中心获得的胸部CT扫描的正常病例和正常情况。我们表明,虽然我们的建议模型是在使用特定扫描协议仅从一个成像中心获取的相对较小的数据集上训练的,但该模型在使用不同技术参数的多个扫描仪获得的异质测试集上表现良好。我们还表明,可以通过无监督的方法来更新模型,以应对火车和测试集之间的数据移动,并在从其他中心接收新的外部数据集时增强模型的鲁棒性。我们采用了合奏体系结构来汇总该模型的多个版本的预测。为了初始培训和开发目的,使用了171 Covid-19、60 CAP和76个正常情况的内部数据集,其中包含使用恒定的标准辐射剂量扫描方案从一个成像中心获得的体积CT扫描。为了评估模型,我们回顾了四个不同的测试集,以研究数据特征对模型性能的转移的影响。在测试用例中,有与火车组相似的CT扫描,以及嘈杂的低剂量和超低剂量CT扫描。此外,从患有心血管疾病或手术病史的患者中获得了一些测试CT扫描。这项研究中使用的整个测试数据集包含51 covid-19、28 CAP和51例正常情况。实验结果表明,我们提出的框架在所有测试集上的表现良好,达到96.15%的总准确度(95%CI:[91.25-98.74]),COVID-119,COVID-96.08%(95%CI:[86.54-99.5],95%),[86.54-99.5],),,),敏感性。帽敏感性为92.86%(95%CI:[76.50-99.19])。
translated by 谷歌翻译
最近关于Covid-19的研究表明,CT成像提供了评估疾病进展和协助诊断的有用信息,以及帮助理解疾病。有越来越多的研究,建议使用深度学习来使用胸部CT扫描提供快速准确地定量Covid-19。兴趣的主要任务是胸部CT扫描的肺和肺病变的自动分割,确认或疑似Covid-19患者。在这项研究中,我们使用多中心数据集比较12个深度学习算法,包括开源和内部开发的算法。结果表明,合并不同的方法可以提高肺部分割,二元病变分割和多种子病变分割的总体测试集性能,从而分别为0.982,0.724和0.469的平均骰子分别。将得到的二元病变分段为91.3ml的平均绝对体积误差。通常,区分不同病变类型的任务更加困难,分别具有152mL的平均绝对体积差,分别为整合和磨碎玻璃不透明度为0.369和0.523的平均骰子分数。所有方法都以平均体积误差进行二元病变分割,该分段优于人类评估者的视觉评估,表明这些方法足以用于临床实践中使用的大规模评估。
translated by 谷歌翻译
我们为Covid-19的快速准确CT(DL-FACT)测试提供了一系列深度学习的计算框架。我们开发了基于CT的DL框架,通过基于DL的CT图像增强和分类来提高Covid-19(加上其变体)的测试速度和准确性。图像增强网络适用于DDNet,短暂的Dennet和基于Deconvolulate的网络。为了展示其速度和准确性,我们在Covid-19 CT图像的几个来源中评估了DL-FARE。我们的结果表明,DL-FACT可以显着缩短几天到几天的周转时间,并提高Covid-19测试精度高达91%。DL-FACT可以用作诊断和监测Covid-19的医学专业人员的软件工具。
translated by 谷歌翻译
Deep learning (DL) analysis of Chest X-ray (CXR) and Computed tomography (CT) images has garnered a lot of attention in recent times due to the COVID-19 pandemic. Convolutional Neural Networks (CNNs) are well suited for the image analysis tasks when trained on humongous amounts of data. Applications developed for medical image analysis require high sensitivity and precision compared to any other fields. Most of the tools proposed for detection of COVID-19 claims to have high sensitivity and recalls but have failed to generalize and perform when tested on unseen datasets. This encouraged us to develop a CNN model, analyze and understand the performance of it by visualizing the predictions of the model using class activation maps generated using (Gradient-weighted Class Activation Mapping) Grad-CAM technique. This study provides a detailed discussion of the success and failure of the proposed model at an image level. Performance of the model is compared with state-of-the-art DL models and shown to be comparable. The data and code used are available at https://github.com/aleesuss/c19.
translated by 谷歌翻译
本文介绍了我们针对第二届COVID-19比赛的解决方案,该竞赛是在欧洲计算机视觉会议(ECCV 2022)的Aimia研讨会框架内举行的。在我们的方法中,我们采用有效的3D对比度混合分类网络,用于在胸部CT图像上进行COVID-19诊断,该图像由对比度表示学习和混合分类组成。对于COVID-19检测挑战,我们的方法在484验证CT扫描中达到0.9245宏F1得分,这显着优于基线方法的16.5%。在COVID-19的严重性检测挑战中,我们的方法在61个验证样本上达到0.7186宏F1得分,这也超过了基线8.86%。
translated by 谷歌翻译
Segmentation of lung tissue in computed tomography (CT) images is a precursor to most pulmonary image analysis applications. Semantic segmentation methods using deep learning have exhibited top-tier performance in recent years. This paper presents a fully automatic method for identifying the lungs in three-dimensional (3D) pulmonary CT images, which we call it Lung-Net. We conjectured that a significant deeper network with inceptionV3 units can achieve a better feature representation of lung CT images without increasing the model complexity in terms of the number of trainable parameters. The method has three main advantages. First, a U-Net architecture with InceptionV3 blocks is developed to resolve the problem of performance degradation and parameter overload. Then, using information from consecutive slices, a new data structure is created to increase generalization potential, allowing more discriminating features to be extracted by making data representation as efficient as possible. Finally, the robustness of the proposed segmentation framework was quantitatively assessed using one public database to train and test the model (LUNA16) and two public databases (ISBI VESSEL12 challenge and CRPF dataset) only for testing the model; each database consists of 700, 23, and 40 CT images, respectively, that were acquired with a different scanner and protocol. Based on the experimental results, the proposed method achieved competitive results over the existing techniques with Dice coefficient of 99.7, 99.1, and 98.8 for LUNA16, VESSEL12, and CRPF datasets, respectively. For segmenting lung tissue in CT images, the proposed model is efficient in terms of time and parameters and outperforms other state-of-the-art methods. Additionally, this model is publicly accessible via a graphical user interface.
translated by 谷歌翻译