传播相位对比度同步同步rotron MicrotoMography(PPC-SR $ {\ mu} $ CT)是对考古遗骸内部结构的非侵入性和非破坏性访问的黄金标准。在该分析中,需要分割虚拟标本以分开不同的部件或材料,通常需要相当多的人力努力的过程。在MicrotoMograph成像(ASEMI)项目的自动分割中,我们开发了一种自动分割这些容量图像的工具,使用手动分段样本来调谐和培训机器学习模型。对于一套四个古埃及动物木乃伊标本,与手动细分切片相比,达到了94-98%的整体准确性,使用深度学习(97-99%)接近现货商业软件的结果较低的复杂性。对分段输出的定性分析表明,我们的结果在对来自深度学习的人的可用性方面接近,证明了这些技术的使用。
translated by 谷歌翻译
我们提出了一种新颖的方法,该方法将基于机器学习的交互式图像分割结合在一起,使用Supersoxels与聚类方法结合了用于自动识别大型数据集中类似颜色的图像的聚类方法,从而使分类器的指导重复使用。我们的方法解决了普遍的颜色可变性的问题,并且在生物学和医学图像中通常不可避免,这通常会导致分割恶化和量化精度,从而大大降低了必要的训练工作。效率的这种提高促进了大量图像的量化,从而为高通量成像中的最新技术进步提供了交互式图像分析。所呈现的方法几乎适用于任何图像类型,并代表通常用于图像分析任务的有用工具。
translated by 谷歌翻译
FIB/SEM断层扫描代表了电池研究和许多其他领域中三维纳米结构表征的必不可少的工具。然而,在许多情况下,对比度和3D分类/重建问题出现,这极大地限制了该技术的适用性,尤其是在多孔材料上,例如电池或燃料电池中用于电极材料的材料。区分不同的组件(例如主动LI存储颗粒和碳/粘合剂材料)很困难,并且通常可以防止对图像数据进行可靠的定量分析,甚至可能导致关于结构 - 质地关系的错误结论。在这项贡献中,我们提出了一种新型的数据分类方法,该方法是通过FIB/SEM断层扫描获得的三维图像数据及其在NMC电池电极材料中的应用。我们使用两个不同的图像信号,即Angled SE2腔室检测器和Inlens检测器信号的信号,将信号组合在一起并训练一个随机森林,即特定的机器学习算法。我们证明,这种方法可以克服适合多相测量的现有技术的当前局限性,并且即使在当前的最新技术失败或对大型训练集的需求之后,它也可以进行定量数据重建。这种方法可能会作为使用FIB/SEM断层扫描的未来研究指南。
translated by 谷歌翻译
神经胶质瘤是由不同高度异质组织学子区域组成的脑肿瘤。鉴定相关肿瘤子结构的图像分析技术具有改善患者诊断,治疗和预后的高潜力。但是,由于神经胶质瘤的异质性高,分割任务目前是医学图像分析领域的主要挑战。在目前的工作中,研究了由神经胶质瘤的多模式MRI扫描组成的2018年脑肿瘤分割(BRAT)挑战的数据库。提出了基于卷积神经网络(CNN)的设计和应用的分割方法,并结合了原始的后处理技术,其计算需求较低。后处理技术是分割中获得的结果的主要负责。分段区域是整个肿瘤,肿瘤核和增强的肿瘤核,分别获得等于0.8934、0.8376和0.8113的平均骰子系数。这些结果达到了由挑战的获胜者确定的神经胶质瘤分割的最新现状。
translated by 谷歌翻译
机器学习和计算机视觉技术近年来由于其自动化,适合性和产生惊人结果的能力而迅速发展。因此,在本文中,我们调查了2014年至2022年之间发表的关键研究,展示了不同的机器学习算法研究人员用来分割肝脏,肝肿瘤和肝脉管结构的研究。我们根据感兴趣的组织(肝果,肝肿瘤或肝毒剂)对被调查的研究进行了划分,强调了同时解决多个任务的研究。此外,机器学习算法被归类为受监督或无监督的,如果属于某个方案的工作量很大,则将进一步分区。此外,对文献和包含上述组织面具的网站发现的不同数据集和挑战进行了彻底讨论,强调了组织者的原始贡献和其他研究人员的贡献。同样,在我们的评论中提到了文献中过度使用的指标,这强调了它们与手头的任务的相关性。最后,强调创新研究人员应对需要解决的差距的关键挑战和未来的方向,例如许多关于船舶分割挑战的研究的稀缺性以及为什么需要早日处理他们的缺席。
translated by 谷歌翻译
人类生理学中的各种结构遵循特异性形态,通常在非常细的尺度上表达复杂性。这种结构的例子是胸前气道,视网膜血管和肝血管。可以观察到可以观察到可以观察到可以观察到可以观察到空间排列的磁共振成像(MRI),计算机断层扫描(CT),光学相干断层扫描(OCT)等医学成像模式(MRI),计算机断层扫描(CT),可以观察到空间排列的大量2D和3D图像的集合。这些结构在医学成像中的分割非常重要,因为对结构的分析提供了对疾病诊断,治疗计划和预后的见解。放射科医生手动标记广泛的数据通常是耗时且容易出错的。结果,在过去的二十年中,自动化或半自动化的计算模型已成为医学成像的流行研究领域,迄今为止,许多计算模型已经开发出来。在这项调查中,我们旨在对当前公开可用的数据集,细分算法和评估指标进行全面审查。此外,讨论了当前的挑战和未来的研究方向。
translated by 谷歌翻译
图像分割的随机沃克方法是半自动图像分割的流行工具,尤其是在生物医学领域。但是,它的线性渐近运行时间和内存要求使应用于增加大小不切实际的3D数据集。我们提出了一个分层框架,据我们所知,这是克服这些随机沃克算法的限制并实现sublinear的运行时间和持续的内存复杂性的尝试。该框架的目的是 - 与基线​​方法相比,而不是改善细分质量,以使交互式分割在核心外数据集中成为可能。确认该方法的合成数据和CT-ORG数据集进行了定量评估,其中确认了算法运行时间的预期改进,同时确认了高分段质量。即使对于数百千兆字节的大小,增量(即互动更新)运行时间也已在标准PC上以秒为单位。在一个小案例研究中,证明了当前生物医学研究对大型现实世界的适用性。在广泛使用的卷渲染和处理软件Voreen(https://www.uni-muenster.de/voreen/)的5.2版5.2版中,介绍方法的实现公开可用。
translated by 谷歌翻译
使用(半)自动显微镜生成的大规模电子显微镜(EM)数据集已成为EM中的标准。考虑到大量数据,对所有数据的手动分析都是不可行的,因此自动分析至关重要。自动分析的主要挑战包括分析和解释生物医学图像的注释,并与实现高通量相结合。在这里,我们回顾了自动计算机技术的最新最新技术以及分析细胞EM结构的主要挑战。关于EM数据的注释,分割和可扩展性,讨论了过去五年来开发的高级计算机视觉,深度学习和软件工具。自动图像采集和分析的集成将允许用纳米分辨率对毫米范围的数据集进行高通量分析。
translated by 谷歌翻译
临床实践中使用的医学图像是异质的,与学术研究中研究的扫描质量不同。在解剖学,伪影或成像参数不寻常或方案不同的极端情况下,预处理会分解。最需要对这些变化的方法可靠。提出了一种新颖的深度学习方法,以将人脑快速分割为132个区域。提出的模型使用有效的U-NET型网络,并从不同视图和分层关系的交点上受益,以在端到端训练期间融合正交2D平面和脑标签。部署了弱监督的学习,以利用部分标记的数据来进行整个大脑分割和颅内体积(ICV)的估计。此外,数据增强用于通过生成具有较高的脑扫描的磁共振成像(MRI)数据来扩展模型训练,同时保持数据隐私。提出的方法可以应用于脑MRI数据,包括头骨或任何其他工件,而无需预处理图像或性能下降。与最新的一些实验相比,使用了不同的Atlases的几项实验,以评估受过训练模型的分割性能,并且与不同内部和不同内部和不同内部方法的现有方法相比,结果显示了较高的分割精度和鲁棒性。间域数据集。
translated by 谷歌翻译
The Me 163 was a Second World War fighter airplane and a result of the German air force secret developments. One of these airplanes is currently owned and displayed in the historic aircraft exhibition of the Deutsches Museum in Munich, Germany. To gain insights with respect to its history, design and state of preservation, a complete CT scan was obtained using an industrial XXL-computer tomography scanner. Using the CT data from the Me 163, all its details can visually be examined at various levels, ranging from the complete hull down to single sprockets and rivets. However, while a trained human observer can identify and interpret the volumetric data with all its parts and connections, a virtual dissection of the airplane and all its different parts would be quite desirable. Nevertheless, this means, that an instance segmentation of all components and objects of interest into disjoint entities from the CT data is necessary. As of currently, no adequate computer-assisted tools for automated or semi-automated segmentation of such XXL-airplane data are available, in a first step, an interactive data annotation and object labeling process has been established. So far, seven 512 x 512 x 512 voxel sub-volumes from the Me 163 airplane have been annotated and labeled, whose results can potentially be used for various new applications in the field of digital heritage, non-destructive testing, or machine-learning. This work describes the data acquisition process of the airplane using an industrial XXL-CT scanner, outlines the interactive segmentation and labeling scheme to annotate sub-volumes of the airplane's CT data, describes and discusses various challenges with respect to interpreting and handling the annotated and labeled data.
translated by 谷歌翻译
大脑的血管为人脑提供所需的营养和氧气。作为大脑血液供应的脆弱部分,小血管的病理可能会引起严重的问题,例如脑小血管疾病(CSVD)。还显示CSVD与神经变性有关,例如阿尔茨海默氏病。随着7个特斯拉MRI系统的发展,可以实现较高的空间图像分辨率,从而使大脑中非常小的血管描绘。非深度学习的方法进行血管分割的方法,例如,弗兰吉的血管增强,随后的阈值能够将培养基分割至大容器,但通常无法分割小血管。这些方法对小容器的敏感性可以通过广泛的参数调整或手动校正来提高,尽管使它们耗时,费力,并且对于较大的数据集而言是不可行的。本文提出了一个深度学习架构,以自动在7特斯拉3D飞行时间(TOF)磁共振血管造影(MRA)数据中自动分割小血管。该算法对仅11个受试者的小型半自动分段数据进行训练和评估;使用六个进行培训,两个进行验证,三个进行测试。基于U-NET多尺度监督的深度学习模型使用训练子集进行了训练,并以一种自我监督的方式使用变形 - 意识到的学习以改善概括性能。针对测试集对拟议的技术进行了定量和定性评估,并获得了80.44 $ \ pm $ 0.83的骰子得分。此外,将所提出的方法的结果与选定的手动分割区域(62.07结果骰子)进行了比较,并通过变形感知的学习显示出显着改善(18.98 \%)。
translated by 谷歌翻译
手写数字识别(HDR)是光学特征识别(OCR)领域中最具挑战性的任务之一。不管语言如何,HDR都存在一些固有的挑战,这主要是由于个人跨个人的写作风格的变化,编写媒介和环境的变化,无法在反复编写任何数字等时保持相同的笔触。除此之外,特定语言数字的结构复杂性可能会导致HDR的模棱两可。多年来,研究人员开发了许多离线和在线HDR管道,其中不同的图像处理技术与传统的机器学习(ML)基于基于的和/或基于深度学习(DL)的体系结构相结合。尽管文献中存在有关HDR的广泛审查研究的证据,例如:英语,阿拉伯语,印度,法尔西,中文等,但几乎没有对孟加拉人HDR(BHDR)的调查,这缺乏对孟加拉语HDR(BHDR)的研究,而这些调查缺乏对孟加拉语HDR(BHDR)的研究。挑战,基础识别过程以及可能的未来方向。在本文中,已经分析了孟加拉语手写数字的特征和固有的歧义,以及二十年来最先进的数据集的全面见解和离线BHDR的方法。此外,还详细讨论了一些涉及BHDR的现实应用特定研究。本文还将作为对离线BHDR背后科学感兴趣的研究人员的汇编,煽动了对相关研究的新途径的探索,这可能会进一步导致在不同应用领域对孟加拉语手写数字进行更好的离线认识。
translated by 谷歌翻译
大型医学成像数据集变得越来越多。这些数据集中的一个普遍挑战是确保每个样本满足没有重要人工制品的最低质量要求。尽管已经开发出广泛的现有自动方法来识别医学成像中的缺陷和人工制品,但它们主要依赖于渴望数据的方法。特别是,缺乏可用于培训的手工艺品的足够扫描,在临床研究中设计和部署机器学习方面造成了障碍。为了解决这个问题,我们提出了一个具有四个主要组成部分的新颖框架:(1)一组受磁共振物理启发的手工艺发电机,以损坏大脑MRI扫描和增强培训数据集,(2)一组抽象和工程的功能,紧凑地表示图像,(3)一个特征选择过程,取决于人工制品的类别以提高分类性能,以及(4)一组受过训练以识别人工制品的支持向量机(SVM)分类器。我们的新颖贡献是三重的:首先,我们使用新型的基于物理的人工制品发生器来生成以受控的人工制品作为数据增强技术的合成脑MRI扫描。这将避免使用稀有人工制品的劳动密集型收集和标记过程。其次,我们提出了开发的大量抽象和工程图像特征,以识别9种不同的结构MRI伪像。最后,我们使用一个基于人工制品的功能选择块,该块,对于每类的人工制品,可以找到提供最佳分类性能的功能集。我们对具有人工生成的人工制品的大量数据扫描进行了验证实验,并且在一项多发性硬化症临床试验中,专家确定了真实的人工制品,这表明拟议管道表现优于传统方法。
translated by 谷歌翻译
我们介绍了NeuralVDB,它通过利用机器学习的最新进步来提高现有的行业标准,以有效地存储稀疏体积数据,表示VDB。我们的新型混合数据结构可以通过数量级来减少VDB体积的内存足迹,同时保持其灵活性,并且只会产生一个小(用户控制的)压缩误差。具体而言,NeuralVDB用多个层次神经网络替换了浅和宽VDB树结构的下节点,这些神经网络分别通过神经分类器和回归器分别编码拓扑和价值信息。这种方法已证明可以最大化压缩比,同时保持高级VDB数据结构提供的空间适应性。对于稀疏的签名距离字段和密度量,我们已经观察到从已经压缩的VDB输入中的$ 10 \ times $ $ $ \ $ 100 \ $ 100 \ $ 100 \ $ 100 \ $ 100的压缩比,几乎没有可视化伪像。我们还展示了其在动画稀疏体积上的应用如何加速训练并产生时间连贯的神经网络。
translated by 谷歌翻译
Lung cancer is a severe menace to human health, due to which millions of people die because of late diagnoses of cancer; thus, it is vital to detect the disease as early as possible. The Computerized chest analysis Tomography of scan is assumed to be one of the efficient solutions for detecting and classifying lung nodules. The necessity of high accuracy of analyzing C.T. scan images of the lung is considered as one of the crucial challenges in detecting and classifying lung cancer. A new long-short-term-memory (LSTM) based deep fusion structure, is introduced, where, the texture features computed from lung nodules through new volumetric grey-level-co-occurrence-matrices (GLCM) computations are applied to classify the nodules into: benign, malignant and ambiguous. An improved Otsu segmentation method combined with the water strider optimization algorithm (WSA) is proposed to detect the lung nodules. Otsu-WSA thresholding can overcome the restrictions present in previous thresholding methods. Extended experiments are run to assess this fusion structure by considering 2D-GLCM computations based 2D-slices fusion, and an approximation of this 3D-GLCM with volumetric 2.5D-GLCM computations-based LSTM fusion structure. The proposed methods are trained and assessed through the LIDC-IDRI dataset, where 94.4%, 91.6%, and 95.8% Accuracy, sensitivity, and specificity are obtained, respectively for 2D-GLCM fusion and 97.33%, 96%, and 98%, accuracy, sensitivity, and specificity, respectively, for 2.5D-GLCM fusion. The yield of the same are 98.7%, 98%, and 99%, for the 3D-GLCM fusion. The obtained results and analysis indicate that the WSA-Otsu method requires less execution time and yields a more accurate thresholding process. It is found that 3D-GLCM based LSTM outperforms its counterparts.
translated by 谷歌翻译
混凝土是建筑,桥梁和道路的标准施工材料。由于安全在这种结构的设计,监测和维护中起着核心作用,因此了解混凝土的开裂行为非常重要。计算机断层扫描捕获建筑材料的微观结构,并允许研究裂纹启动和传播。大3D图像中的裂缝表面的手动分割是不可行的。在本文中,综述了3D图像的自动裂缝分段方法并进行了比较。经典图像处理方法(边缘检测滤波器,模板匹配,最小路径和区域生长算法)和学习方法(卷积神经网络,随机林)在半合成3D图像上进行测试和测试。它们的性能强烈依赖于参数选择,该参数选择应适应图像的灰度范围和混凝土的几何特性。通常,学习方法表现最佳,特别是对于薄裂缝和低灰度对比度。
translated by 谷歌翻译
背景和目的:电子显微镜(EM)的进步现在允许数百微米组织的三维(3D)成像具有纳米规模的分辨率,为研究大脑的超微结构提供新的机会。在这项工作中,我们介绍了一种可自由的GACSON软件,用于3D-EM脑组织样本中的骨髓轴突的可视化,分割,评估和形态分析。方法:Gacson软件配备了图形用户界面(GUI)。它自动分段粒细胞轴突的轴外空间及其相应的髓鞘护套,并允许手动分段,校对和分段组件的交互式校正。 GaCson分析骨髓轴突的形态,如轴突口,轴突偏心,髓鞘厚度或G比。结果:我们通过在假手术或创伤性脑损伤(TBI)之后,通过分割和分析Myelizing ansoce在大鼠躯体损伤(TBI)后的六3D-EM体积中的Myelized轴突来说明Gacson的使用。我们的研究结果表明,在损伤后五个月的TBI动物在躯体抑制皮质中近义Cortex中的近期骨髓轴突的等同直径。结论:我们的结果表明,GACSON是3D-EM卷中肢体化轴突的可视化,分割,评估和形态分析的有价值的工具。在麻省理工学院许可证下,Gacson在Https://github.com/andreabehan/g-acson免费提供。
translated by 谷歌翻译
Convolutional Neural Networks (CNNs) have been recently employed to solve problems from both the computer vision and medical image analysis fields. Despite their popularity, most approaches are only able to process 2D images while most medical data used in clinical practice consists of 3D volumes. In this work we propose an approach to 3D image segmentation based on a volumetric, fully convolutional, neural network. Our CNN is trained end-to-end on MRI volumes depicting prostate, and learns to predict segmentation for the whole volume at once. We introduce a novel objective function, that we optimise during training, based on Dice coefficient. In this way we can deal with situations where there is a strong imbalance between the number of foreground and background voxels. To cope with the limited number of annotated volumes available for training, we augment the data applying random non-linear transformations and histogram matching. We show in our experimental evaluation that our approach achieves good performances on challenging test data while requiring only a fraction of the processing time needed by other previous methods.
translated by 谷歌翻译
Delineation of the left ventricular cavity, myocardium and right ventricle from cardiac magnetic resonance images (multi-slice 2D cine MRI) is a common clinical task to establish diagnosis. The automation of the corresponding tasks has thus been the subject of intense research over the past decades. In this paper, we introduce the "Automatic Cardiac Diagnosis Challenge" dataset (ACDC), the largest publicly-available and fully-annotated dataset for the purpose of Cardiac MRI (CMR) assessment. The dataset contains data from 150 multi-equipments CMRI recordings with reference measurements and classification O. Bernard and F. Cervenansky are with the
translated by 谷歌翻译
X-ray imaging technology has been used for decades in clinical tasks to reveal the internal condition of different organs, and in recent years, it has become more common in other areas such as industry, security, and geography. The recent development of computer vision and machine learning techniques has also made it easier to automatically process X-ray images and several machine learning-based object (anomaly) detection, classification, and segmentation methods have been recently employed in X-ray image analysis. Due to the high potential of deep learning in related image processing applications, it has been used in most of the studies. This survey reviews the recent research on using computer vision and machine learning for X-ray analysis in industrial production and security applications and covers the applications, techniques, evaluation metrics, datasets, and performance comparison of those techniques on publicly available datasets. We also highlight some drawbacks in the published research and give recommendations for future research in computer vision-based X-ray analysis.
translated by 谷歌翻译