通过填写数据集中的缺失值,插入允许这些数据集与无法自行处理缺失值的算法一起使用。但是,缺少的价值原则上可能会贡献通过插补而丢失的有用信息。缺失的指示方法可以与归档的结合使用,而是将此信息表示为数据集的一部分。有几个理论上的考虑因素为什么缺失指导者可能会或可能没有好处,但是在现实生活中没有任何大规模实践实验来测试此问题以进行机器学习预测。我们根据二十个现实生活数据集对三种归纳策略和一系列不同的分类算法进行此实验。我们发现,在这些数据集上,缺失指标通常会提高分类性能。此外,我们没有发现大多数算法的证据表明,最近的邻居和迭代插补比简单的平均/模式插补带来更好的性能。因此,我们建议使用具有平均/模式归档的缺失指标作为安全的默认值,需要将决策树用于防止过度拟合。在后续实验中,我们确定每个分类器的属性特异性缺失阈值,在该实验中,缺失指标更有可能增加分类性能,并观察到这些阈值的分类要比数值属性要低得多。最后,我们认为,数值属性的插补的平均值可能会保留一些信息中的某些信息,并且我们表明,在没有缺失的指示器的情况下,将平均插入量应用于单热编码的分类属性而不是,而不是有用模式插补。
translated by 谷歌翻译
在不完整的数据集中对样本进行分类是机器学习从业人员的普遍目的,但并非平凡。在大多数现实世界数据集中发现缺失的数据,这些缺失值通常是使用已建立的方法估算的,然后进行分类现在完成,估算的样本。然后,机器学习研究人员的重点是优化下游分类性能。在这项研究中,我们强调必须考虑插补的质量。我们展示了如何评估质量的常用措施有缺陷,并提出了一类新的差异评分,这些分数着重于该方法重新创建数据的整体分布的程度。总而言之,我们强调了使用不良数据训练的分类器模型的可解释性损害。
translated by 谷歌翻译
尽管电子健康记录是生物医学研究的丰富数据来源,但这些系统并未在医疗环境中统一地实施,并且由于医疗保健碎片化和孤立的电子健康记录之间缺乏互操作性,可能缺少大量数据。考虑到缺少数据的案例的删除可能会在随后的分析中引起严重的偏见,因此,一些作者更喜欢采用多重插补策略来恢复缺失的信息。不幸的是,尽管几项文献作品已经通过使用现在可以自由研究的任何不同的多个归档算法记录了有希望的结果,但尚无共识,MI算法效果最好。除了选择MI策略之外,归纳算法及其应用程序设置的选择也至关重要且具有挑战性。在本文中,受鲁宾和范布伦的开创性作品的启发,我们提出了一个方法学框架,可以应用于评估和比较多种多个插补技术,旨在选择用于计算临床研究工作中最有效的推断。我们的框架已被应用于验证和扩展较大的队列,这是我们在先前的文献研究中提出的结果,我们在其中评估了关键患者的描述符和Covid-19的影响在2型糖尿病患者中的影响,其数据为2型糖尿病,其数据为2型糖尿病由国家共同队列合作飞地提供。
translated by 谷歌翻译
在机器学习的许多应用中,不可避免的值是不可避免的,并且在培训和测试时都提出了挑战。当反复出现的模式中缺少变量时,已经提出了单独的图案子模型作为解决方案。但是,独立模型并不能有效利用所有可用数据。相反,将共享模型拟合到完整数据集通常取决于插补,而当丢失度取决于未观察到的因素时,这可能是次优的。我们提出了一种替代方法,称为共享模式子模型,该方法做出了a)在测试时对缺失值的强大预测,b)维持或提高模式子模型的预测能力,c)有一个简短的描述,可改善可解释性。我们确定共享是最佳的情况,即使缺失本身具有预测性以及预测目标取决于未观察到的变量。关于合成数据和两个医疗保健数据集的分类和回归实验表明,我们的模型在模式专业化和信息共享之间实现了良好的权衡。
translated by 谷歌翻译
考虑在数据集中插入缺失值的问题。一方面,使用迭代插补的一方面,传统的方法可以直接从学习条件分布的简单性和可定制性中受益,但遭受了对每个变量的适当模型规范的实际要求。另一方面,使用深层生成建模的最新方法受益于神经网络功能近似器的学习能力和效率,但通常很难优化和依赖更强大的数据假设。在这项工作中,我们研究了一种嫁给两者优势的方法:我们提出了 *Hyperibute *,这是一种适应性和自动配置列型模型及其超级参数的广义迭代插补框架。实际上,我们为开箱即用的学习者,优化者,模拟器和可扩展的接口提供具体的实现。从经验上讲,我们通过在各种公共数据集上通过全面的实验和敏感性调查了该框架,并证明了其相对于强大基准测试套件而产生准确的归精的能力。与最近的工作相反,我们认为我们的发现构成了对迭代归档范式的强烈辩护。
translated by 谷歌翻译
保护私人信息是数据驱动的研究和业务环境中的关键问题。通常,引入匿名或(选择性)删除之类的技术,以允许数据共享,e。 G。在协作研究的情况下。为了与匿名技术一起使用,$ k $ - 匿名标准是最受欢迎的标准之一,具有许多有关不同算法和指标的科学出版物。匿名技术通常需要更改数据,因此必然会影响在基础数据上训练的机器学习模型的结果。在这项工作中,我们对不同的$ k $ - 匿名算法对机器学习模型结果的影响进行了系统的比较和详细研究。我们研究了与不同分类器的一组流行的$ K $匿名算法,并在不同的现实数据集上对其进行评估。我们的系统评估表明,凭借越来越强的$ K $匿名性约束,分类性能通常会降低,但在不同程度上,并且强烈取决于数据集和匿名方法。此外,蒙德里安可以被视为具有最具吸引力的后续分类属性的方法。
translated by 谷歌翻译
大多数机器学习算法由一个或多个超参数配置,必须仔细选择并且通常会影响性能。为避免耗时和不可递销的手动试验和错误过程来查找性能良好的超参数配置,可以采用各种自动超参数优化(HPO)方法,例如,基于监督机器学习的重新采样误差估计。本文介绍了HPO后,本文审查了重要的HPO方法,如网格或随机搜索,进化算法,贝叶斯优化,超带和赛车。它给出了关于进行HPO的重要选择的实用建议,包括HPO算法本身,性能评估,如何将HPO与ML管道,运行时改进和并行化结合起来。这项工作伴随着附录,其中包含关于R和Python的特定软件包的信息,以及用于特定学习算法的信息和推荐的超参数搜索空间。我们还提供笔记本电脑,这些笔记本展示了这项工作的概念作为补充文件。
translated by 谷歌翻译
机器学习(ML)提供了在具有较大特征空间和复杂关联的数据中通常在数据中检测和建模关联的强大方法。已经开发了许多有用的工具/软件包(例如Scikit-learn),以使数据处理,处理,建模和解释的各种要素可访问。但是,对于大多数研究人员来说,将这些元素组装成严格,可复制,无偏见和有效的数据分析管道并不是微不足道的。自动化机器学习(AUTOML)试图通过简化所有人的ML分析过程来解决这些问题。在这里,我们介绍了一个简单,透明的端到端汽车管道,设计为一个框架,以轻松进行严格的ML建模和分析(最初限于二进制分类)。 Streamline专门设计用于比较数据集,ML算法和其他AutoML工具之间的性能。通过使用精心设计的一系列管道元素,通过提供完全透明且一致的比较基线,它是独特的,包括:(1)探索性分析,(2)基本数据清洁,(3)交叉验证分区,(4)数据缩放和插补,(5)基于滤波器的特征重要性估计,(6)集体特征选择,(7)通过15个已建立算法的“ Optuna”超参数优化的ML建模(包括较不知名的基因编程和基于规则的ML ),(8)跨16个分类指标的评估,(9)模型特征重要性估计,(10)统计显着性比较,以及(11)自动导出所有结果,图,PDF摘要报告以及可以轻松应用于复制数据。
translated by 谷歌翻译
我们为五个数据描述符优化的一级分类提供了彻底处理一级分类:支持向量机(SVM),最近的邻居距离(NND),局部最近的邻居距离(LNND),本地离群因子(LOF)和平均局部接近性(ALP)。 SVM和LOF的超参数必须通过交叉验证进行优化,而NND,LNND和ALP允许有效的保留验证形式,并重新使用单个最近的近近地查询。我们通过从50个数据集中提取的246个分类问题来评估超参数优化的效果。从一系列优化算法中,最近的Malherbe-Powell提案最有效地优化了所有数据描述符的超参数。我们计算了测试AUROC的增加以及过度拟合的量,这是高参数评估数量的函数。经过50次评估,ALP和SVM显着胜过LOF,NND和LNND,LOF和NND的表现均优于LNND。 ALP和SVM的性能是可比的,但是ALP可以更有效地优化ALP,因此构成了一个不错的默认选择。另外,使用验证AUROC作为ALP或SVM之间的选择标准可获得最佳的总体结果,而NND是计算要求最少的选项。因此,我们最终以三种选择之间的明确权衡取舍,从而允许从业者做出明智的决定。
translated by 谷歌翻译
我们介绍了数据科学预测生命周期中各个阶段开发和采用自动化的技术和文化挑战的说明概述,从而将重点限制为使用结构化数据集的监督学习。此外,我们回顾了流行的开源Python工具,这些工具实施了针对自动化挑战的通用解决方案模式,并突出了我们认为进步仍然需要的差距。
translated by 谷歌翻译
缺少价值是传感器中非常普遍且不可避免的问题,研究人员已经进行了许多尝试丢失价值的尝试,尤其是在深度学习模型中。但是,对于实际传感器数据,很少考虑特定的数据分布和数据周期,因此很难为不同传感器选择适当的评估索引和模型。为了解决这个问题,本研究提出了一个基于深度学习的多阶段插补框架,并适应缺失价值插补。该模型提出了数据分布的低阶和高阶统计数据的混合测量指数,以及对数据插补性能指标的新观点,该指标比传统的平均平方误差更适应性和有效。多阶段的归档策略和动态数据长度被引入数据周期的插补过程中。对不同类型的传感器数据的实验结果表明,多阶段的归合策略和混合指数是优越的,并且缺失价值插补的效果在一定程度上得到了改善,尤其是对于大段插补问题。代码和实验结果已上传到GitHub。
translated by 谷歌翻译
Dataset scaling, also known as normalization, is an essential preprocessing step in a machine learning pipeline. It is aimed at adjusting attributes scales in a way that they all vary within the same range. This transformation is known to improve the performance of classification models, but there are several scaling techniques to choose from, and this choice is not generally done carefully. In this paper, we execute a broad experiment comparing the impact of 5 scaling techniques on the performances of 20 classification algorithms among monolithic and ensemble models, applying them to 82 publicly available datasets with varying imbalance ratios. Results show that the choice of scaling technique matters for classification performance, and the performance difference between the best and the worst scaling technique is relevant and statistically significant in most cases. They also indicate that choosing an inadequate technique can be more detrimental to classification performance than not scaling the data at all. We also show how the performance variation of an ensemble model, considering different scaling techniques, tends to be dictated by that of its base model. Finally, we discuss the relationship between a model's sensitivity to the choice of scaling technique and its performance and provide insights into its applicability on different model deployment scenarios. Full results and source code for the experiments in this paper are available in a GitHub repository.\footnote{https://github.com/amorimlb/scaling\_matters}
translated by 谷歌翻译
Missing values are a common problem in data science and machine learning. Removing instances with missing values can adversely affect the quality of further data analysis. This is exacerbated when there are relatively many more features than instances, and thus the proportion of affected instances is high. Such a scenario is common in many important domains, for example, single nucleotide polymorphism (SNP) datasets provide a large number of features over a genome for a relatively small number of individuals. To preserve as much information as possible prior to modeling, a rigorous imputation scheme is acutely needed. While Denoising Autoencoders is a state-of-the-art method for imputation in high-dimensional data, they still require enough complete cases to be trained on which is often not available in real-world problems. In this paper, we consider missing value imputation as a multi-label classification problem and propose Chains of Autoreplicative Random Forests. Using multi-label Random Forests instead of neural networks works well for low-sampled data as there are fewer parameters to optimize. Experiments on several SNP datasets show that our algorithm effectively imputes missing values based only on information from the dataset and exhibits better performance than standard algorithms that do not require any additional information. In this paper, the algorithm is implemented specifically for SNP data, but it can easily be adapted for other cases of missing value imputation.
translated by 谷歌翻译
包括机器学习在内的计算分析方法对基因组学和医学领域具有重大影响。高通量基因表达分析方法,例如微阵列技术和RNA测序产生大量数据。传统上,统计方法用于基因表达数据的比较分析。但是,针对样品观察分类或发现特征基因的分类的更复杂的分析需要复杂的计算方法。在这篇综述中,我们编译了用于分析表达微阵列数据的各种统计和计算工具。即使在表达微阵列的背景下讨论了这些方法,也可以将它们应用于RNA测序和定量蛋白质组学数据集的分析。我们讨论缺失价值的类型以及其插补中通常采用的方法和方法。我们还讨论了数据归一化,特征选择和特征提取的方法。最后,详细描述了分类和类发现方法及其评估参数。我们认为,这项详细的审查将帮助用户根据预期结果选择适当的方法来预处理和分析其数据。
translated by 谷歌翻译
比较不同的汽车框架是具有挑战性的,并且经常做错了。我们引入了一个开放且可扩展的基准测试,该基准遵循最佳实践,并在比较自动框架时避免常见错误。我们对71个分类和33项回归任务进行了9个著名的自动框架进行了详尽的比较。通过多面分析,评估模型的准确性,与推理时间的权衡以及框架失败,探索了自动框架之间的差异。我们还使用Bradley-terry树来发现相对自动框架排名不同的任务子集。基准配备了一个开源工具,该工具与许多自动框架集成并自动化经验评估过程端到端:从框架安装和资源分配到深入评估。基准测试使用公共数据集,可以轻松地使用其他Automl框架和任务扩展,并且具有最新结果的网站。
translated by 谷歌翻译
由于其在提高培训数据质量方面的重要性,标签噪声检测已被广泛研究。通过采用分类器的集合来实现令人满意的噪声检测。在这种方法中,如果池中的池中的高比例成员分配错误,则将实例分配为误标定。以前的作者已经经验评估了这种方法;然而,它们主要假设在数据集中随机生成标签噪声。这是一个强烈的假设,因为其他类型的标签噪声在实践中是可行的并且可以影响噪声检测结果。这项工作调查了两个不同噪声模型下集合噪声检测的性能:随机(nar)的嘈杂,其中标签噪声的概率取决于实例类,与在随机模型中完全嘈杂相比,其中概率标签噪声完全独立。在此设置中,我们研究了类分布对噪声检测性能的影响,因为它在NAR假设下改变了数据集中观察到的总噪声水平。此外,对集合投票阈值进行评估以与文献中最常见的方法形成对比。在许多执行的实验中,在考虑不同类别中的类别不平衡和噪声水平比等方面时,选择噪声产生模型可以导致不同的结果。
translated by 谷歌翻译
This paper proposes a new tree-based ensemble method for supervised classification and regression problems. It essentially consists of randomizing strongly both attribute and cut-point choice while splitting a tree node. In the extreme case, it builds totally randomized trees whose structures are independent of the output values of the learning sample. The strength of the randomization can be tuned to problem specifics by the appropriate choice of a parameter. We evaluate the robustness of the default choice of this parameter, and we also provide insight on how to adjust it in particular situations. Besides accuracy, the main strength of the resulting algorithm is computational efficiency. A bias/variance analysis of the Extra-Trees algorithm is also provided as well as a geometrical and a kernel characterization of the models induced.
translated by 谷歌翻译
本文考虑了在分解正常形式(DNF,ANDS的DNF,ANDS,相当于判定规则集)或联合正常形式(CNF,ORS)作为分类模型的联合正常形式的学习。为规则简化,将整数程序配制成最佳贸易分类准确性。我们还考虑公平设定,并扩大制定,以包括对两种不同分类措施的明确限制:机会平等和均等的赔率。列生成(CG)用于有效地搜索候选条款(连词或剖钉)的指数数量,而不需要启发式规则挖掘。此方法还会绑定所选规则集之间的间隙和培训数据上的最佳规则集。要处理大型数据集,我们建议使用随机化的近似CG算法。与三个最近提出的替代方案相比,CG算法主导了16个数据集中的8个中的精度简单折衷。当最大限度地提高精度时,CG与为此目的设计的规则学习者具有竞争力,有时发现明显更简单的解决方案,这些解决方案不太准确。与其他公平和可解释的分类器相比,我们的方法能够找到符合较严格的公平概念的规则集,以适度的折衷准确性。
translated by 谷歌翻译
心脏病已成为对人类生活产生重大影响的最严重疾病之一。在过去的十年中,它已成为全球人民死亡的主要原因之一。为了防止患者进一步损害,准确地诊断为心脏病是一个重要因素。最近,我们看到了非侵入性医学程序的用法,例如医学领域的基于人工智能的技术。专门的机器学习采用了多种算法和技术,这些算法和技术被广泛使用,并且在较少的时间以诊断心脏病的准确诊断非常有用。但是,对心脏病的预测并不是一件容易的事。医疗数据集的规模不断增加,使从业者了解复杂的特征关系并做出疾病预测是一项复杂的任务。因此,这项研究的目的是从高度维数据集中确定最重要的风险因素,这有助于对心脏病的准确分类,并减少并发症。为了进行更广泛的分析,我们使用了具有各种医学特征的两个心脏病数据集。基准模型的分类结果证明,相关特征对分类精度产生了很大的影响。即使功能减少,与在全功能集中训练的模型相比,分类模型的性能随着训练时间的减少而显着提高。
translated by 谷歌翻译
Electronic Health Records (EHRs) are a valuable asset to facilitate clinical research and point of care applications; however, many challenges such as data privacy concerns impede its optimal utilization. Deep generative models, particularly, Generative Adversarial Networks (GANs) show great promise in generating synthetic EHR data by learning underlying data distributions while achieving excellent performance and addressing these challenges. This work aims to review the major developments in various applications of GANs for EHRs and provides an overview of the proposed methodologies. For this purpose, we combine perspectives from healthcare applications and machine learning techniques in terms of source datasets and the fidelity and privacy evaluation of the generated synthetic datasets. We also compile a list of the metrics and datasets used by the reviewed works, which can be utilized as benchmarks for future research in the field. We conclude by discussing challenges in GANs for EHRs development and proposing recommended practices. We hope that this work motivates novel research development directions in the intersection of healthcare and machine learning.
translated by 谷歌翻译