大多数机器学习(ML)算法具有多个随机元素,并且它们的性能受这些随机性来源的影响。本文使用一项经验研究来系统地检查两个来源的效果:模型训练中的随机性和在数据集分配到训练和测试子集中的随机性中。我们量化和比较以下ML算法的预测性能变化的幅度:随机森林(RFS),梯度增强机(GBMS)和前馈神经网络(FFNNS)。在不同的算法中,与基于树的方法相比,模型训练中的随机性会导致FFNN的变化更大。这是可以预期的,因为FFNN具有更多的随机元素,这些元素是其模型初始化和训练的一部分。我们还发现,与模型训练的固有随机性相比,数据集的随机分裂会导致更高的变化。如果原始数据集具有相当大的异质性,则数据拆分的变化可能是一个主要问题。关键字:模型培训,可重复性,变化
translated by 谷歌翻译