K-Fold交叉验证是一种技术,用于将数据分成K个Fold进行测试和训练。目标是估计机器学习模型的泛化能力。模型通过每个Train-fold一次,然后在相应的Test-fold上进行测试进行K次训练。
假设我想在具有10个Folds的任意数据集上比较决策树和逻辑回归模型。假设在每个Fold上训练各自的模型并获得相应的测试准确性之后,逻辑回归在测试Folds上具有更高的平均准确性,表明它是该数据集的更好模型。
现在,对于应用和部署,我是重新在所有数据上训练逻辑回归模型,还是创建从训练K-Folds上的10个逻辑回归模型中的集合?