这是我在这里的第一个问题,希望我做得没错。
我正在处理kaggle上流行的泰坦尼克号数据集,如果您想查看的话,这是教程“一个数据科学框架:实现99%的准确性”。
其中的5.2部分介绍了如何使用网格搜索和调整超参数。在我提出具体问题之前,让我与您分享相关代码;
这是使用GridSearchCV调整模型:
cv_split = model_selection.ShuffleSplit(n_splits = 10, test_size = .3, train_size = .6, random_state = 0)
#cv_split = model_selection.KFold(n_splits=10, shuffle=False, random_state=None)
param_grid = {'criterion': ['gini', 'entropy'],
'splitter': ['best', 'random'], #splitting methodology; two supported strategies - default is best
'max_depth': [2,4,6,8,10,None], #max depth tree can grow; default is none
'min_samples_split': [2,5,10,.03,.05], #minimum subset size BEFORE new split (fraction is % of total); default is 2
'min_samples_leaf': [1,5,10,.03,.05], #minimum subset size AFTER new split split (fraction is % of total); default is 1
'max_features': [None, 'auto'], #max features to consider when performing split; default none or all
'random_state': [0] }
tune_model = model_selection.GridSearchCV(tree.DecisionTreeClassifier(), param_grid=param_grid, scoring = 'roc_auc', return_train_score = True ,cv = cv_split)
tune_model.fit(data1[data1_x_bin], data1[Target])`
tune_model.best_params_
result is:
{'criterion': 'gini',
'max_depth': 4,
'max_features': None,
'min_samples_leaf': 5,
'min_samples_split': 2,
'random_state': 0,
'splitter': 'best'}
根据代码,当使用这些内容进行调整时,训练和测试准确性应该是这样的:
print(tune_model.cv_results_['mean_train_score'][tune_model.best_index_], tune_model.cv_results_['mean_test_score'][tune_model.best_index_])
这个的输出结果是:0.8924916598172832 0.8767742588186237
出于好奇,我想使用GridSearchCV得到的参数来创建自己的DecisionTreeClassifier()。
dtree = tree.DecisionTreeClassifier(criterion = 'gini',max_depth = 4,max_features= None, min_samples_leaf= 5, min_samples_split= 2,random_state = 0, splitter ='best')
results = model_selection.cross_validate(dtree, data1[data1_x_bin], data1[Target],return_train_score = True, cv = cv_split)
相同的超参数,相同的交叉验证数据集,为什么结果不同?
print(results['train_score'].mean(), results['test_score'].mean())
0.8387640449438202 0.8227611940298509
那是tune_model的结果:
0.8924916598172832 0.8767742588186237
区别甚至不小。如果你问我,两个结果应该是相同的。
我不明白有何不同?是什么不同导致结果不同?
我尝试使用k-fold进行交叉验证,而不是使用shufflesplit。
在两种情况下,我都尝试了不同的random_state值,也尝试了random_state = None,
但仍然得到了不同的结果。
有人能解释一下这种差异吗?
编辑:顺便说一句,我还想检查测试样本的结果:
dtree.fit(data1[data1_x_bin],data1[Target])
dtree.score(test1_x_bin,test1_y), tune_model.score(test1_x_bin,test1_y)
输出结果:(0.8295964125560538, 0.9033059266872216)
相同的模型(decisiontreeclassifier),相同的超参数,却得到了非常不同的结果。
(显然它们并不是完全相同的模型,但我无法看出原因和原因所在。)