根据Max Kuhn的网络书-
在此处搜索method = 'glm'
,在
caret
中没有调整参数
glm
。
![enter image description here](https://istack.dev59.com/zWVgO.webp)
我们可以通过测试一些基本的
train
调用来轻松验证这一点。首先,让我们从一个有调整参数(
cp
)的方法(
rpart
)开始,这是根据网络书籍的要求。
library(caret)
data(GermanCredit)
modelLookup('rpart')
set.seed(1)
model_rpart <- train(Class ~., data=GermanCredit, method='rpart')
model_rpart
我们可以看到cp
参数已经调整过了。现在让我们尝试一下glm
。
modelLookup('glm')
set.seed(1)
model_glm <- train(Class ~., data=GermanCredit, method='glm')
model_glm
在上面的glm
案例中,没有进行参数调整。根据我的经验,似乎名为parameter
的parameter
只是一个占位符,而不是真正的调整参数。如下面的代码所示,即使我们试图强制调整parameter
,它基本上只会执行单个值。
set.seed(1)
model_glm2 <- train(Class ~., data=GermanCredit, method='glm',
tuneGrid=expand.grid(parameter=c(0.001, 0.01, 0.1, 1,10,100, 1000)))
model_glm2
modelLookup("glm")
,请参见此处:https://stackoverflow.com/questions/43970831/the-tuning-parameter-in-glm-vs-rf/44010331#44010331 - Marco SandrituneLength
并观察caret
决定变化的参数,而不是直接开始制定网格,这也是一个不错的想法。 - dmi3knoglm
方法没有调整参数 https://topepo.github.io/caret/train-models-by-tag.html,里面的那个是虚拟调整参数,它不起作用。 - jmuhlenkamp