在大多数分类算法(例如逻辑/线性回归)中,偏置项在正则化时被忽略。如果我们不对偏置项进行正则化,是否可以获得更好的分类效果?
在大多数分类算法(例如逻辑/线性回归)中,偏置项在正则化时被忽略。如果我们不对偏置项进行正则化,是否可以获得更好的分类效果?
例子:
Y = aX + b
正则化的基本思想是过拟合Y
是由于a
“过度具体化”,这通常表现为a
的元素值过大。
b
仅仅是关系的偏移量,因此其比例对于这个问题来说并不那么重要。此外,如果出于某种原因需要一个大的偏移量,对其进行正则化会防止找到正确的关系。
所以答案在于:在Y = aX + b
中,a
与解释/独立变量相乘,而b
则加到其上。
X
称作“解释变量”?有什么参考资料吗?谢谢。 - CyberPlayerOneX
被称为"因变量"。 - Def_OsX
应该是_自变量_,而Y
是因变量(Y
取决于X
)。针对@Tyler的问题,所链接的文章将“解释变量”作为自变量的同义词提及。 - wjakobw