我正在尝试使用scikit-learn中包含的广义线性模型拟合方法来拟合向量自回归(VAR)模型。线性模型的形式为y = Xw,但系统矩阵X具有非常特殊的结构:它是块对角线,并且所有块都相同。为了优化性能和内存消耗,该模型可以表示为Y = BW,其中B是来自X的块,而Y和W现在是矩阵而不是向量。
类LinearRegression、Ridge、RidgeCV、Lasso和ElasticNet可以轻松接受后一种模型结构。然而,由于Y是二维的,拟合LassoCV或ElasticNetCV会失败。
我发现了https://github.com/scikit-learn/scikit-learn/issues/2402 从这个讨论中,我认为LassoCV/ElasticNetCV的行为是有意的。 除了手动实现交叉验证外,是否有一种优化alpha/rho参数的方法?
此外,scikit-learn中的贝叶斯回归技术也期望y是一维的。有没有什么解决方法?
注:我使用的是稳定版scikit-learn 0.14。
我发现了https://github.com/scikit-learn/scikit-learn/issues/2402 从这个讨论中,我认为LassoCV/ElasticNetCV的行为是有意的。 除了手动实现交叉验证外,是否有一种优化alpha/rho参数的方法?
此外,scikit-learn中的贝叶斯回归技术也期望y是一维的。有没有什么解决方法?
注:我使用的是稳定版scikit-learn 0.14。