我想使用多个预测器来预测多个依赖变量。如果我理解正确的话,原则上可以创建一堆线性回归模型,每个模型都预测一个依赖变量,但是如果依赖变量之间有相关性,使用多元回归更有意义。我想做后者,但不确定如何操作。
到目前为止,我没有找到一个专门支持这种情况的Python包。我已经尝试了scikit-learn,即使他们的线性回归模型示例只显示y是数组的情况(每次观察一个依赖变量),它似乎能够处理多个y。但是当我将此“多元”方法的输出与手动循环遍历每个依赖变量并独立地进行预测时获得的结果进行比较时,结果完全相同。我认为这不应该是这种情况,因为某些依赖变量之间存在强相关性(> 0.5)。
代码看起来像这样,其中y是一个n x 1或n x m的矩阵,而x和newx是各种大小的矩阵(x中的行数== n)。
到目前为止,我没有找到一个专门支持这种情况的Python包。我已经尝试了scikit-learn,即使他们的线性回归模型示例只显示y是数组的情况(每次观察一个依赖变量),它似乎能够处理多个y。但是当我将此“多元”方法的输出与手动循环遍历每个依赖变量并独立地进行预测时获得的结果进行比较时,结果完全相同。我认为这不应该是这种情况,因为某些依赖变量之间存在强相关性(> 0.5)。
代码看起来像这样,其中y是一个n x 1或n x m的矩阵,而x和newx是各种大小的矩阵(x中的行数== n)。
ols = linear_model.LinearRegression()
ols.fit(x,y)
ols.predict(newx)
这个函数是否确实执行多元回归?