如何使用Vars包中的套索(lasso)功能?

7

我试图通过惩罚向量自回归方法分析一个高维数据集(31个变量,1100个观测值)。

由于我使用 Diebold et al.(2019)介绍的技术通过方差分解矩阵构建连接度网络,因此我想在 R 中使用他们的包: https://www.rdocumentation.org/packages/vars/versions/1.5-3/topics/fevd

然而,这个包只能用于常规 VAR 估计。我想使用一种惩罚回归,比如 LASSO。那么,如何在 R 中使用他们的包进行惩罚 VAR?

我尝试了什么? 在 GitHub 上使用了 lassovar 包。但是,我不能在 fevd() 函数中使用它。它显示:

"only uses estimate from the Vars class."


你需要为Lassovars编写一个自定义的FEVD函数。你能提供Lassovars包的链接吗?我在任何地方都没有看到源代码。 - shadowtalker
@Manfretto,以下回答是否解决了您的问题? - patalt
@shadowtalker 你好,很抱歉我仍然无法使用惩罚回归计算连通性表。你有什么解决方法吗?我想要计算一个连通性表,就像这个:https://ibb.co/JHd2Qmy。可以通过R包genFEVD()进行计算,链接为https://www.rdocumentation.org/packages/frequencyConnectedness/versions/0.1.6/topics/genFEVD。但是,无法使用惩罚项来估计VAR(p)模型,它只允许正常的VAR(p)估计。 - Manfretto
1个回答

5
使用以下示例数据,为这个非常有趣的问题提供一个候选解决方案。为了适应受罚VAR,我使用了最近发布的BigVAR包。此时它不具备产生FEVDs、历史分解、预测范围图等通常的额外功能,但通过cv.BigVAR可以获得来自约简形式模型的所有必要输出。这是我下面的第一步所做的。我将把调整约简形式估计的工作留给你,使用软件包功能进行微调。
# BigVAR ----
library(BigVAR)
library(expm)
library(data.table)

# Create model
data(Y)

p = 4 # lags
k = ncol(Y) # number of equations
N = nrow(Y) - p # number of obs

# Create a Basic VAR-L (Lasso Penalty) with maximum lag order p=4, 10 gridpoints with lambda optimized according to rolling validation of 1-step ahead MSFE
mod1 = constructModel(Y,p,"Basic",gran=c(150,10),RVAR=FALSE,h=1,cv="Rolling",MN=FALSE,verbose=FALSE,IC=TRUE)
results = cv.BigVAR(mod1)

# Get model estimates
A = results@betaPred[,2:ncol(results@betaPred)] # (k x (k*p)) = (3 x (3*4)) coefficient matrix (reduced form)
Sigma = crossprod(resid(varres))/(N-(k*p)-1)

从那里,我们可以使用标准公式计算FEVD。为了介绍方便,我强烈推荐Lutz Kilian和Helmut Lütkepohl的《结构向量自回归分析》第4章Chapter 4。下面实现了我们从简化形式IRFs到MSPE再到R中计算FEVD所需的一切公式。这可能需要花费很多时间,而且我没有时间来优化这段代码,因此可能还可以更有效地完成,但希望它仍然具有信息性。请注意,我使用标准的Choleski分解来识别VAR,因此变量排序的通常含义适用。
# A number of helper functions ----
# Compute reduced-form IRFs:
compute_Phi = function(p, k, A_comp, n.ahead) {
  
  J = matrix(0,nrow=k,ncol=k*p)
  diag(J) = 1
  
  Phi = lapply(1:n.ahead, function(i) {
    J %*% (A_comp %^% (i-1)) %*% t(J)
  })
  
  return(Phi)
  
}

# Compute orthogonalized IRFs:
compute_theta_kj_sq = function(Theta, n.ahead) {
  
  theta_kj_sq = lapply(1:n.ahead, function(h) { # loop over h time periods
    out = sapply(1:ncol(Theta[[h]]), function(k) {
      terms_to_sum = lapply(1:h, function(i) {
        Theta[[i]][k,]**2
      })
      theta_kj_sq_h = Reduce(`+`, terms_to_sum)
    })
    colnames(out) = colnames(Theta[[h]])
    return(out)
  })
  
  return(theta_kj_sq)
}

# Compute mean squared prediction error:
compute_mspe = function(Theta, n.ahead=10) {
  mspe = lapply(1:n.ahead, function(h) {
    terms_to_sum = lapply(1:h, function(i) {
      tcrossprod(Theta[[i]])
    })
    mspe_h = Reduce(`+`, terms_to_sum)
  })
}

# Function for FEVD:
fevd = function(A, Sigma, n.ahead) {
  
  k = dim(A)[1] # number of equations
  p = dim(A)[2]/k # number of lags
  
  # Turn into companion form:
  if (p>1) {
    A_comp = VarptoVar1MC(A,p,k) 
  } else {
    A_comp = A
  }
  
  # Compute MSPE: ----
  Phi = compute_Phi(p,k,A_comp,n.ahead)
  P = t(chol.default(Sigma)) # lower triangular Cholesky factor
  B_0 = solve(P) # identification matrix
  Theta = lapply(1:length(Phi), function(i) {
    Phi[[i]] %*% solve(B_0)
  })
  theta_kj_sq = compute_theta_kj_sq(Theta, n.ahead) # Squared orthogonaliyed IRFs
  mspe = compute_mspe(Theta, n.ahead)
  
  # Compute percentage contributions (i.e. FEVDs): ----
  fevd_list = lapply(1:k, function(k) {
    t(sapply(1:length(mspe), function(h) {
      mspe_k = mspe[[h]][k,k]
      theta_k_sq = theta_kj_sq[[h]][,k]
      fevd = theta_k_sq/mspe_k
    }))
  })
  
  # Tidy up
  fevd_tidy = data.table::rbindlist(
    lapply(1:length(fevd_list), function(k) {
      fevd_k = data.table::melt(data.table::data.table(fevd_list[[k]])[,h:=.I], id.vars = "h", variable.name = "j")
      fevd_k[,k:=paste0("V",k)]
      data.table::setcolorder(fevd_k, c("k", "j", "h"))
    })
  )
  
  return(fevd_tidy)
}

最后,让我们实现 n.ahead=20 的公式并绘制结果。
fevd_res = fevd(A, Sigma, 20)

library(ggplot2)

p = ggplot(data=fevd_res) +
  geom_area(aes(x=h, y=value, fill=j)) +
  facet_wrap(k ~ .) +
  scale_x_continuous(
    expand=c(0,0)
  ) +
  scale_fill_discrete(
    name = "Shock"
  ) +
  labs(
    y = "Variance contribution",
    x = "Forecast horizon"
  ) +
  theme_bw()
p

FEVD plots

希望这对你有所帮助,如果有任何后续问题,请随时提出。
最后要注意的一点是:我已经使用你在问题中提到的vars包将FEVD函数与标准VAR的结果进行了比较,并且检查通过(如下所示)。但这是我的“单元测试”范围。代码尚未经过任何人的审核,请自行查阅公式。如果您或其他人发现任何错误,我将非常感谢您的反馈。 编辑1 为了完整起见,添加了一个快速比较vars::fevd返回的结果和上述自定义函数的结果。
# Compare to vars package ----
library(vars)

p = 4 # lags
k = ncol(Y) # number of equations
N = nrow(Y) - p
colnames(Y) = sprintf("V%i", 1:ncol(Y))
n.ahead = 20

varres = vars::VAR(Y,p) # reduced-form model using package command; vars:: to make clear that pkg

# Get estimates for custom fevd function:
Sigma = crossprod(resid(varres))/(N-(k*p)-1)
A = t(
  sapply(coef(varres), function(i) {
    i[,1]
  })
)
A = A[,1:(ncol(A)-1)]

# Run the two different functions:
fevd_pkg = vars::fevd(varres, n.ahead)
fevd_cus = fevd(A, Sigma, n.ahead)

现在比较第一个变量的输出:
> # Package:
> head(fevd_pkg$V1)
            V1         V2         V3
[1,] 1.0000000 0.00000000 0.00000000
[2,] 0.9399842 0.01303013 0.04698572
[3,] 0.9422918 0.01062750 0.04708065
[4,] 0.9231440 0.01409313 0.06276291
[5,] 0.9305901 0.01335727 0.05605267
[6,] 0.9093144 0.01278727 0.07789833
> # Custom:
> head(dcast(fevd_cus[k=="V1"], k+h~j, value.var = "value"))
    k h        V1         V2         V3
1: V1 1 1.0000000 0.00000000 0.00000000
2: V1 2 0.9399842 0.01303013 0.04698572
3: V1 3 0.9422918 0.01062750 0.04708065
4: V1 4 0.9231440 0.01409313 0.06276291
5: V1 5 0.9305901 0.01335727 0.05605267
6: V1 6 0.9093144 0.01278727 0.07789833

编辑2

如果不依赖于vars :: VAR()的输出,您可以使用以下函数在R中获得广义FEVD。我已经回收了frequencyConnectedness :: genFEVD的一些源代码。

# Generalized FEVD ----
library(frequencyConnectedness)

genFEVD_cus = function(
  A, 
  Sigma, 
  n.ahead, 
  no.corr=F
) {
  
  k = dim(A)[1] # number of equations
  p = dim(A)[2]/k # number of lags
  
  # Turn into companion form:
  if (p>1) {
    A_comp = BigVAR::VarptoVar1MC(A,p,k) 
  } else {
    A_comp = A
  }
  
  # Set off-diagonals to zero:
  if (no.corr) {
    Sigma = diag(diag(Sigma))
  }
  
  Phi = compute_Phi(p,k,A_comp,n.ahead+1) # Reduced-form irfs
  
  denom = diag(Reduce("+", lapply(Phi, function(i) i %*% Sigma %*% 
                                    t(i))))
  enum = Reduce("+", lapply(Phi, function(i) (i %*% Sigma)^2))
  tab = sapply(1:nrow(enum), function(j) enum[j, ]/(denom[j] * 
                                                      diag(Sigma)))
  tab = t(apply(tab, 2, function(i) i/sum(i)))
  
  return(tab)
}

继续上面的例子(Edit 1),将自定义函数的结果与依赖于vars::VAR()输出的frequencyConnectedness::genFEVD的结果进行比较:

> frequencyConnectedness::genFEVD(varres, n.ahead)
             V1         V2         V3
[1,] 0.89215734 0.02281892 0.08502374
[2,] 0.72025050 0.19335481 0.08639469
[3,] 0.08328267 0.11769438 0.79902295
> genFEVD_cus(A, Sigma, n.ahead)
             V1         V2         V3
[1,] 0.89215734 0.02281892 0.08502374
[2,] 0.72025050 0.19335481 0.08639469
[3,] 0.08328267 0.11769438 0.79902295

Het Patalt,非常感谢您的回答和代码完美地运行!然而,在函数:genFEVD(Var_Normal,n.ahead = 20,no.corr = F)中,我得到了一个31 x 31矩阵(我的模型中有31个变量),所有行加起来为1。当我使用您的代码时,它只有6行(即使我仍然有31个变量),就像您的示例一样。所以我的问题是,如何使用big.var包中的n.ahead,lambda估计值计算广义矩阵?我认为我接近了您的输入,但还没有到达目标。 - Manfretto
要明确的是,我的自定义函数fevd_cus以整洁的格式返回结果,但您可以验证每个变量k在每个预测时点h的方差总和为1。这也可以从提供的图表中看出。希望对您有所帮助! - patalt
嗨,patalalt,不幸的是,我仍然无法计算连接表。这是我想要得到的表格 https://ibb.co/JHd2Qmy。可以通过R包genFEVD()进行计算 https://www.rdocumentation.org/packages/frequencyConnectedness/versions/0.1.6/topics/genFEVD。 - Manfretto
以前没有使用过这个,但会查看@Manfretto。 - patalt
我已经在(Edit 2)中添加了解决方案。正如我上面所说,我不熟悉GFEVD并且还没有时间去研究它。但是只要frequencyConnectedness函数的功能正确,那么上面的自定义函数也是正确的。我有点困惑于frequencyConnectedness::genFEVD使用约简形式而不是正交IRFs,但让我们假设这是正确的? - patalt
显示剩余6条评论

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接