R:一个函数的“整洁”版本比原始版本慢得多,我想知道为什么。

3
我有一些带有唯一ID的受试者数据,每个访问都在数据框的不同行中。某些信息,例如性别或出生年份,可能只在一个访问时收集,但在任何访问中都是相关的。对于未收集信息的访问,该字段将为NA。因此,我创建了一个函数,将给定字段的受试者信息复制到所有访问中,替换NA。这起作用了,但代码很笨重,现在我正在学习整洁数据处理,想要将其纳入其中以使代码更清晰。我还期望它可以加快处理速度,但事实并非如此。
首先,这里是一些玩具数据:
data <- tibble(record_id = c(rep(LETTERS[1:4], 3)), 
               year1 = c(NA, NA, 2000, 2001, 2002, rep(NA, 7)),
               year2 = c(rep(NA, 5), 2003, 2004, 2005, 2006, rep(NA, 3)))

以下内容将产生所需的结果:
data %>% 
  group_by(id) %>% 
  arrange(year1, .by_group = T) %>% 
  fill(year1) %>%
  arrange(year2) %>%
  fill(year2)

在我整理之前,我创建了这段代码,它运行得很好。
mash.old <- function(data, variable){
  x <- data[!is.na(data[,variable]),] %>%
    distinct(record_id, .keep_all = T)
  x <- as.data.frame(x)
  for(i in 1:nrow(data)){
    if(is.na(data[i,variable]) &
       data[i, "record_id"] %in% x$record_id){
      id <- data[i, "record_id"]
      data[i,variable] <- x[x$record_id == as.character(id),
                            variable]
    }else{
      next
    }
  }
  rm(x, id, i)
  return(data)
}

我可以运行

data <- mash.old(data, 'year1')
data <- mash.old(data, 'year2')

并获得所需的结果。

我希望通过允许接受一组变量来执行函数、选择分组变量(受试者id变量名称)以及使用dplyr/tidyr来改进它。于是我创建了这个:

mash.new <- function(data, variables, grouping.var = record_id){
  for(i in variables){
    data <- data %>%
      group_by(!!enquo(grouping.var)) %>%
      arrange((!!sym(i)), .by_group = T) %>%
      fill(!!sym(i)) %>%
      ungroup()
  }
  return(data)
}

现在,mash.new(data, c('year1, 'year2'))将返回预期的结果。对于这个小数据框没有问题。
我的实际数据框有15762行,我想为12个变量运行该函数。mash.old()花了大约4分钟来完成这个任务。mash.new()说需要大约3个小时,所以我在大约5分钟左右停止了它。
我的问题是为什么会有如此巨大的差异?我认为我的第一个函数很业余和笨拙,我认为我正在进行改进。只是因为分组、排列、填充和分组的过程需要更多的计算能力吗?有没有更好的编写方法?我是自学成才,只是想提高自己的技能。
编辑
谢谢您的帮助。这是我最终使用的函数。尽管Cole的data.table版本更快,但我选择坚持使用dplyr方法,只是因为我熟悉它。
mash <- function(data, variables, grouping.var = record_id){
   data <- data %>%
      arrange(!!enquo(grouping.var)) %>%
      group_by(!!enquo(grouping.var)) %>%
      mutate_at(vars(!!!variables), 
                function(x) zoo::na.locf(x[order(x)], na.rm = F)) %>%
      ungroup()
   return(data)
}
#Note that if there are two different entries for a given subject in a 
#variable, this will fill with the data that comes last in the sort order

数据 %>% 按(record_id) 分组 %>% 填补(-record_id) %>% 填补(-record_id, .direction = 'up') - alistaire
1
fill 通常非常慢。我会用 zoo::na.locf 替换它,看看会发生什么。 - arg0naut91
1个回答

2

最大的改进是一次性使用 group_by()。目前,您正在进行12个分组和取消分组操作,这增加了许多不必要的开销。另外,新函数会将所有内容重新赋值给自身,如果我们处于 year1,就没有理由要干扰 year2report_id 的内存。

library(dplyr)
library(zoo)

data%>%
  arrange(record_id)%>%
  group_by(record_id)%>%
  mutate_at(vars(-group_cols()), function(x) zoo::na.locf(x[order(x)], na.rm = F))%>%
  ungroup()

# A tibble: 12 x 3
   record_id year1 year2
   <chr>     <dbl> <dbl>
 1 A          2002  2006
 2 A          2002  2006
 3 A          2002  2006
 4 B            NA  2003
 5 B            NA  2003
 6 B            NA  2003
 7 C          2000  2004
 8 C          2000  2004
 9 C          2000  2004
10 D          2001  2005
11 D          2001  2005
12 D          2001  2005

此外,我最喜欢的是data.table。它简短而精致: "最初的回答"
library(data.table)
library(zoo)

dt <- as.data.table(data)

vars_n <- names(dt)[-1] #included if you want to make a function later
dt[,lapply(.SD, function(x) zoo::na.locf(x[order(x)], na.rm = F)), keyby = record_id, .SDcols = vars_n]

它也是最快的。

Unit: milliseconds
           expr     min       lq      mean   median       uq      max neval
     cole_dplyr  3.2388  3.39800  3.588391  3.47175  3.62610   6.6420   100
       cole_dt2  1.6135  1.83535  2.082963  1.96230  2.07435   6.7179   100
    mashing_old  4.6119  4.86305  5.175244  4.94930  5.10220   9.1026   100
    mashing_new 16.1860 16.82445 18.610696 17.30585 18.01270 101.6192   100
 OP_non_mashing 15.1633 15.57970 16.914889 16.10400 16.97860  46.5837   100

我所有的代码 - 基准测试在底部:

library(tidyverse)

data <- tibble(record_id = c(rep(LETTERS[1:4], 3)), 
               year1 = c(NA, NA, 2000, 2001, 2002, rep(NA, 7)),
               year2 = c(rep(NA, 5), 2003, 2004, 2005, 2006, rep(NA, 3)))

data <- tibble(record_id = c(rep(LETTERS[1:4], 3)), 
               year1 = c(NA, NA, 2000, 2001, 2002, rep(NA, 7)),
               year2 = c(rep(NA, 5), 2003, 2004, 2005, 2006, 2002, rep(NA, 2)))

data

library(data.table)
dt <- as.data.table(data)

vars_n <- names(dt)[-1] #included if you want to make a function later
dt[,lapply(.SD, function(x) zoo::na.locf(x[order(x)], na.rm = F)), keyby = record_id, .SDcols = vars_n]


data%>%
  arrange(record_id)%>%
  group_by(record_id)%>%
  mutate_at(vars(-group_cols()), function(x) zoo::na.locf(x[order(x)], na.rm = F))%>%
  ungroup()

mash.old <- function(data, variable){
  x <- data[!is.na(data[,variable]),] %>%
    distinct(record_id, .keep_all = T)
  x <- as.data.frame(x)
  for(i in 1:nrow(data)){
    if(is.na(data[i,variable]) &
       data[i, "record_id"] %in% x$record_id){
      id <- data[i, "record_id"]
      data[i,variable] <- x[x$record_id == as.character(id),
                            variable]
    }else{
      next
    }
  }
  rm(x, id, i)
  return(data)
}

mash.new <- function(data, variables, grouping.var = record_id){
  for(i in variables){
    data <- data %>%
      group_by(!!enquo(grouping.var)) %>%
      arrange((!!sym(i)), .by_group = T) %>%
      fill(!!sym(i)) %>%
      ungroup()
  }
  return(data)
}

library(microbenchmark)

microbenchmark(
  cole_dplyr = {
    data %>%
      arrange(record_id)%>%
      group_by(record_id)%>%
      mutate_at(vars(-group_cols()), function(x) zoo::na.locf(x[order(x)], na.rm = F))%>%
      ungroup()
  }
  ,
  # cole_dt = {
  #   dt1 <- copy(dt)
  #   
  #   vars_n <- names(dt1)[-1]
  #   dt1[, (vars_n) := lapply(.SD, function(x) zoo::na.locf(sort(x))), keyby = record_id]
  # },
  cole_dt2 = {
    dt[,lapply(.SD, function(x) zoo::na.locf(x[order(x)], na.rm = F)), keyby = record_id]
    },
  mashing_old = {
    data1 <- data
    data1 <- mash.old(data1, 'year1')
    data1 <- mash.old(data1, 'year2')
  }
  ,
  mashing_new = {
    mash.new(data, c('year1', 'year2'))
  }
  , OP_non_mashing = {
    data %>%
      group_by(record_id) %>%
      arrange(year1, .by_group = T) %>%
      fill(year1) %>%
      arrange(year2) %>%
      fill(year2)
  }
)

2
不错的回答。我建议将 as.data.table() 移出“在基准测试中测量”的函数,也许将其变为简单的 copy()(因为数据会发生变异)。如果我这样做,data.table 的优势差距会进一步扩大。 - Dirk Eddelbuettel

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接