和大多数人一样,我对 Hadley Wickham 以及他为 R 所做的贡献印象深刻——所以我想把一些函数移到他的 tidyverse 中……但是这样做后,我不禁在想这一切的意义何在?
我的新的 dplyr 函数比它们基础版本的慢得多——我希望我做错了什么。我特别希望能从理解 non-standard-evaluation 所需的努力中获得一些回报。
那么,我做错了什么?为什么 dplyr 如此慢?
一个例子:
require(microbenchmark)
require(dplyr)
df <- tibble(
a = 1:10,
b = c(1:5, 4:0),
c = 10:1)
addSpread_base <- function() {
df[['spread']] <- df[['a']] - df[['b']]
df
}
addSpread_dplyr <- function() df %>% mutate(spread := a - b)
all.equal(addSpread_base(), addSpread_dplyr())
microbenchmark(addSpread_base(), addSpread_dplyr(), times = 1e4)
计时结果:
Unit: microseconds
expr min lq mean median uq max neval
addSpread_base() 12.058 15.769 22.07805 24.58 26.435 2003.481 10000
addSpread_dplyr() 607.537 624.697 666.08964 631.19 636.291 41143.691 10000
使用 dplyr
函数转换数据需要的时间大约是原来方法的30倍—这肯定不是本意吧?
我想也许这个案例太简单了,如果我们有一个更加现实的情况,在其中添加列并对数据进行子集划分,那么 dplyr
就会发挥出它真正的优势--但事实上情况更糟。如下面的计时所示,这比基础方法慢了约70倍。
# mutate and substitute
addSpreadSub_base <- function(df, col1, col2) {
df[['spread']] <- df[['a']] - df[['b']]
df[, c(col1, col2, 'spread')]
}
addSpreadSub_dplyr <- function(df, col1, col2) {
var1 <- as.name(col1)
var2 <- as.name(col2)
qq <- quo(!!var1 - !!var2)
df %>%
mutate(spread := !!qq) %>%
select(!!var1, !!var2, spread)
}
all.equal(addSpreadSub_base(df, col1 = 'a', col2 = 'b'),
addSpreadSub_dplyr(df, col1 = 'a', col2 = 'b'))
microbenchmark(addSpreadSub_base(df, col1 = 'a', col2 = 'b'),
addSpreadSub_dplyr(df, col1 = 'a', col2 = 'b'),
times = 1e4)
结果:
Unit: microseconds
expr min lq mean median uq max neval
addSpreadSub_base(df, col1 = "a", col2 = "b") 22.725 30.610 44.3874 45.450 53.798 2024.35 10000
addSpreadSub_dplyr(df, col1 = "a", col2 = "b") 2748.757 2837.337 3011.1982 2859.598 2904.583 44207.81 10000
mutate
中使用了:=
,并且它居然生效了。难道=
不是标准用法吗? - Henrik