根据OP的评论更新
如果在百万行以上进行此操作,所有提供的选项都会很慢。以下是对一个虚拟数据集(100,000行)进行比较所需的时间:
set.seed(12)
DF3 <- data.frame(id = sample(1000, 100000, replace = TRUE),
group = factor(rep(1:100, each = 1000)),
value = runif(100000))
DF3 <- within(DF3, idu <- factor(paste(id, group, sep = "_")))
> system.time(out1 <- do.call(rbind, lapply(split(DF3, DF3["group"]), `[`, 1, )))
user system elapsed
19.594 0.053 19.984
> system.time(out3 <- aggregate(DF3[,-2], DF3["group"], function (x) x[1]))
user system elapsed
12.419 0.141 12.788
我放弃了处理一百万行的数据。信不信由你,更快的方法是:
out2 <- matrix(unlist(lapply(split(DF3[, -4], DF3["group"]), `[`, 1,)),
byrow = TRUE, nrow = (lev <- length(levels(DF3$group))))
colnames(out2) <- names(DF3)[-4]
rownames(out2) <- seq_len(lev)
out2 <- as.data.frame(out2)
out2$group <- factor(out2$group)
out2$idu <- factor(paste(out2$id, out2$group, sep = "_"),
levels = levels(DF3$idu))
输出结果(实际上)是相同的:
> all.equal(out1, out2)
[1] TRUE
> all.equal(out1, out3[, c(2,1,3,4)])
[1] "Attributes: < Component 2: Modes: character, numeric >"
[2] "Attributes: < Component 2: target is character, current is numeric >"
(out1
(或out2
)和out3
(aggregate()
版本)之间的区别仅在于组件的行名称。)
计时为:
user system elapsed
0.163 0.001 0.168
在处理10万行问题和百万行问题时:
set.seed(12)
DF3 <- data.frame(id = sample(1000, 1000000, replace = TRUE),
group = factor(rep(1:1000, each = 1000)),
value = runif(1000000))
DF3 <- within(DF3, idu <- factor(paste(id, group, sep = "_")))
在计时方面
user system elapsed
11.916 0.000 11.925
使用矩阵版本(生成out2
)在处理100,000行问题时比其他版本更快,这表明使用矩阵非常快速,而我的do.call()
版本中的瓶颈是将结果rbind()
在一起。
百万行问题的计时是通过以下方式完成的:
system.time({out4 <- matrix(unlist(lapply(split(DF3[, -4], DF3["group"]),
`[`, 1,)),
byrow = TRUE,
nrow = (lev <- length(levels(DF3$group))))
colnames(out4) <- names(DF3)[-4]
rownames(out4) <- seq_len(lev)
out4 <- as.data.frame(out4)
out4$group <- factor(out4$group)
out4$idu <- factor(paste(out4$id, out4$group, sep = "_"),
levels = levels(DF3$idu))})
翻译
如果你的数据在DF
中,那么:
do.call(rbind, lapply(with(DF, split(DF, group)), head, 1))
会做你想要的:
> do.call(rbind, lapply(with(DF, split(DF, group)), head, 1))
idu group
1 1 1
2 4 2
3 7 3
如果新数据在DF2
中,则我们会得到:
> do.call(rbind, lapply(with(DF2, split(DF2, group)), head, 1))
id group idu value
1 1 1 1_1 34
2 4 2 4_2 6
3 1 3 1_3 34
但是为了速度,我们可能想要使用子集而不是使用head()
,并且通过不使用with()
可以获得一些收益,例如:
do.call(rbind, lapply(split(DF2, DF2$group), `[`, 1, ))
> system.time(replicate(1000, do.call(rbind, lapply(split(DF2, DF2$group), `[`, 1, ))))
user system elapsed
3.847 0.040 4.044
> system.time(replicate(1000, do.call(rbind, lapply(split(DF2, DF2$group), head, 1))))
user system elapsed
4.058 0.038 4.111
> system.time(replicate(1000, aggregate(DF2[,-2], DF2["group"], function (x) x[1])))
user system elapsed
3.902 0.042 4.106
duplicated
的帮助文档,您可以看到它实际上是“重复”的一个相当具体的定义 - “具有较小下标的元素的重复项”。 因此,当遇到组ID的第一次时,R仅查看其处理过的先前记录,而不是任何前面的副本。 所以它返回FALSE,这是Hadley反转的。 - Matt Parker