我使用许多固定宽度的文件(即没有分隔符)需要在 R 中读取。因此,通常需要定义列宽以将字符串解析为变量。我可以使用 read.fwf
无问题地读取数据。但是对于大型文件,这可能需要很长时间。对于最近的一个数据集,读取包含约 500,000 行和 143 个变量的数据集花费了 800 秒钟。
seer9 <- read.fwf("~/data/rawdata.txt",
widths = cols,
header = FALSE,
buffersize = 250000,
colClasses = "character",
stringsAsFactors = FALSE))
data.table
包中的fread
在解决大多数数据读取问题时非常棒,但是它无法解析固定宽度文件。但是,我可以将每行作为单个字符字符串(约500,000行,1列)读入。这只需要3-5秒钟。(我喜欢data.table。)
seer9 <- fread("~/data/rawdata.txt", colClasses = "character",
sep = "\n", header = FALSE, verbose = TRUE)
在SO上有很多关于如何解析文本文件的好帖子。请参见JHoward的建议here,创建一个起始和结束列的矩阵,并使用substr
解析数据。请参见GSee的建议here,使用strsplit
。我无法弄清楚如何将其与此数据配合使用。(此外,Michael Smith在data.table邮件列表中提出了一些涉及sed
的建议,这超出了我的能力implement)。现在,使用fread
和substr()
,我可以在大约25-30秒内完成整个过程。请注意,强制转换为data.table需要一定的时间(5秒?)。
end_col <- cumsum(cols)
start_col <- end_col - cols + 1
start_end <- cbind(start_col, end_col) # matrix of start and end positions
text <- lapply(seer9, function(x) {
apply(start_end, 1, function(y) substr(x, y[1], y[2]))
})
dt <- data.table(text$V1)
setnames(dt, old = 1:ncol(dt), new = seervars)
我想知道这个能不能进一步改善?我知道不仅仅是我需要读取固定宽度的文件,如果能让它更快,就可以容忍读入更大的文件(有数百万行)。我尝试使用parallel
和mclapply
以及data.table
代替lapply
,但并没有改变什么。(可能是由于我在R上的经验不足。)我想象中,可以编写一个Rcpp函数来实现真正快速的操作,但这超出了我的技能范围。而且,我可能没有正确地使用lapply和apply。
我的data.table
实现(使用magrittr
管道)时间相同:
text <- seer9[ , apply(start_end, 1, function(y) substr(V1, y[1], y[2]))] %>%
data.table(.)
有人能提出改进这个代码速度的建议吗?或者说,这已经是最好的了吗?
以下是在R中创建类似数据表的代码(而不是链接到实际数据)。它应该有331个字符和500,000行。其中包含一些空格以模拟数据中的缺失字段,但这不是基于空格分隔的数据。(我正在读取原始SEER数据,如果有人感兴趣的话)同时包含列宽(cols)和变量名(seervars),以便帮助其他人。这些是SEER数据的实际列和变量定义。
seer9 <-
data.table(rep((paste0(paste0(letters, 1000:1054, " ", collapse = ""), " ")),
500000))
cols = c(8,10,1,2,1,1,1,3,4,3,2,2,4,4,1,4,1,4,1,1,1,1,3,2,2,1,2,2,13,2,4,1,1,1,1,3,3,3,2,3,3,3,3,3,3,3,2,2,2,2,1,1,1,1,1,6,6,6,2,1,1,2,1,1,1,1,1,2,2,1,1,2,1,1,1,1,1,1,1,1,1,1,1,1,1,1,7,5,4,10,3,3,2,2,2,3,1,1,1,1,2,2,1,1,2,1,9,5,5,1,1,1,2,2,1,1,1,1,1,1,1,1,2,3,3,3,3,3,3,1,4,1,4,1,1,3,3,3,3,2,2,2,2)
seervars <- c("CASENUM", "REG", "MAR_STAT", "RACE", "ORIGIN", "NHIA", "SEX", "AGE_DX", "YR_BRTH", "PLC_BRTH", "SEQ_NUM", "DATE_mo", "DATE_yr", "SITEO2V", "LATERAL", "HISTO2V", "BEHO2V", "HISTO3V", "BEHO3V", "GRADE", "DX_CONF", "REPT_SRC", "EOD10_SZ", "EOD10_EX", "EOD10_PE", "EOD10_ND", "EOD10_PN", "EOD10_NE", "EOD13", "EOD2", "EOD4", "EODCODE", "TUMOR_1V", "TUMOR_2V", "TUMOR_3V", "CS_SIZE", "CS_EXT", "CS_NODE", "CS_METS", "CS_SSF1", "CS_SSF2", "CS_SSF3", "CS_SSF4", "CS_SSF5", "CS_SSF6", "CS_SSF25", "D_AJCC_T", "D_AJCC_N", "D_AJCC_M", "D_AJCC_S", "D_SSG77", "D_SSG00", "D_AJCC_F", "D_SSG77F", "D_SSG00F", "CSV_ORG", "CSV_DER", "CSV_CUR", "SURGPRIM", "SCOPE", "SURGOTH", "SURGNODE", "RECONST", "NO_SURG", "RADIATN", "RAD_BRN", "RAD_SURG", "SS_SURG", "SRPRIM02", "SCOPE02", "SRGOTH02", "REC_NO", "O_SITAGE", "O_SEQCON", "O_SEQLAT", "O_SURCON", "O_SITTYP", "H_BENIGN", "O_RPTSRC", "O_DFSITE", "O_LEUKDX", "O_SITBEH", "O_EODDT", "O_SITEOD", "O_SITMOR", "TYPEFUP", "AGE_REC", "SITERWHO", "ICDOTO9V", "ICDOT10V", "ICCC3WHO", "ICCC3XWHO", "BEHANAL", "HISTREC", "BRAINREC", "CS0204SCHEMA", "RAC_RECA", "RAC_RECY", "NHIAREC", "HST_STGA", "AJCC_STG", "AJ_3SEER", "SSG77", "SSG2000", "NUMPRIMS", "FIRSTPRM", "STCOUNTY", "ICD_5DIG", "CODKM", "STAT_REC", "IHS", "HIST_SSG_2000", "AYA_RECODE", "LYMPHOMA_RECODE", "DTH_CLASS", "O_DTH_CLASS", "EXTEVAL", "NODEEVAL", "METSEVAL", "INTPRIM", "ERSTATUS", "PRSTATUS", "CSSCHEMA", "CS_SSF8", "CS_SSF10", "CS_SSF11", "CS_SSF13", "CS_SSF15", "CS_SSF16", "VASINV", "SRV_TIME_MON", "SRV_TIME_MON_FLAG", "SRV_TIME_MON_PA", "SRV_TIME_MON_FLAG_PA", "INSREC_PUB", "DAJCC7T", "DAJCC7N", "DAJCC7M", "DAJCC7STG", "ADJTM_6VALUE", "ADJNM_6VALUE", "ADJM_6VALUE", "ADJAJCCSTG")
更新: LaF从原始的.txt文件中读取所有内容只用了不到7秒钟。也许还有更快的方法,但我怀疑任何东西都不能做得更好了。这个软件包真是太神奇了。
2015年7月27日更新 只想提供一个小小的更新。我使用了新的readr包,并且使用readr::read_fwf在5秒钟内读入了整个文件。
seer9_readr <- read_fwf("path_to_data/COLRECT.TXT",
col_positions = fwf_widths(cols))
此外,更新后的stringi::stri_sub函数至少比base::substr()快两倍。因此,在上面的代码中,使用fread读取文件(约4秒),然后使用apply解析每一行,使用stringi::stri_sub提取143个变量只需要大约8秒,而对于base::substr则需要19秒。因此,fread加上stri_sub仍然只需要大约12秒才能运行。不错。
seer9 <- fread("path_to_data/COLRECT.TXT",
colClasses = "character",
sep = "\n",
header = FALSE)
text <- seer9[ , apply(start_end, 1, function(y) substr(V1, y[1], y[2]))] %>%
data.table(.)
2015年12月10日更新:
请查看下面由@MichaelChirico提供的答案,他添加了一些很棒的基准测试和iotools软件包。
fread()
在5秒内将所有数据读入RAM中。我认为问题在于如何并行解析这500k个字符串。 - bdemarestfread
和substr
的代码,子字符串的解析确实是瓶颈,这可以并行处理。 - Jan van der Laan