为什么在普通文本文件输入输出中,“ slurping” 文件不是一个好的实践,何时使用它?
例如,为什么我不应该使用这些操作?
File.read('/path/to/text.txt').lines.each do |line|
# do something with a line
end
或者File.readlines('/path/to/text.txt').each do |line|
# do something with a line
end
我们经常看到有关读取文本文件并逐行处理的问题,使用的是read
或readlines
的变体,这些方法在一次操作中将整个文件加载到内存中。
read
的文档表示:
打开文件,可选地搜索给定的偏移量,然后返回长度字节(默认为文件的其余部分)。 [...]
readlines
的文档表示:
将指定名称的整个文件读取为单独的行,并将这些行作为数组返回。 [...]
读取一个小文件不是什么大问题,但当传入数据的缓冲区增长时,内存必须进行调整,这会消耗CPU时间。此外,如果数据占用太多空间,则操作系统必须参与才能使脚本运行并开始向磁盘写入,这将使程序崩溃。对于Web主机或需要快速响应的系统,它将使整个应用程序受到损害。
“Slurping”通常基于对文件I/O速度的误解或认为读取然后拆分缓冲区比每次读取一行更好。
这里有一些测试代码,用于演示由于“slurping”而导致的问题。
将其保存为“test.sh”:
echo Building test files...
yes "abcdefghijklmnopqrstuvwxyz 123456890" | head -c 1000 > kb.txt
yes "abcdefghijklmnopqrstuvwxyz 123456890" | head -c 1000000 > mb.txt
yes "abcdefghijklmnopqrstuvwxyz 123456890" | head -c 1000000000 > gb1.txt
cat gb1.txt gb1.txt > gb2.txt
cat gb1.txt gb2.txt > gb3.txt
echo Testing...
ruby -v
echo
for i in kb.txt mb.txt gb1.txt gb2.txt gb3.txt
do
echo
echo "Running: time ruby readlines.rb $i"
time ruby readlines.rb $i
echo '---------------------------------------'
echo "Running: time ruby foreach.rb $i"
time ruby foreach.rb $i
echo
done
rm [km]b.txt gb[123].txt
它创建了逐渐增加的五个文件。1K 文件被轻松处理并且非常常见。曾经认为 1MB 的文件很大,但现在很常见。在我的环境中,1GB 是常见的,而超过 10GB 的文件会周期性地出现,因此了解 1GB 及以上发生的情况非常重要。
请将此内容保存为“readlines.rb”。它本身不做任何实际操作,只是内部逐行读取整个文件,并将其附加到一个数组中,然后返回该数组,似乎会很快,因为所有内容都是用 C 写的。lines = File.readlines(ARGV.shift).size
puts "#{ lines } lines read"
将此内容保存为"foreach.rb":
lines = 0
File.foreach(ARGV.shift) { |l| lines += 1 }
puts "#{ lines } lines read"
在我的笔记本电脑上运行 sh ./test.sh
,我得到了以下结果:
Building test files...
Testing...
ruby 2.1.2p95 (2014-05-08 revision 45877) [x86_64-darwin13.0]
读取1K文件:
Running: time ruby readlines.rb kb.txt
28 lines read
real 0m0.998s
user 0m0.386s
sys 0m0.594s
---------------------------------------
Running: time ruby foreach.rb kb.txt
28 lines read
real 0m1.019s
user 0m0.395s
sys 0m0.616s
读取 1MB 文件:
Running: time ruby readlines.rb mb.txt
27028 lines read
real 0m1.021s
user 0m0.398s
sys 0m0.611s
---------------------------------------
Running: time ruby foreach.rb mb.txt
27028 lines read
real 0m0.990s
user 0m0.391s
sys 0m0.591s
读取 1GB 文件:
Running: time ruby readlines.rb gb1.txt
27027028 lines read
real 0m19.407s
user 0m17.134s
sys 0m2.262s
---------------------------------------
Running: time ruby foreach.rb gb1.txt
27027028 lines read
real 0m10.378s
user 0m9.472s
sys 0m0.898s
读取2GB文件:
Running: time ruby readlines.rb gb2.txt
54054055 lines read
real 0m58.904s
user 0m54.718s
sys 0m4.029s
---------------------------------------
Running: time ruby foreach.rb gb2.txt
54054055 lines read
real 0m19.992s
user 0m18.765s
sys 0m1.194s
读取3GB的文件:
Running: time ruby readlines.rb gb3.txt
81081082 lines read
real 2m7.260s
user 1m57.410s
sys 0m7.007s
---------------------------------------
Running: time ruby foreach.rb gb3.txt
81081082 lines read
real 0m33.116s
user 0m30.790s
sys 0m2.134s
注意,每当文件大小增加一倍时,readlines
运行时间将减慢两倍,并且使用 foreach
的速度会线性减慢。在 1MB 处,我们可以看到有些东西影响了“抽吸式”I/O,但不影响逐行读取。而且,因为现在 1MB 的文件非常普遍,如果我们不提前考虑,就容易看到它们会在程序的生命周期内减慢文件处理速度。这种情况发生一两秒钟并不会太明显,但如果一分钟发生多次,到年底时会对性能产生严重影响。foreach
,使每次读取都来自缓存,而无需为整个文件分配内存的开销。 - yeyoforeach
可能会有所帮助,就像 slurping 一样。如果文件比缓存大,它将强制进行额外的读取,这可能会对 slurping 产生一些影响,但我认为它不会像超出可用内存并使系统开始分页那样严重。 - the Tin Manopen()
方法默认按行读取。请参见"改善你的Python:'yield'和生成器解释",其中解释了生成器函数的一个很好的用例示例。
read
和readlines
是一种不好的做法。除非你处理的应用程序中输入的大小是无限的,否则避免使用这些简单而方便的函数会显得过于早熟的优化。 - Maxforeach
已经超越了使用 slurping。从那时起,foreach
稳步地拉开了与read
类型I/O之间的差距。一次读取和处理一条记录一百万次比一次性读取一百万行并同时处理它们更不容易出现故障。 - the Tin Man