numpy中的tofile()函数在保存非常大的数组时会保存所有零值。

4

当我试图保存一个非常大的数组(20000 x 20000个元素),结果返回全是零:

In [2]: shape = (2e4,)*2

In [3]: r = np.random.randint(0, 10, shape)

In [4]: r.tofile('r.data')

In [5]: ls -lh r.data
-rw-r--r--  1 whg  staff   3.0G 23 Jul 16:18 r.data

In [6]: r[:6,:6]
Out[6]:
array([[6, 9, 8, 7, 4, 4],
       [5, 9, 5, 0, 9, 4],
       [6, 0, 9, 5, 7, 6],
       [4, 0, 8, 8, 4, 7],
       [8, 3, 3, 8, 7, 9],
       [5, 6, 1, 3, 1, 4]])

In [7]: r = np.fromfile('r.data', dtype=np.int64)

In [8]: r = r.reshape(shape)

In [9]: r[:6,:6]
Out[9]:
array([[0, 0, 0, 0, 0, 0],
       [0, 0, 0, 0, 0, 0],
       [0, 0, 0, 0, 0, 0],
       [0, 0, 0, 0, 0, 0],
       [0, 0, 0, 0, 0, 0],
       [0, 0, 0, 0, 0, 0]])

np.save()执行类似奇怪的操作。

在搜索网络后,我发现在OSX中存在已知的错误:

https://github.com/numpy/numpy/issues/2806

当我尝试使用Python的read()从文件中读取tostring()数据时,会出现内存错误。

有更好的方法吗?有人可以推荐解决此问题的实用解决方法吗?

1个回答

1
使用 mmap 进行内存映射文件,并使用 np.frombuffer 创建指向缓冲区的数组。在 x86_64 Linux 上进行了测试。
# `r.data` created as in the question
>>> import mmap
>>> with open('r.data') as f:
...   m = mmap.mmap(f.fileno(), 0, mmap.MAP_SHARED, mmap.PROT_READ)
... 
>>> r = np.frombuffer(m, dtype='int64')
>>> r = r.reshape(shape)
>>> r[:6, :6]
array([[7, 5, 9, 5, 3, 5],
       [2, 7, 2, 6, 7, 0],
       [9, 4, 8, 2, 5, 0],
       [7, 2, 4, 6, 6, 7],
       [2, 9, 2, 2, 2, 6],
       [5, 2, 2, 6, 1, 5]])

请注意,这里的r是内存映射数据的视图,这使其更加节省内存,但会自动捕捉文件内容的变化。如果您希望它指向数据的私有副本,就像np.fromfile返回的数组一样,请添加r = np.copy(r)
(另外,如此编写的代码在Windows下无法运行,需要使用稍微不同的mmap标志。)

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接