我经常需要对一个非常大的混合数据类型的DataFrame
分组应用一个函数,并希望利用多个核心。
我可以从这些分组创建一个迭代器并使用multiprocessing模块,但这样效率不高,因为每个分组和函数的结果都必须进行pickle处理以在进程间传递信息。
是否有任何方法可以避免pickle,甚至完全避免复制DataFrame
? 看起来multiprocessing模块的共享内存函数仅限于numpy
数组。还有其他选项吗?
我经常需要对一个非常大的混合数据类型的DataFrame
分组应用一个函数,并希望利用多个核心。
我可以从这些分组创建一个迭代器并使用multiprocessing模块,但这样效率不高,因为每个分组和函数的结果都必须进行pickle处理以在进程间传递信息。
是否有任何方法可以避免pickle,甚至完全避免复制DataFrame
? 看起来multiprocessing模块的共享内存函数仅限于numpy
数组。还有其他选项吗?
import pandas as pd
import para_group_demo
df = pd.DataFrame({'a': [1, 2, 1, 2, 1, 1, 0], 'b': range(7)})
print para_group_demo.sum(df.a, df.b)
输出结果为:
sum
key
0 6
1 11
2 4
注意:毫无疑问,这个简单的例子的功能最终将成为pandas
的一部分。然而,有些事情在一段时间内更自然地并行化为C++,了解如何将其与pandas
结合起来非常重要。
from libc.stdint cimport int64_t, uint64_t
from libcpp.vector cimport vector
from libcpp.unordered_map cimport unordered_map
cimport cython
from cython.operator cimport dereference as deref, preincrement as inc
from cython.parallel import prange
import pandas as pd
ctypedef unordered_map[int64_t, uint64_t] counts_t
ctypedef unordered_map[int64_t, uint64_t].iterator counts_it_t
ctypedef vector[counts_t] counts_vec_t
C++中的unordered_map
类型用于单线程求和,而vector
用于多线程求和。
现在看看函数sum
。它从类型化内存视图开始,以便快速访问:
def sum(crit, vals):
cdef int64_t[:] crit_view = crit.values
cdef int64_t[:] vals_view = vals.values
cdef uint64_t num_threads = 4
cdef uint64_t l = len(crit)
cdef uint64_t s = l / num_threads + 1
cdef uint64_t i, j, e
cdef counts_vec_t counts
counts = counts_vec_t(num_threads)
counts.resize(num_threads)
with cython.boundscheck(False):
for i in prange(num_threads, nogil=True):
j = i * s
e = j + s
if e > l:
e = l
while j < e:
counts[i][crit_view[j]] += vals_view[j]
inc(j)
unordered_map
。 cdef counts_t total
cdef counts_it_t it, e_it
for i in range(num_threads):
it = counts[i].begin()
e_it = counts[i].end()
while it != e_it:
total[deref(it).first] += deref(it).second
inc(it)
剩下的就是创建一个 DataFrame
并返回结果:
key, sum_ = [], []
it = total.begin()
e_it = total.end()
while it != e_it:
key.append(deref(it).first)
sum_.append(deref(it).second)
inc(it)
df = pd.DataFrame({'key': key, 'sum': sum_})
df.set_index('key', inplace=True)
return df