关于您的第一个问题,我无法确定为什么这个实例很慢。但是一般来说,apply
不利用矢量化。此外,apply
返回一个新的 Series 或 DataFrame 对象,因此在处理非常大的 DataFrame 时,会有相当大的 IO 开销(由于 Pandas 具有大量内部实现优化,我不能保证这种情况100%发生)。
对于您的第一个方法,我假设您正在尝试使用 p_dict
作为查找表填充 df
中的“value”列。使用pd.merge
大约快1000倍:
import string, sys
import numpy as np
import pandas as pd
def f1(col, p_dict):
return [p_dict[p_dict['ID'] == s]['value'].values[0] for s in col]
n_size = 1000
np.random.seed(997)
p_dict = pd.DataFrame({'ID': [s for s in string.ascii_uppercase], 'value': np.random.randint(0,n_size, 26)})
df = pd.DataFrame({'p_id': [string.ascii_uppercase[i] for i in np.random.randint(0,26, n_size)]})
%timeit -n1 -r5 temp = df.apply(f1, args=(p_dict,))
>>> 1 loops, best of 5: 832 ms per loop
np.random.seed(997)
df = pd.DataFrame({'p_id': [string.ascii_uppercase[i] for i in np.random.randint(0,26, n_size)]})
%timeit -n1 -r5 temp = pd.merge(df, p_dict, how='inner', left_on='p_id', right_on='ID', copy=False)
>>> 1000 loops, best of 5: 826 µs per loop
关于第二个任务,我们可以快速地向
p_dict
添加一个新列,该列计算一个均值,其中时间窗口从
min_week_num
开始,并以
p_dict
中该行所在的周结束。这要求按照
WEEK
列进行升序排序。然后您可以再次使用
pd.merge
。
我假设以下示例中的
min_week_num
为 0。但是您可以轻松修改
rolling_growing_mean
来取不同的值。由于每次迭代执行固定数量的操作,因此
rolling_growing_mean
方法的运行时间复杂度为 O(n)。
n_size = 1000
np.random.seed(997)
p_dict = pd.DataFrame({'WEEK': range(52), 'value': np.random.randint(0, 1000, 52)})
df = pd.DataFrame({'WEEK': np.random.randint(0, 52, n_size)})
def rolling_growing_mean(values):
out = np.empty(len(values))
out[0] = values[0]
for i, v in enumerate(values[1:]):
out[i+1] = np.true_divide(out[i]*(i+1) + v, i+2)
return out
p_dict['Means'] = rolling_growing_mean(p_dict['value'])
df_merged = pd.merge(df, p_dict, how='inner', left_on='WEEK', right_on='WEEK')
f
的定义来看,我怀疑它并没有实现你想要的功能。也许你应该添加一些数据框的小例子和期望的结果。 - Ami Tavory