如果想在使用Dask处理大型数据集时,对单列进行对数计算,应该如何操作?
数据集非常庞大(1.25亿行),我该怎么做?
df_train.apply(lambda x: np.log1p(x), axis=1 , meta={'column_name':'float32'}).compute()
数据集非常庞大(1.25亿行),我该怎么做?
df_train.float32.map(np.log1p)
怎么样? - cs95