将Python序列转换为NumPy数组,填充缺失值

32

Python可变长度列表的隐式转换会将其转换为NumPy数组,导致数组的类型为object

v = [[1], [1, 2]]
np.array(v)
>>> array([[1], [1, 2]], dtype=object)
尝试强制转换为其他类型会导致异常发生:
np.array(v, dtype=np.int32)
ValueError: setting an array element with a sequence.

如何以最高效的方式获得一个密集的 int32 类型 NumPy 数组,并使用给定的占位符填充“缺失”的值?

如果 0 是占位符,从我的样本序列 v 中,我希望获得类似以下的结果:

array([[1, 0], [1, 2]], dtype=int32)
8个回答

38

3
基于对大型数据集的快速运行时测试,当列表元素的大小变化很大时,这看起来非常不错。 - Divakar

23

这是一种几乎*向量化的基于布尔索引的方法,我在多篇其他文章中使用了它-

def boolean_indexing(v):
    lens = np.array([len(item) for item in v])
    mask = lens[:,None] > np.arange(lens.max())
    out = np.zeros(mask.shape,dtype=int)
    out[mask] = np.concatenate(v)
    return out

样例运行

In [27]: v
Out[27]: [[1], [1, 2], [3, 6, 7, 8, 9], [4]]

In [28]: out
Out[28]: 
array([[1, 0, 0, 0, 0],
       [1, 2, 0, 0, 0],
       [3, 6, 7, 8, 9],
       [4, 0, 0, 0, 0]])

请注意,这里称为几乎向量化,因为唯一执行循环的部分是在开始时,我们正在获取列表元素的长度。但是,由于该部分不需要太多计算,对总运行时间应该没有太大影响。
运行时间测试
在本节中,我正在计时 @Alberto Garcia-Raboso 的基于DataFrame的解决方案,@ayhan 的基于itertools的解决方案,因为它们似乎具有良好的可扩展性,并且基于布尔索引的解决方案来自此帖子,用于相对较大的数据集,其中列表元素跨三个级别的大小变化。
情况#1:更大的大小变化
In [44]: v = [[1], [1,2,4,8,4],[6,7,3,6,7,8,9,3,6,4,8,3,2,4,5,6,6,8,7,9,3,6,4]]

In [45]: v = v*1000

In [46]: %timeit pd.DataFrame(v).fillna(0).values.astype(np.int32)
100 loops, best of 3: 9.82 ms per loop

In [47]: %timeit np.array(list(itertools.izip_longest(*v, fillvalue=0))).T
100 loops, best of 3: 5.11 ms per loop

In [48]: %timeit boolean_indexing(v)
100 loops, best of 3: 6.88 ms per loop

案例 #2:尺寸变化较小

In [49]: v = [[1], [1,2,4,8,4],[6,7,3,6,7,8]]

In [50]: v = v*1000

In [51]: %timeit pd.DataFrame(v).fillna(0).values.astype(np.int32)
100 loops, best of 3: 3.12 ms per loop

In [52]: %timeit np.array(list(itertools.izip_longest(*v, fillvalue=0))).T
1000 loops, best of 3: 1.55 ms per loop

In [53]: %timeit boolean_indexing(v)
100 loops, best of 3: 5 ms per loop

案例#3:每个列表元素的元素数量更大(最多100个)

In [139]: # Setup inputs
     ...: N = 10000 # Number of elems in list
     ...: maxn = 100 # Max. size of a list element
     ...: lens = np.random.randint(0,maxn,(N))
     ...: v = [list(np.random.randint(0,9,(L))) for L in lens]
     ...: 

In [140]: %timeit pd.DataFrame(v).fillna(0).values.astype(np.int32)
1 loops, best of 3: 292 ms per loop

In [141]: %timeit np.array(list(itertools.izip_longest(*v, fillvalue=0))).T
1 loops, best of 3: 264 ms per loop

In [142]: %timeit boolean_indexing(v)
10 loops, best of 3: 95.7 ms per loop

对我来说,似乎没有明显的赢家,但需要根据具体情况进行考虑。关于itertools.izip_longest,它表现良好!

@ayhan 嗯,我的 Python 2 版本无法运行它。可能是我的 NumPy 版本 1.11.1 的问题吗? - Divakar
2
我猜所有的方法都在迭代v,但是由于v内部的列表越来越大,你的方法开始变得更快。 我用n = 10 ^ 3,m = 10 ^ 4尝试过,并且速度比其他方法快了5倍。 我使用的是Python 3中的1.11.1,但结果与Python 2.7 numpy 1.10.4非常相似。 - ayhan
1
@ayhan 感谢您的反馈和诚实!;) 我已经添加了另一个案例 :) - Divakar

16

Pandas和它的DataFrame在处理缺失数据方面表现出色。

import numpy as np
import pandas as pd

v = [[1], [1, 2]]
print(pd.DataFrame(v).fillna(0).values.astype(np.int32))

# array([[1, 0],
#        [1, 2]], dtype=int32)

2
这对于数据变化较小的情况非常好,真的是一个很好的解决方案! - Divakar

3
max_len = max(len(sub_list) for sub_list in v)

result = np.array([sub_list + [0] * (max_len - len(sub_list)) for sub_list in v])

>>> result
array([[1, 0],
       [1, 2]])

>>> type(result)
numpy.ndarray

2
这里有一种通用方法:
>>> v = [[1], [2, 3, 4], [5, 6], [7, 8, 9, 10], [11, 12]]
>>> max_len = np.argmax(v)
>>> np.hstack(np.insert(v, range(1, len(v)+1),[[0]*(max_len-len(i)) for i in v])).astype('int32').reshape(len(v), max_len)
array([[ 1,  0,  0,  0],
       [ 2,  3,  4,  0],
       [ 5,  6,  0,  0],
       [ 7,  8,  9, 10],
       [11, 12,  0,  0]], dtype=int32)

0
如果您想将相同的逻辑扩展到更深层次(列表的列表的列表等),您可以使用TensorFlow的不规则张量并转换为张量/数组。例如:
import tensorflow as tf
v = [[1], [1, 2]]
padded_v = tf.ragged.constant(v).to_tensor(0)

这将创建一个填充有0的数组。 或者更深入的例子:
w = [[[1]], [[2],[1, 2]]]
padded_w = tf.ragged.constant(w).to_tensor(0)

0

你可以先尝试将pandas dataframe转换,然后再将其转换为numpy数组

ll = [[1, 2, 3], [4, 5], [6, 7, 8, 9]]

df = pd.DataFrame(ll)
print(df)
#    0  1    2    3
# 0  1  2  3.0  NaN
# 1  4  5  NaN  NaN
# 2  6  7  8.0  9.0

npl = df.to_numpy()
print(npl)

# [[ 1.  2.  3. nan]
#  [ 4.  5. nan nan]
#  [ 6.  7.  8.  9.]]

0

我在使用Alexander的答案时遇到了一个numpy广播错误,所以我添加了一个小变化,使用numpy.pad

pad = len(max(X, key=len))

result = np.array([np.pad(i, (0, pad-len(i)), 'constant') for i in X])

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接