我有一个二维矩阵,想要对每一行求范数。但是当我直接使用 numpy.linalg.norm(X)
时,它会对整个矩阵求范数。
我可以通过使用 for 循环并且对每个 X[i]
求范数来对每行求范数,但由于我有 30k 行,这需要很长时间。
有没有更快的方法?或者能否将 np.linalg.norm
应用于矩阵的每一行?
需要注意的是,从NumPy 1.9版本开始,使用np.linalg.norm(x, axis=1)
是计算L2范数最快的方法,详见perimosocordiae的示例。
如果要计算L2范数,可以直接计算(使用axis=-1
参数沿行相加):
np.sum(np.abs(x)**2,axis=-1)**(1./2)
当然,Lp范数的计算方式也类似。
它比np.apply_along_axis
快得多,尽管可能不太方便:
In [48]: %timeit np.apply_along_axis(np.linalg.norm, 1, x)
1000 loops, best of 3: 208 us per loop
In [49]: %timeit np.sum(np.abs(x)**2,axis=-1)**(1./2)
100000 loops, best of 3: 18.3 us per loop
其他形式的norm
也可以直接计算(速度类似加速):
In [55]: %timeit np.apply_along_axis(lambda row:np.linalg.norm(row,ord=1), 1, x)
1000 loops, best of 3: 203 us per loop
In [54]: %timeit np.sum(abs(x), axis=-1)
100000 loops, best of 3: 10.9 us per loop
因为numpy更新的缘故,我重新提出一个旧问题。从1.9版本开始,numpy.linalg.norm
现在接受一个axis
参数。[代码, 文档]
这是城里最快的新方法:
In [10]: x = np.random.random((500,500))
In [11]: %timeit np.apply_along_axis(np.linalg.norm, 1, x)
10 loops, best of 3: 21 ms per loop
In [12]: %timeit np.sum(np.abs(x)**2,axis=-1)**(1./2)
100 loops, best of 3: 2.6 ms per loop
In [13]: %timeit np.linalg.norm(x, axis=1)
1000 loops, best of 3: 1.4 ms per loop
而且为了证明它正在计算相同的事情:
In [14]: np.allclose(np.linalg.norm(x, axis=1), np.sum(np.abs(x)**2,axis=-1)**(1./2))
Out[14]: True
使用NumPy的einsum比被接受的答案要快得多。
numpy.sqrt(numpy.einsum('ij,ij->i', a, a))
甚至更快的方法是将数据安排得使范数计算跨越所有列进行。
numpy.sqrt(numpy.einsum('ij,ij->j', aT, aT))
请注意对数刻度:
重现此图的代码:
import numpy as np
import perfplot
rng = np.random.default_rng(0)
def setup(n):
x = rng.random((n, 3))
xt = np.ascontiguousarray(x.T)
return x, xt
def sum_sqrt(a, _):
return np.sqrt(np.sum(np.abs(a) ** 2, axis=-1))
def apply_norm_along_axis(a, _):
return np.apply_along_axis(np.linalg.norm, 1, a)
def norm_axis(a, _):
return np.linalg.norm(a, axis=1)
def einsum_sqrt(a, _):
return np.sqrt(np.einsum("ij,ij->i", a, a))
def einsum_sqrt_columns(_, aT):
return np.sqrt(np.einsum("ij,ij->j", aT, aT))
b = perfplot.bench(
setup=setup,
kernels=[
sum_sqrt,
apply_norm_along_axis,
norm_axis,
einsum_sqrt,
einsum_sqrt_columns,
],
n_range=[2**k for k in range(20)],
xlabel="len(a)",
)
b.show()
b.save("out.png")
In [16]: numpy.apply_along_axis(numpy.linalg.norm, 1, a)
Out[16]: array([ 5.38516481, 1.41421356, 5.38516481])
其中a
是您的二维数组。
上述代码计算的是L2范数。如果要使用其他范数,可以使用类似以下代码:
In [22]: numpy.apply_along_axis(lambda row:numpy.linalg.norm(row,ord=1), 1, a)
Out[22]: array([9, 2, 9])
就像这样,当你的2D numpy数组是x
时:
x_unit = x / np.linalg.norm(x, axis=1, keepdims=True)
x
的数据类型是复数,那么会有所不同。例如,如果x=np.array([(1+1j,2+1j)])
,则np.sum(np.abs(x)**2,axis=-1)**(1./2)
的结果为array([ 2.64575131])
,而np.sum(x**2,axis=-1)**(1./2)
的结果为array([ 2.20320266+1.36165413j])
。 - unutbunumpy.linalg.norm
目前是最快的方法。 - 0 _np.linalg.norm(x, axis=0)
。这里的axis
指的是被求和的轴。对于一个二维数组,0轴代表行,因此axis=0
会使norm
在每个固定列上沿着行方向进行求和。 - unutbu