在参考@ajcr的优秀回答后,我想确定哪种方法最快,所以我使用了timeit
:
import timeit
setup_code = """
import numpy as np
i,j,k = (300,200,400)
ind = np.ones((i,j,k)) #shape=(3L, 2L, 4L)
dist = np.random.rand(i,j) #shape=(3L, 2L)
"""
basic ="np.array([np.dot(dist[l],ind[l]) for l in xrange(dist.shape[0])])"
einsum = "np.einsum('ijk,ij->ik', ind, dist)"
tensor= "np.tensordot(ind, dist, axes=[1, 1])[0].T"
print "tensor - total time:", min(timeit.repeat(stmt=tensor,setup=setup_code,number=10,repeat=3))
print "basic - total time:", min(timeit.repeat(stmt=basic,setup=setup_code,number=10,repeat=3))
print "einsum - total time:", min(timeit.repeat(stmt=einsum,setup=setup_code,number=10,repeat=3))
意外的结果是:
tensor - total time: 6.59519493952
basic - total time: 0.159871203461
einsum - total time: 0.263569731028
很明显,使用tensordot是错误的方法(正如@ajcr所述,在更大的示例中还会出现“内存错误”)。由于这个示例很小,我将矩阵的大小改为
i,j,k =(3000,200,400),反转顺序只是为了确保它没有影响,并设置了另一个测试,重复次数更高:
print "einsum - total time:", min(timeit.repeat(stmt=einsum,setup=setup_code,number=50,repeat=3))
print "basic - total time:", min(timeit.repeat(stmt=basic,setup=setup_code,number=50,repeat=3))
结果与第一次运行一致:
einsum - total time: 13.3184077671
basic - total time: 8.44810031351
然而,测试另一种尺寸增长的方法 - i,j,k = (30000,20,40)
- 得到了以下结果:
einsum - total time: 0.325594117768
basic - total time: 0.926416766397
请查看注释以了解这些结果的解释。
结论是,在寻找特定问题的最快解决方案时,请尽量生成与原始数据类型和形状相似的数据。在我的情况下,i
比j,k
小得多,因此我选择了丑陋的版本,这也是本例中最快的版本。