无载荷燕尾服与numpy/scipy的使用

7
有人在数值/科学应用中使用过与numpy/scipy一起使用的unladen-swallow吗?根据您的经验,它是否显著更快?欢迎分享您的意见。

4
好的,我可以进行翻译。请问您需要将以下内容翻译成中文吗?"Ok, I cannot resist, just how fast is unladen-swallow? Is it African or European?" - TheJacobTaylor
@TheJacobTaylor +1:我昨天看了电影才意识到这个名字的含义 xD - fortran
3
这只是一个关于重量比例的简单问题。 - Steve Tjoa
http://www.style.org/unladenswallow/ - 这才是真正的研究 - Alok Singhal
1
这应该是一个快乐的场合。让我们不要为谁杀了谁而争吵。 - Chris B.
3个回答

5
没有人对Unladen Swallow有广泛的经验(除了开发人员),所以很难找到许多人可以讨论它。此外,由于Unladen Swallow是使用LLVM构建的,并且谈论将其与CPython运行时合并,因此在一切更加稳定之前,事情将成为一个移动目标。
有可用于Unladen Swallow的基准测试,但不包括numpy和scipy。正如开发人员自己解释的那样:“...像numpy这样的扩展模块的性能并不重要,因为numpy的核心例程是用C实现的。”
简而言之,如果您为 numpy scipy 编写良好的代码,则您的代码在Unladen Swallow下不会运行“显着快”,因为它已在虚拟机级别以下运行。如果您为 numpy scipy 编写糟糕的代码,则需要修复代码,然后参考第一句话。

1

它应该会更快。我自己没有测试过,但我刚从PyCon回来,他们在一次关于Unladen-Swallow的演讲中提到了使用NumPy和其他包的性能提升。你可以在 这里 观看这个演讲。


1
关于这个问题,不是一个答案:
Total runtime = python + numpy + interface,  
                cpython/unladenswallow + mostlyC + interface.

没有关于这些3个分割的真实数据--20 70 10,40 40 20?并且对于>1个基准测试,
无法确定哪种方式是正确的。


网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接