我正在尝试计算1 + 2 + ... + 1000000000
的和,但在PHP和Node.js中遇到了奇怪的结果。
PHP
$sum = 0;
for($i = 0; $i <= 1000000000 ; $i++) {
$sum += $i;
}
printf("%s", number_format($sum, 0, "", "")); // 500000000067108992
Node.js
var sum = 0;
for (i = 0; i <= 1000000000; i++) {
sum += i ;
}
console.log(sum); // 500000000067109000
正确答案可以通过计算得出
1 + 2 + ... + n = n(n+1)/2
正确答案为500000000500000000,所以我决定尝试另一种语言。
GO
var sum , i int64
for i = 0 ; i <= 1000000000; i++ {
sum += i
}
fmt.Println(sum) // 500000000500000000
但是它能够正常运行!那么我的 PHP 和 Node.js 代码出了什么问题呢?
也许这是解释性语言的问题,所以它能在像 Go 这样的编译语言中工作?如果是这样,其他解释性语言如 Python 和 Perl 会有相同的问题吗?