R允许我们计算两个总体之间的F检验:
> d1 = c(2.5579227634, 1.7774243136, 2.0025207896, 1.9518876366, 0.0, 4.1984191803, 5.6170403364, 0.0)
> d2 = c(16.93800333, 23.2837045311, 1.2674791828, 1.0889208427, 1.0447584137, 0.8971380534, 0.0, 0.0)
> var.test(d1,d2)
F test to compare two variances
data: d1 and d2
F = 0.0439, num df = 7, denom df = 7, p-value = 0.000523
alternative hypothesis: true ratio of variances is not equal to 1
95 percent confidence interval:
0.008789447 0.219288957
sample estimates:
ratio of variances
0.04390249
请注意,这里也报告了P值。
另一个例子,R给出了以下内容:
> x1 = c(0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 68.7169110318)
> x2 = c(0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 2.1863361211)
> var.test(x1,x2)
#p-value = 1.223e-09
在Python中的等价代码是什么?我查看了这个文档,但似乎没有给出我想要的。
这段代码给出了不同的P值(特别是第二个例子):
import statistics as stats
import scipy.stats as ss
def Ftest_pvalue(d1,d2):
"""docstring for Ftest_pvalue"""
df1 = len(d1) - 1
df2 = len(d2) - 1
F = stats.variance(d1) / stats.variance(d2)
single_tailed_pval = ss.f.cdf(F,df1,df2)
double_tailed_pval = single_tailed_pval * 2
return double_tailed_pval
Python给出了以下结果:
In [45]: d1 = [2.5579227634, 1.7774243136, 2.0025207896, 1.9518876366, 0.0, 4.1984191803, 5.6170403364, 0.0]
In [20]: d2 = [16.93800333, 23.2837045311, 1.2674791828, 1.0889208427, 1.0447584137, 0.8971380534, 0.0, 0.0]
In [64]: x1 = [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 68.7169110318]
In [65]: x2 = [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 2.1863361211]
In [69]: Ftest_pvalue(d1,d2)
Out[69]: 0.00052297887612346176
In [70]: Ftest_pvalue(x1,x2)
Out[70]: 1.9999999987772916
var.test
的文档, 默认备择假设是双侧检验,而当您像Python一样计算cdf
时,这本质上是一个单侧检验。 - Amit Kumar Guptacdf(F)
或者1-cdf(F)
。你试图衡量统计量比观察到的更"极端"的概率,如果F在平均值的左侧,"更极端"意味着"向左更远",因此使用cdf(F)
。如果F大于平均值,则"更极端"意味着"向右更远",所以使用1-cdf(F)
。 - Amit Kumar Gupta