两天前问题的新解决方案。
当您拥有大量数据集时,PANDAS可以让您在生成统计信息的同时进行就地过滤,因此您不必为所有内容创建新的数据框架。目前,我怀疑这样做有一个微妙之处,因为用两种不同的方式 - 一种是“智能”方式,另一种是“显式”方式,会给我带来非常不同的答案,其中一个明显是正确的(显式),而另一个则明显是错误的(智能方式)。
请问有人可以指出我缺少什么吗?
以下是详细信息。
我有250万行数据,描述了一系列不同设备类型的故障时间。其中两个的描述性统计如下。(注意,这实际上是采矿设备,但我必须对某些内容进行消毒,因此我替换了名称)。
如果我尝试使用以下代码获取设备故障时间的分位数: ``` print(df2.groupby("CC_CauseLocationEquipmentType").quantile([.1, .25, .5, .75,0.9,0.95,0.99,0.99999])) ``` 那么我会看到以下分位数。
这显然是不正确的,因为99.999%分位数远未接近那些设备类型的最大值。此外,请注意Blender分位数数据集中间的“重置”部分。我之前问过这个问题:Pandas quantiles misbehaving by... getting smaller partway through a range of percentiles? 尽管该问题仍未解决,但我认为这个新问题也有助于解决它。
我现在明白了:
有人能告诉我为什么这两种不同的方法会得出如此不同的结果,以及我使用的
当您拥有大量数据集时,PANDAS可以让您在生成统计信息的同时进行就地过滤,因此您不必为所有内容创建新的数据框架。目前,我怀疑这样做有一个微妙之处,因为用两种不同的方式 - 一种是“智能”方式,另一种是“显式”方式,会给我带来非常不同的答案,其中一个明显是正确的(显式),而另一个则明显是错误的(智能方式)。
请问有人可以指出我缺少什么吗?
以下是详细信息。
我有250万行数据,描述了一系列不同设备类型的故障时间。其中两个的描述性统计如下。(注意,这实际上是采矿设备,但我必须对某些内容进行消毒,因此我替换了名称)。
Count Min Mean Max
CC_CauseLocationEquipmentType
Coffee Machines 204136 0.000556 71.797146 23407.41667
Blenders 52424 0.008333 750.880591 23077.79167
如果我尝试使用以下代码获取设备故障时间的分位数: ``` print(df2.groupby("CC_CauseLocationEquipmentType").quantile([.1, .25, .5, .75,0.9,0.95,0.99,0.99999])) ``` 那么我会看到以下分位数。
CC_TBF
CC_CauseLocationEquipmentType
Coffee Machines 0.10000 0.005556
0.25000 0.238889
0.50000 1.775000
0.75000 2.595833
0.90000 4.611389
0.95000 7.008125
0.99000 15.465278
0.99999 21.089619 <-- Nowhere near the max of 23407.41667
Blenders 0.10000 57.731806
0.25000 394.004375
0.50000 0.288889
0.75000 7.201528
0.90000 51.015667
0.95000 83.949833
0.99000 123.148019
0.99999 133.708716 <-- Nowhere near the max of 23077.79167
这显然是不正确的,因为99.999%分位数远未接近那些设备类型的最大值。此外,请注意Blender分位数数据集中间的“重置”部分。我之前问过这个问题:Pandas quantiles misbehaving by... getting smaller partway through a range of percentiles? 尽管该问题仍未解决,但我认为这个新问题也有助于解决它。
当我单独考虑分位数时,得到更明智的结果。使用以下代码:
print("Quantiles - type by type - Coffee Machines")
df3=df2.loc[df2['CC_CauseLocationEquipmentType'] == "Coffee Machines"]
print(df3.quantile([.1, .25, .5, .75,0.9,0.95,0.99,0.99999]) )
print("Quantiles - type by type - Blenders")
df3=df2.loc[df2['CC_CauseLocationEquipmentType'] == "Blenders"]
print(df3.quantile([.1, .25, .5, .75,0.9,0.95,0.99,0.99999]) )
我现在明白了:
Quantiles - type by type - Coffee Machines
CC_TBF
0.10000 0.120556
0.25000 0.608333
0.50000 2.040556
0.75000 3.494514
0.90000 18.047917
0.95000 129.798403
0.99000 1644.764861
0.99999 23003.517729 <-- Pretty darn close to the max of 23407
Quantiles - type by type - Blenders
CC_TBF
0.10000 0.226111
0.25000 0.941667
0.50000 37.924167
0.75000 388.554444
0.90000 1955.252500
0.95000 4301.835320
0.99000 11362.310594
0.99999 22831.372845 <--- pretty darn close to the max of 23077
有人能告诉我为什么这两种不同的方法会得出如此不同的结果,以及我使用的
groupby
为什么给我一个看起来很奇怪、似乎随意的结果?groupby
是否以某种方式使用了与我在第二个“显式”方法中所做的不同的完整数据子集?