问:是否有任何解决方案可以利用 numpy
中的结构化 dtype
?
与仅使用ToB(最佳价格)数据相比,使用L2-DoM数据有两个复杂性。 a)原始数据传输速度很快(非常快/ FIX协议或其他私有数据传输记录每毫秒更改数百,数千个(在主要基本事件期间为更多)。处理和存储必须针对性能进行优化。b)任何类型的离线分析都必须成功地操纵并高效地处理大型数据集,由于第a项的特性
- 存储偏好
- 使用类似于
numpy
的语法偏好
- 性能偏好
存储偏好:已解决
如果将pandas.DataFrame
设置为首选存储类型,则尊重它,即使语法和性能偏好可能会产生不利影响。
另一种方法是可行的,但可能会引入未知的重构/重新设计成本,而 O / P 的操作环境无需或已不愿承担这些成本。
话虽这么说,必须将pandas
功能限制纳入设计考虑,并且除非在将来可能修改此首选项,否则所有其他步骤都必须与其共存。
Numpy
-类似语法:已解决
这个请求清晰明了,因为numpy
工具被智能地制作成高性能数字处理。鉴于设置的存储偏好,我们将实现一对numpy
技巧,以适合pandas
2D-DataFrame
,并且在.STORE
和.RETRIEVE
方向上都具有合理的成本:
testDF['ask_DoM'][aRowIDX] = ask200.dumps()
L2_ASK = np.loads( testDF['ask_DoM'][aRowIDX] )
性能偏好:已测试
对于 .STORE
和 .RETRIEVE
方向的提议解决方案的网络附加成本进行了测试,结果为:
.STORE
方向上的一次性成本 对于给定 L2_DoM 数组规模的每个单元格不低于70 [us]
,不超过~160 [us]
(平均值:78 [ms]
,标准差:9-11 [ms]
):
>>> [ f( [testDUMPs() for _ in range(1000)] ) for f in (np.min,np.mean,np.std,np.max) ]
[72, 79.284, 11.004153942943548, 150]
[72, 78.048, 10.546135548152224, 160]
[71, 78.584, 9.887971227708949, 139]
[72, 76.9, 8.827332496286745, 132]
在给定的L2_DoM数组规模下,每个单元格在
.RETRIEVE
方向上的重复成本不少于
46 [us]
,不超过
~ 123 [us]
(平均值:
50 [us]
,标准差:
9.5 [us]
)。
>>> [ f( [testLOADs() for _ in range(1000)] ) for f in (np.min,np.mean,np.std,np.max) ]
[46, 50.337, 9.655194197943405, 104]
[46, 49.649, 9.462272665697178, 123]
[46, 49.513, 9.504293766503643, 123]
[46, 49.77, 8.367165350344164, 114]
[46, 51.355, 6.162434583831296, 89]
预计如果使用更好的与架构对齐的
int64
数据类型(是的,成本翻倍,但计算成本将决定此举是否具有性能优势),则可以期望更高的性能,并有机会使用基于
memoryview
的操作,它们可以大大减少附加延迟并将其削减到约
22 [us]
。
测试在py3.5.6下运行,numpy v1.15.2,在以下条件下进行:
>>> import numpy as np; ask200 = np.arange( 200, dtype = np.int32 ); s = ask200.dumps()
>>> from zmq import Stopwatch; aClk = Stopwatch()
>>> def testDUMPs():
... aClk.start()
... s = ask200.dumps()
... return aClk.stop()
...
>>> def testLOADs():
... aClk.start()
... a = np.loads( s )
... return aClk.stop()
...
平台的CPU、缓存层次和RAM细节:
>>> get_numexpr_cpuinfo_details_on_CPU()
'TLB size'______________________________:'1536 4K pages'
'address sizes'_________________________:'48 bits physical, 48 bits virtual'
'apicid'________________________________:'17'
'bogomips'______________________________:'7199.92'
'bugs'__________________________________:'fxsave_leak sysret_ss_attrs null_seg spectre_v1 spectre_v2'
'cache size'____________________________:'2048 KB'
'cache_alignment'_______________________:'64'
'clflush size'__________________________:'64'
'core id'_______________________________:'1'
'cpu MHz'_______________________________:'1400.000'
'cpu cores'_____________________________:'2'
'cpu family'____________________________:'21'
'cpuid level'___________________________:'13'
'flags'_________________________________:'fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt pdpe1gb rdtscp lm constant_tsc rep_good nopl nonstop_tsc extd_apicid aperfmperf eagerfpu pni pclmulqdq monitor ssse3 cx16 sse4_1 sse4_2 popcnt aes xsave avx lahf_lm cmp_legacy svm extapic cr8_legacy abm sse4a misalignsse 3dnowprefetch osvw ibs xop skinit wdt lwp fma4 nodeid_msr topoext perfctr_core perfctr_nb cpb hw_pstate vmmcall arat npt lbrv svm_lock nrip_save tsc_scale vmcb_clean flushbyasid decodeassists pausefilter pfthreshold'
'fpu'___________________________________:'yes'
'fpu_exception'_________________________:'yes'
'initial apicid'________________________:'1'
'microcode'_____________________________:'0x6000626'
'model'_________________________________:'1'
'model name'____________________________:'AMD FX(tm)-4100 Quad-Core Processor'
'physical id'___________________________:'0'
'power management'______________________:'ts ttp tm 100mhzsteps hwpstate cpb'
'processor'_____________________________:'1'
'siblings'______________________________:'4'
'stepping'______________________________:'2'
'vendor_id'_____________________________:'AuthenticAMD'
'wp'____________________________________:'yes'
pandas
不是用来存储对象的。事物应该本质上组织成二维数组(毕竟它是为PANel DAta设计的)。使用对象类型时,基本上会失去所有有用的功能。第二个选项是最好的。您可以使用df.loc[:, 'ask5':'ask9'].mean(1)
计算完全相同的均值,这与我认为的numpy功能一样简单。 - ALollzmap
这样的方法,并且可能需要将结构复制到另一个numpy表示中才能执行它。这可能会使它变得非常慢。另一方面,如果你在ExtensionDtype中实现你的API,由于它是实验性的,所以实现可能会在pandas的新版本中被破坏。 - jottbe