SQLite性能基准测试--为什么:memory:如此缓慢...只比磁盘快1.5倍?

55

为什么在sqlite中 :memory: 如此缓慢?

我一直试图查看使用内存版的sqlite和磁盘版sqlite是否有任何性能改进。基本上,我想要通过消耗更多的启动时间和内存来获得极快的查询速度,而这些查询在应用程序运行期间不会访问磁盘。

然而,以下基准测试只给出了1.5倍的提速。在这里,我生成了100万个随机数据行,并将其加载到相同表格的磁盘版本和内存版本中。然后我对两个数据库运行随机查询,返回大约300k大小的集合。我希望内存版会快得多,但正如之前提到的,我只得到了1.5倍的加速效果。

我尝试使用了其他大小的数据库和查询集;随着数据库中的行数增加, :memory: 的优势似乎确实会增加。但我不确定为什么优势如此之小。我有一些假设:

  • 表格(按行数计算)不够大, :memory: 无法显著地胜出
  • 更多的连接/表格会使 :memory: 的优势更为明显
  • 可能存在某种连接或操作系统级别的缓存,以某种方式使得先前的结果仍然可访问,这会影响基准测试的准确性
  • 可能存在一些隐藏的磁盘访问行为,我还没有看到(尚未尝试使用 lsof,但我已关闭了日志记录的 PRAGMA)

我做错了什么吗?有任何关于为什么 :memory: 没有产生几乎即时查找的想法吗?以下是基准测试:

==> sqlite_memory_vs_disk_benchmark.py <==

#!/usr/bin/env python
"""Attempt to see whether :memory: offers significant performance benefits.

"""
import os
import time
import sqlite3
import numpy as np

def load_mat(conn,mat):
    c = conn.cursor()

    #Try to avoid hitting disk, trading safety for speed.
    #https://dev59.com/3HVC5IYBdhLWcg3wZwTj
    c.execute('PRAGMA temp_store=MEMORY;')
    c.execute('PRAGMA journal_mode=MEMORY;')

    # Make a demo table
    c.execute('create table if not exists demo (id1 int, id2 int, val real);')
    c.execute('create index id1_index on demo (id1);')
    c.execute('create index id2_index on demo (id2);')
    for row in mat:
        c.execute('insert into demo values(?,?,?);', (row[0],row[1],row[2]))
    conn.commit()

def querytime(conn,query):
    start = time.time()
    foo = conn.execute(query).fetchall()
    diff = time.time() - start
    return diff

#1) Build some fake data with 3 columns: int, int, float
nn   = 1000000 #numrows
cmax = 700    #num uniques in 1st col
gmax = 5000   #num uniques in 2nd col

mat = np.zeros((nn,3),dtype='object')
mat[:,0] = np.random.randint(0,cmax,nn)
mat[:,1] = np.random.randint(0,gmax,nn)
mat[:,2] = np.random.uniform(0,1,nn)

#2) Load it into both dbs & build indices
try: os.unlink('foo.sqlite')
except OSError: pass

conn_mem = sqlite3.connect(":memory:")
conn_disk = sqlite3.connect('foo.sqlite')
load_mat(conn_mem,mat)
load_mat(conn_disk,mat)
del mat

#3) Execute a series of random queries and see how long it takes each of these
numqs = 10
numqrows = 300000 #max number of ids of each kind
results = np.zeros((numqs,3))
for qq in range(numqs):
    qsize = np.random.randint(1,numqrows,1)
    id1a = np.sort(np.random.permutation(np.arange(cmax))[0:qsize]) #ensure uniqueness of ids queried
    id2a = np.sort(np.random.permutation(np.arange(gmax))[0:qsize])
    id1s = ','.join([str(xx) for xx in id1a])
    id2s = ','.join([str(xx) for xx in id2a])
    query = 'select * from demo where id1 in (%s) AND id2 in (%s);' % (id1s,id2s)

    results[qq,0] = round(querytime(conn_disk,query),4)
    results[qq,1] = round(querytime(conn_mem,query),4)
    results[qq,2] = int(qsize)

#4) Now look at the results
print "  disk | memory | qsize"
print "-----------------------"
for row in results:
    print "%.4f | %.4f | %d" % (row[0],row[1],row[2])

这是结果。请注意,在相当广泛的查询大小范围内,磁盘所需的时间大约是内存的1.5倍。

[ramanujan:~]$python -OO sqlite_memory_vs_disk_clean.py
  disk | memory | qsize
-----------------------
9.0332 | 6.8100 | 12630
9.0905 | 6.6953 | 5894
9.0078 | 6.8384 | 17798
9.1179 | 6.7673 | 60850
9.0629 | 6.8355 | 94854
8.9688 | 6.8093 | 17940
9.0785 | 6.6993 | 58003
9.0309 | 6.8257 | 85663
9.1423 | 6.7411 | 66047
9.1814 | 6.9794 | 11345

相对于磁盘,内存不应该几乎是即时的吗?出了什么问题吗?

编辑

这里有一些好的建议。

我想对我来说最重要的一点是,**可能没有办法使 :memory: 绝对更快,但可以使磁盘访问相对更慢。**

换句话说,基准测试足以衡量内存的实际性能,但并不能衡量磁盘的实际性能(例如因为cache_size pragma太大或者我没有进行写操作)。我会尝试调整这些参数,并在有机会时发布我的发现。

话虽如此,如果有人认为我可以从内存数据库中挤取更多速度(除了通过增加cache_size和default_cache_size之外,我将这样做),我非常愿意听取建议...


1
你测试过更复杂的查询吗? - Joe Soul-bringer
到了2021年,我发现内存数据库的性能比磁盘文件快100倍。请参见https://dev59.com/jW025IYBdhLWcg3wvIgo#67162316 - BSalita
7个回答

46

这与SQLite具有页面缓存有关。根据文档,默认的页面缓存是2000个1K页面或约2Mb。由于这大约占了您数据的75%到90%,所以两个数字非常相似并不令人意外。我猜测除了SQLite页面缓存之外,其余的数据仍然在操作系统磁盘缓存中。如果您让SQLite清除页面缓存(和磁盘缓存),您将看到一些真正显著的差异。


22

我的问题是,你试图对什么进行基准测试?

正如已经提到的,SQLite的:memory:数据库和基于磁盘的数据库是完全相同的,都是分页的,唯一的区别在于页面永远不会写入磁盘。因此,这两者之间唯一的区别是::memory:不需要执行的磁盘写入操作(当必须从缓存中卸载磁盘页面时也不需要读取任何磁盘数据)。

但从缓存中读/写可能只代表查询处理时间的一小部分,具体取决于查询。你的查询包括一个where子句,其中有两个大型id集合,所选行必须是成员,这很费时。

正如Cary Millsap在其优化Oracle的博客中所演示的那样(这里是代表性文章:http://carymillsap.blogspot.com/2009/06/profiling-with-my-boy.html),您需要了解查询处理中哪些部分需要时间。假设集合成员测试占查询时间的90%,磁盘IO占10%,那么使用:memory:只能节省10%。这是一个极端的例子,不太可能代表性,但我希望它能说明您特定的查询是如何影响结果的。使用一个更简单的查询,查询处理中的IO部分将增加,因此:memory:的好处也会增加。

最后,我们已经尝试了SQLite的虚拟表,其中您负责实际存储,并且通过使用C ++容器(与SQLite存储单元值的方式不同,具有类型),我们可以看到相对于:memory:,有明显的时间改善。但这有点跑题了;)--DD

PS:我没有足够的Karma来评论本线程中最受欢迎的帖子, 所以我在这里发表评论 :) ,说最近的SQLite版本不使用1KB。

默认情况下在Windows上打开的页面:http://www.sqlite.org/changes.html#version_3_6_12

(注意:保留了HTML标签,不进行解释)

对于您的虚拟表实验很感兴趣。有没有更多学习资源可用? - David Backeus
除了vtable文档之外,抱歉没有其他的(专有代码)。但是一旦您查看官方示例并理解SQLite vtables,这并不难。例如,vtable cursor 包装了STL迭代器以进行全扫描。而xColumn从该迭代器中的结构体中获取一个带编号的字段(对应于列)。我记得10年前在ROWID表上比:memory:快5倍。 - ddevienne

7

如果你在执行SELECT操作时使用内存缓存,那么建议你尝试将SELECT操作与UPDATE操作交替进行。


7

SQLite中的内存数据库实际上是不会触及磁盘的页面缓存。因此,你应该忘记在SQLite中使用内存数据库来进行性能调优。

虽然可以关闭日志记录、关闭同步模式、设置大的页面缓存,这样你将在大多数操作上获得几乎相同的性能,但耐久性将会丢失。

从你的代码中可以清楚地看出,你应该重复使用命令,并且仅绑定参数,因为这会导致你测试性能下降超过90%


当您不知道要放在IN运算符右侧的ID数量时,您无法绑定值,因为SQLite不允许绑定集合(Oracle使用VARRAY和TABLE()运算符可以)。 - ddevienne

1

是不是sqlite3并没有将数据从缓存写入磁盘,这可能解释了为什么数字相似。

另外,也有可能是由于内存不足,导致操作系统进行分页处理。


我认为大多数代码中可能根本没有写入操作,因此内存中的sqlite与磁盘缓存中的sqlite表现几乎相同。 - Rick Copeland

1

我注意到你正在关注涉及相对较大数据集的查询。我想知道如果使用较小的数据集会有什么影响?多次返回单行可能需要磁盘频繁寻址,而内存的随机访问时间可能会更快。


1

在处理少于500万个对象的序列时,numpy数组比字典、元组和其他对象序列慢。通过迭代和使用生成器来避免创建和重新创建临时大型对象,可以显著提高处理海量数据的速度。

由于numpy旨在提供线性性能,因此它已成为您的限制因素。对于小甚至大量的数据,它都不是最佳选择。但是随着数据集的增长,numpy的性能不会变成曲线,而是保持直线。

此外,SQLite只是一个真正快速的数据库。甚至比大多数服务器数据库还要快。这引出了一个问题,为什么有人会使用NOSQL数据库,当一个轻量级超快速的容错数据库已经存在并在浏览器到移动电话等各种场景中得到了验证。


网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接