我正在考虑在Python中使用sqlite3库来进行一些数据存储。对于我来说,避免将过多的数据加载到内存中非常重要 - 可能有大量(10个以上)的GB级别的数据,我希望能够以这样的方式访问它,即数据不会一次性全部加载到RAM中。sqlite3是否可以为我完成这项任务?我具体考虑以下代码:
import sqlite3
conn = sqlite3.connect('example.db')
c = conn.cursor()
c.execute('''SELECT * FROM table1''')
var = c.fetchall()
假设example.db
占用了14 GB,table1
占用了1 GB。有多少数据会加载到RAM中?