假设我有一个巨大的SQLite文件(比如500[MB]),存储在亚马逊S3中。一个运行在小型EC2实例上的Python脚本能否直接访问和修改该SQLite文件?还是必须先将文件复制到EC2实例中,在那里进行更改,然后再复制到S3中?
I/O是否有效率?
这是我要做的事情。正如我所写的,我在S3中有一个500[MB]的SQLite文件。我想启动10个不同的Amazon EC2实例,每个实例将读取文件的一个子集并进行一些处理(每个实例将处理500[MB] SQLite文件的不同子集)。然后,一旦处理完成,每个实例将仅更新其处理的数据子集(如上所述,进程之间不会重叠)。
例如,假设SQLite文件有1M行:
instance 1将处理(并更新)0-100000行
instance 2将处理(并更新)100001-200000行
..........................
instance 10将处理(并更新)900001-1000000行
这是否可能?听起来可以吗?欢迎提出任何建议/想法。
I/O是否有效率?
这是我要做的事情。正如我所写的,我在S3中有一个500[MB]的SQLite文件。我想启动10个不同的Amazon EC2实例,每个实例将读取文件的一个子集并进行一些处理(每个实例将处理500[MB] SQLite文件的不同子集)。然后,一旦处理完成,每个实例将仅更新其处理的数据子集(如上所述,进程之间不会重叠)。
例如,假设SQLite文件有1M行:
instance 1将处理(并更新)0-100000行
instance 2将处理(并更新)100001-200000行
..........................
instance 10将处理(并更新)900001-1000000行
这是否可能?听起来可以吗?欢迎提出任何建议/想法。
SQLite
文件)。虽然MySQL
等可以帮助将结果存储在亚马逊端,但我该如何将结果检索回我的计算机? - user3262424