我正在开发一款Python应用程序,希望能够扩展以容纳大约每秒150次写入。这些写入分布在大约50个不同的来源之间。 对于这种情况,Mongodb是一个好选择吗?我犹豫要么将数据写入数据库,要么为每个来源创建日志文件并单独解析它们。 还有没有其他关于记录大量数据的建议?
我认为MongoDB非常适合日志收集,因为: MongoDB具有惊人的快速写入能力。 日志不是很重要,因此在服务器故障的情况下丢失一些日志是可以接受的。因此,您可以运行MongoDB而不使用journaling选项以避免写入开销。 此外,您还可以使用分片来增加写入速度,同时可以将最旧的日志移动到单独的集合或文件系统中。 您可以轻松地export将数据从数据库导出到json/csv格式。 一旦您将所有内容都存储在数据库中,您就可以查询数据以查找所需的日志。 因此,我的观点是MongoDB非常适合用于日志等事务。您不需要在文件系统中管理大量的日志文件。MongoDB会为您处理这些问题。