HDFS应用需要文件的一次写入多次读取访问模型。文件创建、写入和关闭后就不需要再进行更改。这种假设简化了数据一致性问题,并实现了高吞吐量的数据访问。MapReduce应用程序或网络爬虫应用程序完全符合这种模型。 (来源: HDFS设计)HDFS围绕文件很少更新的想法构建。相反,它们被作为某些计算的数据进行读取,可能会不时地向文件追加其他数据。 例如,即使数据非常大,航空公司预订系统也不适合使用DFS,因为数据变化太频繁。 (来源:大规模数据挖掘)还请参见HDFS为什么是一次写入,多次读取?