Hadoop分布式文件系统

4

HDFS 是基于一种最有效的数据处理模式构建的,即“一次写入,多次读取”模式。

我可以举一个实时例子来说明 HDFS 的“一次写入,多次读取”模式吗?我希望深入了解这个核心概念。


你在哪里看到的?他们有提供任何支持那个说法的证据吗? - Don Branson
1个回答

1
HDFS应用需要文件的一次写入多次读取访问模型。文件创建、写入和关闭后就不需要再进行更改。这种假设简化了数据一致性问题,并实现了高吞吐量的数据访问。MapReduce应用程序或网络爬虫应用程序完全符合这种模型。 (来源: HDFS设计
HDFS围绕文件很少更新的想法构建。相反,它们被作为某些计算的数据进行读取,可能会不时地向文件追加其他数据。 例如,即使数据非常大,航空公司预订系统也不适合使用DFS,因为数据变化太频繁。 (来源:大规模数据挖掘
还请参见HDFS为什么是一次写入,多次读取?

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接