我知道HDFS使用数据节点中的常规Linux文件系统存储数据。我的HDFS块大小为128 MB。假设我的hadoop集群有10 GB的磁盘空间,这意味着HDFS最初有80个可用存储块。
如果我创建一个小文件,比如12.8 MB,可用的HDFS块将变为79。如果我再创建另一个12.8 MB的小文件会发生什么?可用块数量会保持在79还是降到78?在前一种情况下,HDFS基本上会根据可用的空闲磁盘空间在每个块分配后重新计算可用的块数,因此只有在消耗了超过128 MB的磁盘空间后,可用的块数才会变为78。请澄清一下。
如果我创建一个小文件,比如12.8 MB,可用的HDFS块将变为79。如果我再创建另一个12.8 MB的小文件会发生什么?可用块数量会保持在79还是降到78?在前一种情况下,HDFS基本上会根据可用的空闲磁盘空间在每个块分配后重新计算可用的块数,因此只有在消耗了超过128 MB的磁盘空间后,可用的块数才会变为78。请澄清一下。