我正在尝试理解HDFS文件系统块大小与底层物理文件系统块大小之间的关系。
据我所知,hdfs
只是一个虚拟文件系统,它将实际数据存储在底层物理文件系统上。在Hadoop 2中,HDFS块大小为128 MB;但在大多数基于Linux的文件系统中,块大小为4 KB。
我的问题:
Q1)当将HDFS块写入实际文件系统时,是否会将其写入底层文件系统的多个块?也就是说,对于单个HDFS块,它必须写入128 * 1024 KB / 4 KB --> 32,768个块吗?
Q2)如果以上是正确的,这不会涉及到磁盘头的大量寻道吗?这不是一个耗时的过程吗?Hadoop如何有效地进行此过程?
有人能帮助我理解吗?