在EMR中使用Spark Scala获取S3对象的大小(文件夹、文件)

4

我正在尝试从我的命令行EMR获取一些S3文件夹的大小,这些文件夹与scala相关。

我在S3中以GZ文件的形式存储JSON数据。我发现我可以计算文件中JSON记录的数量:

spark.read.json("s3://mybucket/subfolder/subsubfolder/").count

但现在我需要知道这些数据占用多少GB。

我正在寻找获取单个文件大小的选项,但不是整个文件夹的大小。


@DenisMakarenko:他想要打印不同的文件大小,而不是文件夹。 - Ram Ghadiyaram
我关闭得太快了。标题有误导性。 - eliasah
1个回答

5
我正在寻找获取单个文件大小的选项,而不是整个文件夹大小的选项。
解决方案:
选项1:
通过文件系统获取S3访问。
    val fs = FileSystem.get(new URI(ipPath), spark.sparkContext.hadoopConfiguration)

注意:

1)new URI非常重要,否则它将连接到Hadoop文件系统路径,而不是S3文件系统(对象存储:-)路径。使用新的URI可以在这里提供方案s3://

2)org.apache.commons.io.FileUtils.byteCountToDisplaySize将以GB MB等显示文件系统的显示大小...

      /**
    * recursively print file sizes
    *
    * @param filePath
    * @param fs
    * @return
    */
@throws[FileNotFoundException]
@throws[IOException]
  def getDisplaysizesOfS3Files(filePath: org.apache.hadoop.fs.Path, fs: org.apache.hadoop.fs.FileSystem): scala.collection.mutable.ListBuffer[String] = {
    val fileList = new scala.collection.mutable.ListBuffer[String]
    val fileStatus = fs.listStatus(filePath)
    for (fileStat <- fileStatus) {
      println(s"file path Name : ${fileStat.getPath.toString} length is  ${fileStat.getLen}")
      if (fileStat.isDirectory) fileList ++= (getDisplaysizesOfS3Files(fileStat.getPath, fs))
      else if (fileStat.getLen > 0 && !fileStat.getPath.toString.isEmpty) {
        println("fileStat.getPath.toString" + fileStat.getPath.toString)
        fileList += fileStat.getPath.toString
        val size = fileStat.getLen
        val display = org.apache.commons.io.FileUtils.byteCountToDisplaySize(size)
        println(" length zero files \n " + fileStat)
        println("Name    = " + fileStat.getPath().getName());
        println("Size    = " + size);
        println("Display = " + display);
      } else if (fileStat.getLen == 0) {
        println(" length zero files \n " + fileStat)

      }
    }
    fileList
  }

根据您的需求,您可以修改代码...您可以总结所有不同的文件。 选项2:简单易懂,使用getContentSummary
implicit val spark = SparkSession.builder().appName("ObjectSummary").getOrCreate()
  /**
    * getDisplaysizesOfS3Files 
    * @param path
    * @param spark [[org.apache.spark.sql.SparkSession]]
    */
  def getDisplaysizesOfS3Files(path: String)( implicit spark: org.apache.spark.sql.SparkSession): Unit = {
    val filePath = new org.apache.hadoop.fs.Path(path)
    val fileSystem = filePath.getFileSystem(spark.sparkContext.hadoopConfiguration)
    val size = fileSystem.getContentSummary(filePath).getLength
    val display = org.apache.commons.io.FileUtils.byteCountToDisplaySize(size)
    println("path    = " + path);
    println("Size    = " + size);
    println("Display = " + display);
  } 

注意:上面显示的任何选项都适用于本地、HDFS或S3。


网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接