我是Hadoop的新手,我有一个要通过命令行导入到Hadoop的文件(我通过SSH访问机器)
我该如何在Hadoop中导入文件? 后续如何检查(使用命令)?
导入CSV文件的2个步骤:
使用-put命令将文件从本地位置移动到HDFS。
hdfs dfs -put /home/username/file.csv /user/data/file.csv
我们可以使用三个标志将数据从本地计算机加载到HDFS中,
-copyFromLocal
我们使用此标志将数据从本地文件系统复制到Hadoop目录。
hdfs dfs –copyFromLocal /home/username/file.csv /user/data/file.csv
hdfs dfs -mkdir /user/data
-put
如@Sam在上面的回答中提到的,我们也使用-put
标志将数据从本地文件系统复制到Hadoop目录。
hdfs dfs -put /home/username/file.csv /user/data/file.csv
-moveFromLocal
我们还使用-moveFromLocal
标志将数据从本地文件系统复制到Hadoop目录。但这将从本地目录中删除该文件。
hdfs dfs -moveFromLocal /home/username/file.csv /user/data/file.csv
$HADOOP_HOME/bin/hadoop fs -put <csv文件位置> <hdfs位置>
命令将文件上传至 HDFS。例如:$HADOOP_HOME/bin/hadoop fs -put /home/address.csv hdfs://192.168.123.123:9000/address.csv
。 - karthik manchala