我正在处理有关在hadoop环境(yarn)中用Ceph替换HDFS的事情。根据我的研究,hortonworks和Replace HDFS form local disk to s3 getting error的指南告诉我需要修改
然而,当我尝试通过
供您参考,我的hadoop版本是3.2.0。
预先感谢您的帮助。
$hadoop_home/etc/hadoop
下的core-site.xml
文件。我的修改如下:<property>
<name>fs.s3a.access.key</name>
<value>xxxxxxxxxxxxxx</value>
</property>
<property>
<name>fs.s3a.secret.key</name>
<value>xxxxxxxxxxxxx</value>
</property>
<property>
<name>fs.default.name</name>
<value>s3a://bucket_name</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>s3a://bucket_name</value>
</property>
<property>
<name>fs.s3a.endpoint</name>
<value>http://x.x.x.x:xxxx</value>
</property>
<property>
<name>fs.AbstractFileSystem.s3a.imp</name>
<value>org.apache.hadoop.fs.s3a.S3A</value>
</property>
然而,当我尝试通过
sbin/start-all.sh
启动 Hadoop 时,出现以下错误:java.lang.IllegalArgumentException: Invalid URI for NameNode address (check fs.defaultFS): s3a://bucket_name is not of scheme 'hdfs'.
供您参考,我的hadoop版本是3.2.0。
预先感谢您的帮助。