我尝试在多个主机的Docker Swarm中设置一个Hadoop集群,并在每个Docker节点上安装一个挂载卷的数据节点。我进行了一些测试,效果不错,但是当数据节点死亡并返回时会出现问题。
我同时重启了2个主机,当容器再次运行时,它们会获得新的IP地址。问题在于namemode会发生错误,因为它认为这是另一个数据节点。
我同时重启了2个主机,当容器再次运行时,它们会获得新的IP地址。问题在于namemode会发生错误,因为它认为这是另一个数据节点。
ERROR org.apache.hadoop.hdfs.StateChange: BLOCK* NameSystem.getDatanode: Data node 10.0.0.13:50010 is attempting to report storage ID 3a7b556f-7364-460e-beac-173132d77503. Node 10.0.0.9:50010 is expected to serve this storage.
在重新启动后,是否可以防止docker分配新的IP地址,并保留上次的IP地址?
或者有没有Hadoop配置选项来解决这个问题?