Amazon EMR,Apache Spark 2.3和Apache Kafka每天处理大约10万条记录。
Apache Spark用于按5分钟批处理事件,每天一次工作节点停机,AWS会自动重新提供节点。通过审查日志消息,看起来节点中没有空间,但是它们有大约1Tb的存储空间。
在存储空间应该足够的情况下,有人遇到过存储空间问题吗?
我想日志聚合可能无法将日志正确复制到S3存储桶,而这应该由Spark进程自动完成。
我应该提供哪些信息以帮助解决此问题?
提前致谢!
Apache Spark用于按5分钟批处理事件,每天一次工作节点停机,AWS会自动重新提供节点。通过审查日志消息,看起来节点中没有空间,但是它们有大约1Tb的存储空间。
在存储空间应该足够的情况下,有人遇到过存储空间问题吗?
我想日志聚合可能无法将日志正确复制到S3存储桶,而这应该由Spark进程自动完成。
我应该提供哪些信息以帮助解决此问题?
提前致谢!
最后状态更改原因:主节点无法与此实例通信。
- oivoodoo