我正在使用一个服务,该服务输出到Event Hub。
我们想要将该输出存储下来,以便每天由在Apache Spark上运行的批处理作业读取。基本上,我们想到的方法是将所有消息转储到Blob中。
最简单的从Event Hub捕获消息并存储到Blob Storage的方式是什么?
我们最初的想法是使用流分析作业,但它要求解析原始消息(CSV/JSON/Avro),而我们当前的格式不是这些格式之一。
更新:我们通过更改消息格式解决了此问题。我仍然想知道是否有任何低影响的方法将消息存储到Blob中。在流分析到达之前,EventHub是否有解决此问题的方法?
我们想要将该输出存储下来,以便每天由在Apache Spark上运行的批处理作业读取。基本上,我们想到的方法是将所有消息转储到Blob中。
最简单的从Event Hub捕获消息并存储到Blob Storage的方式是什么?
我们最初的想法是使用流分析作业,但它要求解析原始消息(CSV/JSON/Avro),而我们当前的格式不是这些格式之一。
更新:我们通过更改消息格式解决了此问题。我仍然想知道是否有任何低影响的方法将消息存储到Blob中。在流分析到达之前,EventHub是否有解决此问题的方法?