我正在使用云Dataflow将数据从Pub/Sub消息导入到BigQuery表格中。我使用DynamicDestinations,因为这些消息可以被放置到不同的表中。
最近我注意到该过程开始消耗所有资源,并且显示了卡住的消息,如下所示:
管道正在使用beam-runners-google-cloud-dataflow-java版本2.8.0和google-cloud-bigquery版本1.56.0。
最近我注意到该过程开始消耗所有资源,并且显示了卡住的消息,如下所示:
处理已卡在步骤Write Avros to BigQuery Table/StreamingInserts/StreamingWriteTables/StreamingWrite至少26h45m00s,未输出或完成状态完成(处于finish状态)sun.misc.Unsafe.park(Native Method) java.util.concurrent.locks.LockSupport.park(LockSupport.java:175) java.util.concurrent.FutureTask.awaitDone(FutureTask.java:429) java.util.concurrent.FutureTask.get(FutureTask.java:191) org.apache.beam.sdk.io.gcp.bigquery.BigQueryServicesImpl$DatasetServiceImpl.insertAll(BigQueryServicesImpl.java:765) org.apache.beam.sdk.io.gcp.bigquery.BigQueryServicesImpl$DatasetServiceImpl.insertAll(BigQueryServicesImpl.java:829) org.apache.beam.sdk.io.gcp.bigquery.StreamingWriteFn.flushRows(StreamingWriteFn.java:131) org.apache.beam.sdk.io.gcp.bigquery.StreamingWriteFn.finishBundle(StreamingWriteFn.java:103) org.apache.beam.sdk.io.gcp.bigquery.StreamingWriteFn$DoFnInvoker.invokeFinishBundle(Unknown Source)
目前,简单地取消管道并重新启动似乎能暂时解决问题,但我似乎无法确定进程被卡住的原因。管道正在使用beam-runners-google-cloud-dataflow-java版本2.8.0和google-cloud-bigquery版本1.56.0。