我有一个基本的Android TensorFlowInference
示例,在单线程中运行良好。
public class InferenceExample {
private static final String MODEL_FILE = "file:///android_asset/model.pb";
private static final String INPUT_NODE = "intput_node0";
private static final String OUTPUT_NODE = "output_node0";
private static final int[] INPUT_SIZE = {1, 8000, 1};
public static final int CHUNK_SIZE = 8000;
public static final int STRIDE = 4;
private static final int NUM_OUTPUT_STATES = 5;
private static TensorFlowInferenceInterface inferenceInterface;
public InferenceExample(final Context context) {
inferenceInterface = new TensorFlowInferenceInterface(context.getAssets(), MODEL_FILE);
}
public float[] run(float[] data) {
float[] res = new float[CHUNK_SIZE / STRIDE * NUM_OUTPUT_STATES];
inferenceInterface.feed(INPUT_NODE, data, INPUT_SIZE[0], INPUT_SIZE[1], INPUT_SIZE[2]);
inferenceInterface.run(new String[]{OUTPUT_NODE});
inferenceInterface.fetch(OUTPUT_NODE, res);
return res;
}
}
以下是示例代码,当在 ThreadPool
中运行时,该示例会崩溃并抛出各种异常,包括 java.lang.ArrayIndexOutOfBoundsException
和 java.lang.NullPointerException
,因此我猜测它不是线程安全的。
InferenceExample inference = new InferenceExample(context);
ExecutorService executor = Executors.newFixedThreadPool(NUMBER_OF_CORES);
Collection<Future<?>> futures = new LinkedList<Future<?>>();
for (int i = 1; i <= 100; i++) {
Future<?> result = executor.submit(new Runnable() {
public void run() {
inference.call(randomData);
}
});
futures.add(result);
}
for (Future<?> future:futures) {
try { future.get(); }
catch(ExecutionException | InterruptedException e) {
Log.e("TF", e.getMessage());
}
}
使用 TensorFlowInferenceInterface
可以利用多核 Android 设备吗?
feed()
和fetch()
的调用是在你同步的run()
内部。所以,我在上面的评论中是错误的。然而,你的方法会限制并行性,因为它实际上将TensorFlow会话的使用串行化 - 只有一个线程可以同时执行模型。 - ash