我正在尝试将一个训练好的模型从checkpoint文件转换为tflite
。我正在使用tf.lite.LiteConverter
。浮点数转换速度很快,推理速度也很合理。但是INT8
转换的推理速度非常慢。我尝试通过输入一个非常小的网络进行调试。我发现INT8模型的推理速度通常比浮点模型慢。
在INT8 tflite文件中,我发现了一些称为ReadVariableOp的张量,在TensorFlow官方的mobilenet tflite模型中不存在。
我想知道是什么原因导致了INT8推理的缓慢。