11得票2回答
在Tensorflow-lite中处理动态尺寸的输入图像

我有一个TensorFlow模型,可以接收不同大小的输入图像:inputs = layers.Input(shape=(128,None,1), name='x_input') <tf.Tensor 'x_input:0' shape=(?, 128, ?, 1) dtype=floa...

11得票2回答
Tensorflow-Lite预训练模型在Android演示中无法工作

Tensorflow-Lite Android演示可以使用其提供的原始模型:mobilenet_quant_v1_224.tflite。请参阅:https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/lit...

11得票2回答
如何调用Flex代理以运行tflite解释器?

我有一个TensorFlow模型,我想将其转换为tflite模型并在ARM64平台上部署。我的模型有两个操作(RandomStandardNormal、Softplus),似乎需要自定义实现。考虑到执行时间不是那么重要,我决定使用扩展运行时的混合模型。我通过以下方式进行转换:graph_def...

10得票4回答
如何查看.tflite文件中的权重?

我得到了MobileNet的预训练.pb文件,发现它没有量化,而完全量化的模型应该转换为.tflite格式。由于我不熟悉移动应用程序开发工具,所以我应该如何从.tflite文件中获取MobileNet的完全量化权重。更准确地说,我应该如何提取量化参数并查看其数值?

10得票2回答
理解tf.contrib.lite.TFLiteConverter量化参数

我正在尝试将TensorFlow模型转换为TFLite模型时使用UINT8量化:如果使用post_training_quantize = True,则模型大小比原始的fp32模型小四倍,因此我假设模型权重是uint8,但是当我加载模型并通过interpreter_aligner.get_inp...

10得票2回答
如何在C++项目中使用TF Lite库

最近一两天,我一直在苦苦思索如何构建TensorFlow Lite,以便将其作为头文件或库在我的C\C++项目中使用。比如,我有一个带有main.cpp的C++项目,其中包含以下代码:#include "tensorflow/lite/model.h" #include "tensorflow...

10得票2回答
在移动设备上运行循环神经网络(推断)的最快方法

我拥有:一个在Tensorflow中训练的递归神经网络。 我想要:一个可以尽可能快地运行此网络的移动应用程序(仅限推理模式,不进行训练)。 我相信有多种方法可以实现我的目标,但由于我以前从未做过这样的事情,因此我需要你的反馈/更正和补充。 1. Tensorflow Lite。优点: 直...

10得票2回答
tflite 量化推理非常缓慢

我正在尝试将一个训练好的模型从checkpoint文件转换为tflite。我正在使用tf.lite.LiteConverter。浮点数转换速度很快,推理速度也很合理。但是INT8转换的推理速度非常慢。我尝试通过输入一个非常小的网络进行调试。我发现INT8模型的推理速度通常比浮点模型慢。 在I...

10得票1回答
什么是Tensorflow的qint8、quint8、qint32、qint16和quint16数据类型?

我正在查看Tensorflow的tf.nn.quantized_conv2d函数,想知道qint8等数据类型是什么,特别是它们是否是tf.contrib.quantize中“伪量化节点”使用的数据类型,或者实际上在内存中使用8位(对于qint8)存储的数据类型。 我知道它们在tf.dtype...

9得票5回答
我们能在Linux上运行TensorFlow Lite吗?还是它只适用于Android和iOS?

你好,是否有可能在Linux平台上运行TensorFlow Lite?如果可以,那么我们该如何使用Java/C++/Python编写代码来在Linux平台上加载和运行模型?我熟悉Bazel,并成功地使用TensorFlow Lite制作了Android和iOS应用程序。