我正在尝试找到一种在iOS应用中运行Tensorflow模型(Inception或mobilenet)的最简单方法,实现物体检测。
我已经在我的应用程序中使用iOS Tensorflow图像分类,并且按照这个示例设置好了网络,同时在我的应用程序和网络中使用了这个示例来实现Tensorflow图像分类和物体检测。
但是,iOS示例中仅包含图像分类,没有物体检测,因此如何扩展iOS示例代码以支持物体检测,或者是否有一个完整的iOS示例?(最好是objective-C)
我确实找到了这个和这个,但它们需要重新编译Tensorflow源代码,似乎比较复杂,
也找到了Tensorflow lite,
但同样没有物体检测。
我还发现将Tensorflow模型转换为Apple Core ML的选项,使用Core ML,但这似乎非常复杂,并且找不到用于Core ML中物体检测的完整示例。
我已经在我的应用程序中使用iOS Tensorflow图像分类,并且按照这个示例设置好了网络,同时在我的应用程序和网络中使用了这个示例来实现Tensorflow图像分类和物体检测。
但是,iOS示例中仅包含图像分类,没有物体检测,因此如何扩展iOS示例代码以支持物体检测,或者是否有一个完整的iOS示例?(最好是objective-C)
我确实找到了这个和这个,但它们需要重新编译Tensorflow源代码,似乎比较复杂,
也找到了Tensorflow lite,
但同样没有物体检测。
我还发现将Tensorflow模型转换为Apple Core ML的选项,使用Core ML,但这似乎非常复杂,并且找不到用于Core ML中物体检测的完整示例。