有人尝试在Android上运行物体检测或CRNN模型吗?我尝试在华为P30 Lite和三星J4 Core上运行CRNN模型(序列化的pytorch),但在华为P30 Lite上需要1秒,在三星J4 Core上需要5秒。
Huawei P30 lite
CPU : octa core processor
GPU : Mali-G51 MP4
Samsung J4
CPU : quad core
GPU : Adreno 308
安卓设备中的GPU与独立的GPU不同,它们没有VRAM和功率管理。CPU和GPU共享同一块内存。在使用带有GPU的PC上运行模型之前,我们需要指定将计算放置在GPU上,例如:
model = MyModel()
model.cuda()
但是当我在安卓上运行模型时,它是否利用了内置的GPU?或者计算速度更快是因为我的华为拥有八核处理器,但显然华为比我的三星设备有更好的GPU。