CoreML模型的预测结果与训练结果不同

3

我对Core ML比较新,但到目前为止,我已经玩得很开心了。我正在学习如何训练模型进行面部识别,通过在playground中创建模型并验证其结果来实现。我保存.mlmodel文件并在我的应用程序中实现它。

问题是当我在playground中测试时,它似乎具有非常高的准确度,但是当我在应用环境中使用相同的图片实现相同的模型时,我得到完全不同的结果,这几乎无法使用。

以下是我从调试控制台获取的一些代码。

[<VNClassificationObservation: 0x282deff00> BFB8D19B-40AE-45F9-B979-19C11A919DBE, revision 1, 0.778162 "Others", <VNClassificationObservation: 0x282dede60> 9E9B2AC8-3969-4086-B3B0-6ED6BEDFFE71, revision 1, 0.221838 "Me"]

这里有一张图片,它错误地将我识别为其他人,尽管在测试过程中在playground正确地识别了相同的图片。似乎应用本身运行良好,只是模型突然出问题了。

我错过了什么吗?

谢谢

1个回答

1
通常情况下,这是因为您在 Playground 和应用程序中以不同的方式加载图像。我的建议是确保在两种情况下使用的图像完全相同。不仅是图像内容,还包括在将它们提供给模型之前如何加载它们。

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接