我正在编写一个iPhone应用程序,它将进行一些实时相机图像处理。我使用AVFoundation文档中提供的示例作为起点:设置捕获会话,从样本缓冲区数据制作UIImage,然后通过-setNeedsDisplay
在某个位置绘制图像,我在主线程上调用该方法。
这样可以运行,但是速度比较慢(对于192 x 144预设,每帧需要50毫秒,测量结果是两次-drawRect:
之间),而且我在App Store上看到一些应用程序比这还要快。
我的一半时间都花在了-setNeedsDisplay
上。
如何加快这个图像处理过程?