我目前正在开发一个iOS应用程序,它将CoreImage应用于相机视频流以拍摄照片和视频,但遇到了一些问题。
到目前为止,我一直在使用AVCaptureVideoDataOutput获取样本缓冲区并使用CoreImage来操作它们,然后显示简单的预览,并使用它来拍摄照片并保存它们。
当我尝试实现视频录制(通过将样本缓冲区从AVCaptureVideoDataOutput写入视频),帧率非常慢(可能是因为正在进行其他图像相关处理)。
所以我想知道,是否可以同时使用AVCaptureVideoDataOutput和AVCaptureMoveFileOutput在同一个AVCaptureSession中工作?
我尝试了一下,发现当我添加了额外的输出时,我的AVCaptureVideoDataOutput停止接收信息。
如果我能让它正常工作,我希望这意味着我可以简单地使用第二个输出以高帧速率记录视频,并在用户停止录制后对视频进行后处理。
任何帮助将不胜感激。