我正在开发一个视频分析应用,需要将RTSP流解码为IplImage帧,然后将其输入到我的分析管道中。OpenCV的VideoCapture结构允许我从RTSP流中提取帧(我认为它使用ffmpeg完成),但性能不佳。它需要实时工作。
我还自己写了ffmpeg解码器。但是,就像OpenCv一样,在处理RTSP流时性能也不好,会有很多帧被丢弃。然而,从本地文件解码正常工作。我仍在继续完善代码。
我需要帮助的是,首先,我能否使用硬件加速来提高性能?我的应用程序应该跨平台,因此我可能需要使用Directx VA(Windows)和VAAPI(Linux)。如果可以,那么是否有任何地方可以学习如何在代码中实现硬件加速,特别是对于h264的ffmpeg解码?
我还自己写了ffmpeg解码器。但是,就像OpenCv一样,在处理RTSP流时性能也不好,会有很多帧被丢弃。然而,从本地文件解码正常工作。我仍在继续完善代码。
我需要帮助的是,首先,我能否使用硬件加速来提高性能?我的应用程序应该跨平台,因此我可能需要使用Directx VA(Windows)和VAAPI(Linux)。如果可以,那么是否有任何地方可以学习如何在代码中实现硬件加速,特别是对于h264的ffmpeg解码?