我是一个新手,正在尝试将FFmpeg与苹果的CoreVideo框架结合起来处理网络摄像头捕获。
首先,我有来自CoreVideo的网络摄像头捕获(可以在AVCaptureVideoDataOutputSampleBufferDelegate中找到),它们由CMSampleBuffer表示。
- (void)captureOutput:(AVCaptureOutput *)captureOutput
didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer
fromConnection:(AVCaptureConnection *)connection {}
我想将其转换为FFmpeg的AVPacket,而不需存储为临时文件,以便我可以处理。
有人知道我应该查找哪个FFmpeg API吗?
muxing.c
示例。 https://ffmpeg.org/doxygen/trunk/muxing_8c-source.html这个示例很好地演示了如何编写一个编码器,您可以修改代码fill_yuv_image
来填充您的数据。 - Mohamed El-Sayed