我正在尝试使用libswscale将YUV帧转换为RGB。
这是我的代码:
AVFrame *RGBFrame;
SwsContext *ConversionContext;
ConversionContext = sws_getCachedContext(NULL, FrameWidth, FrameHeight, AV_PIX_FMT_YUV420P, FrameWidth, FrameHeight, AV_PIX_FMT_RGB24, SWS_BILINEAR, 0, 0, 0);
RGBFrame = av_frame_alloc();
avpicture_fill((AVPicture *)RGBFrame, &FillVect[0], AV_PIX_FMT_RGB24, FrameWidth, FrameHeight);
sws_scale(ConversionContext, VideoFrame->data, VideoFrame->linesize, 0, VideoFrame->height, RGBFrame->data, RGBFrame->linesize);
我的程序在使用sws_scale函数时崩溃。
VideoFrame是一个AVFrame结构体,用于保存解码后的帧。
我认为这是因为YUV帧来自于avcodec_decode_video2函数,该函数返回如下数组:
VideoFrame->data[0] // Y array, linesize = frame width
VideoFrame->data[1] // U array, linesize = frame width/2
VideoFrame->data[2] // V array, linesize = frame width/2
虽然根据维基百科的说法,YUV420P理论上只有一个平面(即YUV420P是一种平面格式,因此Y、U、V数据被组合在一起),但实际上我们并不知道如何将分离的Y、U、V数据转换成RGB24格式,使用swscale。
请帮助我解决这个问题,谢谢:)