我有一个
现在rgbMat看起来像这样:
(CMSampleBufferRef)imageBuffer
,它的类型是yuv_nv12(4:2:0)。
现在我运行了以下代码,并发现结果令人困惑。
UInt8 *baseSRC = (UInt8 *)CVPixelBufferGetBaseAddress(imageBuffer);
UInt8 *yBaseSRC = (UInt8 *)CVPixelBufferGetBaseAddressOfPlane(imageBuffer, 0);
UInt8 *uvBaseSRC = (UInt8 *)CVPixelBufferGetBaseAddressOfPlane(imageBuffer, 1);
int width = (int)CVPixelBufferGetWidthOfPlane(imageBuffer, 0); //width = 480;
int height = (int)CVPixelBufferGetHeightOfPlane(imageBuffer, 0); //height = 360;
int y_base = yBaseSRC - baseSRC; //y_base = 64;
int uv_y = uvBaseSRC-yBaseSRC; //uv_y = 176640;
int delta = uv_y - width*height; //delta = 3840;
我对这个结果有几个问题。
1:为什么 baseSRC
不等于 yBaseSRC
?
2:理论上, yBaseSRC + width * height
不等于 uvBaseSRC
吗? 理论上,y分量数据后面紧跟着uv分量数据,没有任何中断,是吗?现在它被3840字节大小的某些东西所打断了,我不明白。
3:我尝试使用以下代码将此示例像素转换为cvmat,在大多数iOS设备上,这可以正常工作,但在iPhone 4s上不行。在转换后,像素缓冲区的侧面会出现一些绿线。
Mat nv12Mat(height*1.5,width,CV_8UC1,(unsigned char *)yBaseSRC);
Mat rgbMat;
cvtColor(nv12Mat, rgbMat, CV_YUV2RGB_NV12);
现在rgbMat看起来像这样: