我有一段代码,其中图像数据从位图传递到FFmpeg帧记录器并转换为视频。但是我需要在LG G3(armv7)上运行它时进行小修改,而不是在Asus zenfone 5(x86)上运行。
以下是创建问题的类变量:(声明在MainActivity类下)
inputWidth = 1024;
inputHeight = 650;
以下是出现问题的方法:
byte [] getNV21(int inputWidth, int inputHeight, Bitmap bitmap) {
int [] argb = new int[inputWidth * inputHeight];
bitmap.getPixels(argb, 0, inputWidth, 0, 0, inputWidth, inputHeight);
byte [] yuv = new byte[inputWidth*inputHeight*3/2];
encodeYUV420SP(yuv, argb, inputWidth, inputHeight);
return yuv;
}
void encodeYUV420SP(byte[] yuv420sp, int[] argb, int width, int height) {
final int frameSize = width * height;
int yIndex = 0;
int uvIndex = frameSize;
int a, R, G, B, Y, U, V;
int index = 0;
for (int j = 0; j < height; j++) {
for (int i = 0; i < width; i++) {
a = (argb[index] & 0xff000000) >> 24; // a is not used obviously
R = (argb[index] & 0xff0000) >> 16;
G = (argb[index] & 0xff00) >> 8;
B = (argb[index] & 0xff) >> 0;
// well known RGB to YUV algorithm
Y = ( ( 66 * R + 129 * G + 25 * B + 128) >> 8) + 16;
U = ( ( -38 * R - 74 * G + 112 * B + 128) >> 8) + 128;
V = ( ( 112 * R - 94 * G - 18 * B + 128) >> 8) + 128;
// NV21 has a plane of Y and interleaved planes of VU each sampled by a factor of 2
// meaning for every 4 Y pixels there are 1 V and 1 U. Note the sampling is every other
// pixel AND every other scanline.
yuv420sp[yIndex++] = (byte) ((Y < 0) ? 0 : ((Y > 255) ? 255 : Y));
if (j % 2 == 0 && index % 2 == 0) {
yuv420sp[uvIndex++] = (byte)((V<0) ? 0 : ((V > 255) ? 255 : V));
yuv420sp[uvIndex++] = (byte)((U<0) ? 0 : ((U > 255) ? 255 : U));
}
index ++;
}
}
}
正确的代码:
LG G3:我能够在代码中的任何位置使用上述变量来获得所需的输出。位图大小返回值为2734200。
Asus Zenfone 5:除了创建位图,其他地方都必须使用bitmap.getHeight()和bitmap.getWidth()来获取所需的输出。
令人惊讶的是,这里的Bitmap大小返回值为725760(因此它不是根据设置的位图参数进行设置?)
错误的代码:
LG G3:如果我使用bitmap.getHeight()和bitmap.getWidth(),我会得到java.lang.ArrayIndexOutOfBoundsException:length = 102354,index = 102354。 @getNV21方法
Asus Zenfone 5:如果我使用inputWidth,inputHeight,我会得到java.lang.IllegalArgumentException:x + width must be <= bitmap.width() @getNV21方法
如何将上述代码推广至两种手机?