使用Android Camera2 API和ANativeWindow进行实时图像处理和显示

3
我需要使用相机预览数据进行实时图像处理,例如使用c++库进行人脸检测,然后在屏幕上显示加工后的预览并标记人脸。我已阅读了http://nezarobot.blogspot.com/2016/03/android-surfacetexture-camera2-opencv.html和Eddy Talvala在Android camera2 API - Display processed frame in real time中的答案。遵循这两个网页,我成功地构建了该应用程序(没有调用人脸检测库,只是尝试使用ANativeWindow显示预览),但每次我在运行此应用程序时,在Genymotion上运行的Google Pixel - 7.1.0 - API 25上,该应用程序总是崩溃,并抛出以下日志。
08-28 14:23:09.598 2099-2127/tau.camera2demo A/libc: Fatal signal 11 (SIGSEGV), code 2, fault addr 0xd3a96000 in tid 2127 (CAMERA2)
                  [ 08-28 14:23:09.599   117:  117 W/         ]
                  debuggerd: handling request: pid=2099 uid=10067 gid=10067 tid=2127

我在谷歌上搜索了这个问题,但没有找到答案。

Github上的整个项目:https://github.com/Fung-yuantao/android-camera2demo

这里是关键代码(我认为)。

Camera2Demo.java中的代码:

private void startPreview(CameraDevice camera) throws CameraAccessException {
    SurfaceTexture texture = mPreviewView.getSurfaceTexture();

    // to set PREVIEW size
    texture.setDefaultBufferSize(mPreviewSize.getWidth(),mPreviewSize.getHeight());
    surface = new Surface(texture);
    try {
        // to set request for PREVIEW
        mPreviewBuilder = camera.createCaptureRequest(CameraDevice.TEMPLATE_PREVIEW);
    } catch (CameraAccessException e) {
        e.printStackTrace();
    }

    mImageReader = ImageReader.newInstance(mImageWidth, mImageHeight, ImageFormat.YUV_420_888, 2);

    mImageReader.setOnImageAvailableListener(mOnImageAvailableListener,mHandler);

    mPreviewBuilder.addTarget(mImageReader.getSurface());

    //output Surface
    List<Surface> outputSurfaces = new ArrayList<>();
    outputSurfaces.add(mImageReader.getSurface());

    /*camera.createCaptureSession(
            Arrays.asList(surface, mImageReader.getSurface()),
            mSessionStateCallback, mHandler);
            */
    camera.createCaptureSession(outputSurfaces, mSessionStateCallback, mHandler);
}


private CameraCaptureSession.StateCallback mSessionStateCallback = new CameraCaptureSession.StateCallback() {

    @Override
    public void onConfigured(CameraCaptureSession session) {
        try {
            updatePreview(session);
        } catch (CameraAccessException e) {
            e.printStackTrace();
        }
    }

    @Override
    public void onConfigureFailed(CameraCaptureSession session) {

    }
};

private void updatePreview(CameraCaptureSession session)
        throws CameraAccessException {
    mPreviewBuilder.set(CaptureRequest.CONTROL_AF_MODE, CaptureRequest.CONTROL_AF_MODE_AUTO);

    session.setRepeatingRequest(mPreviewBuilder.build(), null, mHandler);
}


private ImageReader.OnImageAvailableListener mOnImageAvailableListener = new ImageReader.OnImageAvailableListener() {

    @Override
    public void onImageAvailable(ImageReader reader) {
        // get the newest frame
        Image image = reader.acquireNextImage();

        if (image == null) {
            return;
        }

        // print image format
        int format = reader.getImageFormat();
        Log.d(TAG, "the format of captured frame: " + format);

        // HERE to call jni methods
        JNIUtils.display(image.getWidth(), image.getHeight(), image.getPlanes()[0].getBuffer(), surface);


        //ByteBuffer buffer = image.getPlanes()[0].getBuffer();
        //byte[] bytes = new byte[buffer.remaining()];


        image.close();
    }
};

JNIUtils.java中的代码:

import android.media.Image;
import android.view.Surface;

import java.nio.ByteBuffer;


public class JNIUtils {
    // TAG for JNIUtils class
    private static final String TAG = "JNIUtils";

    // Load native library.
    static {
        System.loadLibrary("native-lib");
    }

    public static native void display(int srcWidth, int srcHeight, ByteBuffer srcBuffer, Surface surface);
}

在 native-lib.cpp 中的代码:

#include <jni.h>
#include <string>
#include <android/log.h>
//#include <android/bitmap.h>
#include <android/native_window_jni.h>

#define LOGE(...) __android_log_print(ANDROID_LOG_ERROR, "Camera2Demo", __VA_ARGS__)

extern "C" {
JNIEXPORT jstring JNICALL Java_tau_camera2demo_JNIUtils_display(
        JNIEnv *env,
        jobject obj,
        jint srcWidth,
        jint srcHeight,
        jobject srcBuffer,
        jobject surface) {
    /*
    uint8_t *srcLumaPtr = reinterpret_cast<uint8_t *>(env->GetDirectBufferAddress(srcBuffer));

    if (srcLumaPtr == nullptr) {
        LOGE("srcLumaPtr null ERROR!");
        return NULL;
    }
    */

    ANativeWindow * window = ANativeWindow_fromSurface(env, surface);
    ANativeWindow_acquire(window);

    ANativeWindow_Buffer buffer;

    ANativeWindow_setBuffersGeometry(window, srcWidth, srcHeight, 0/* format unchanged */);

    if (int32_t err = ANativeWindow_lock(window, &buffer, NULL)) {
        LOGE("ANativeWindow_lock failed with error code: %d\n", err);
        ANativeWindow_release(window);
        return NULL;
    }

    memcpy(buffer.bits, srcBuffer,  srcWidth * srcHeight * 4);


    ANativeWindow_unlockAndPost(window);
    ANativeWindow_release(window);

    return NULL;
}
}

在我注释掉memcpy之后,应用程序不再崩溃,但是没有显示任何内容。因此,我猜问题现在转向如何正确使用memcpy将捕获/处理的缓冲区复制到buffer.bits中

更新:

我进行了更改

memcpy(buffer.bits, srcBuffer, srcWidth * srcHeight * 4);

memcpy(buffer.bits, srcLumaPtr, srcWidth * srcHeight * 4);

应用程序不再崩溃并开始显示,但它显示了一些奇怪的东西。

你的应用程序是否具有相机权限? - Marcos Vasconcelos
@MarcosVasconcelos 确定 - fytao
我会怀疑memcpy函数,尝试将其注释掉,如果程序不再崩溃,请确保您不会复制超出实际需要的数据(我会确保格式正确)。 - yakobom
@yakobom 抱歉,memcpy 是问题所在。当我将其注释掉后,应用程序不再崩溃,但是没有显示任何内容。我仍然不知道如何正确使用 memcpy 将捕获/处理的缓冲区复制到 ANativeWindow_Buffer 中。我刚开始学习 Android。而且互联网上关于 ANativeWindow 的文档很少。 - fytao
我不确定ANativeWindow是你的问题,这很简单(ANativeWindow_setBuffersGeometry可能是唯一的“棘手”部分)。如果memcpy崩溃,要么你尝试复制比你缓冲区中可用的字节数更多的字节,从而导致内存溢出,要么表面有问题,你不被允许复制。这就是我能想到的。 - yakobom
2个回答

2

为了回答问题并避免评论过长,这种崩溃问题可能是由于memcpy复制的字节大小不正确引起的(根据其他评论的更新:在这种情况下,是由于禁止直接复制)。

如果现在出现奇怪的图像,则可能是另一个问题 - 我会怀疑图像格式,尝试修改它。


图像可能是YUV_420_888,应考虑步幅长度。 - Alex Cohn
1
本地缓冲区位于 AHARDWAREBUFFER_FORMAT_* RGB 格式之一。相机很少支持 RGB 输出,因此您不能直接将相机输出复制到 buffer.bits 中。您应该添加 YUV→RGB 转换。 - Alex Cohn
@AlexCohn 如果我只想显示Y平面,该怎么办?因为互联网上大多数的转换方法都是将YUV转换为RGB。 - fytao
如果您只需要灰度图像,则使用通常的公式,但对于U和V,请使用固定值127。 - Alex Cohn

2
如yakobom所述,您正在尝试将YUV_420_888图像直接复制到RGBA_8888目标中(如果您没有更改它,则为默认设置)。这不能只通过memcpy完成。
您需要实际转换数据,并确保不要复制太多-您拥有的示例代码复制了width*height*4字节,而YUV_420_888图像仅占用stride*height*1.5字节(大约)。因此,在复制时,您已经远离缓冲区的末尾。
您还必须考虑在Java级别提供的跨度以正确索引到缓冲区。Microsoft的此链接具有有用的图表。
如果您只关心亮度(因此灰度输出足够),请将亮度通道复制到R、G和B通道中。伪代码大致如下:
uint8_t *outPtr = buffer.bits;
for (size_t y = 0; y < height; y++) {
   uint8_t *rowPtr = srcLumaPtr + y * srcLumaStride;
   for (size_t x = 0; x < width; x++) {
      *(outPtr++) = *rowPtr;
      *(outPtr++) = *rowPtr;
      *(outPtr++) = *rowPtr;
      *(outPtr++) = 255; // gamma for RGBA_8888
      ++rowPtr;
    }
}

您需要从Image对象中读取srcLumaStride(第一个平面的行跨度),并通过JNI传递下去。


非常感谢您详细的回答,现在我的演示已经正常工作了。我还有一个问题:我在这里找到的YUV2RGBA转换并没有提到步幅。这是因为该转换处理整个YUV数组,而我是分别处理每个平面吗? - fytao
看起来我正在处理的图像缓冲区没有填充,这意味着步幅等于宽度。但我想为了鲁棒性仍然应该假设图像缓冲区有填充。 - fytao

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接