使用CL NUI Kinect驱动程序,将深度颜色转换为实际的相对距离。

5

我正在使用Kinect驱动器CL NUI,并尝试获取物品的相对深度。

该库提供了一种获取代表屏幕上对象深度的图像的方法。这是一个例子:
Kinect Depth Image

有没有一种简单的方法将像素颜色转换为图像深度?例如,最接近颜色可能是深度为0,而最远的颜色可能是深度为1。

有人知道如何做吗?

我发现了如何将深度数据转换为颜色的计算,但我想要的是相反的:

float RawDepthToMeters(int depthValue)
{
    if (depthValue < 2047)
    {
        return float(1.0 / (double(depthValue) * -0.0030711016 + 3.3309495161));
    }
    return 0.0f;
}

Vec3f DepthToWorld(int x, int y, int depthValue)
{
    static const double fx_d = 1.0 / 5.9421434211923247e+02;
    static const double fy_d = 1.0 / 5.9104053696870778e+02;
    static const double cx_d = 3.3930780975300314e+02;
    static const double cy_d = 2.4273913761751615e+02;

    Vec3f result;
    const double depth = RawDepthToMeters(depthValue);
    result.x = float((x - cx_d) * depth * fx_d);
    result.y = float((y - cy_d) * depth * fy_d);
    result.z = float(depth);
    return result;
}

Vec2i WorldToColor(const Vec3f &pt)
{
    static const Matrix4 rotationMatrix(
                            Vec3f(9.9984628826577793e-01f, 1.2635359098409581e-03f, -1.7487233004436643e-02f),
                            Vec3f(-1.4779096108364480e-03f, 9.9992385683542895e-01f, -1.2251380107679535e-02f),
                            Vec3f(1.7470421412464927e-02f, 1.2275341476520762e-02f, 9.9977202419716948e-01f));
    static const Vec3f translation(1.9985242312092553e-02f, -7.4423738761617583e-04f, -1.0916736334336222e-02f);
    static const Matrix4 finalMatrix = rotationMatrix.Transpose() * Matrix4::Translation(-translation);

    static const double fx_rgb = 5.2921508098293293e+02;
    static const double fy_rgb = 5.2556393630057437e+02;
    static const double cx_rgb = 3.2894272028759258e+02;
    static const double cy_rgb = 2.6748068171871557e+02;

    const Vec3f transformedPos = finalMatrix.TransformPoint(pt);
    const float invZ = 1.0f / transformedPos.z;

    Vec2i result;
    result.x = Utility::Bound(Math::Round((transformedPos.x * fx_rgb * invZ) + cx_rgb), 0, 639);
    result.y = Utility::Bound(Math::Round((transformedPos.y * fy_rgb * invZ) + cy_rgb), 0, 479);
    return result;
}

我的矩阵数学不太好,我不确定如何反转计算。

2个回答

3
我找到了解决方案。
深度值存储在CLNUIDevice.GetCameraDepthFrameRAW图像中。 该图像的颜色是由11位深度值创建的。例如,RGB颜色有24位(ARGB有32位)。要获取深度,您需要截断不必要的位,如下所示:
    private int colorToDepth(Color c) {
        int colorInt = c.ToArgb();

        return (colorInt << 16) >> 16;
    }

您使用16,因为11位数字在16位位置上进行了0填充。即,您有一个看起来像这样的数字:1111 1111 0000 0### #### ####,其中1是Alpha通道,零是填充,'#'是实际值。向左移动16位后,您将得到0000 0### #### #### 0000 0000,您需要通过向右移动16次来推回:0000 0000 0000 0### ##### ####。


0

如果我理解正确的话,您的代码从Kinect接收深度数组,使用DepthToWorld将其转换为“世界”对象(具有x、y、z坐标),然后使用WorldToColor将其转换为颜色2D数组。从那里,您正在尝试检索每个像素相对于Kinect的距离(以米为单位)。对吗?

那么,为什么不直接获取从Kinect获得的初始深度数组,并在每个像素上调用RawDepthToMeters函数呢?

反转您的代码之前所做的操作会导致性能损失巨大...


这是在库内部,我只得到了颜色输出。 - Malfist

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接