26得票1回答
如何将UIImage转换为CVPixelBuffer

苹果的新CoreML框架具有一个预测函数,该函数接受一个CVPixelBuffer。为了对UIImage进行分类,必须在两者之间进行转换。 我从一个苹果工程师那里得到了转换代码:1 // image has been defined earlier 2 3 var pixelbuf...

20得票4回答
在Swift中从CVPixelBufferRef获取像素值

我该如何从CVPixelBufferRef获取RGB(或其他格式)像素值?我尝试了许多方法,但还没有成功。func captureOutput(captureOutput: AVCaptureOutput!, didOutputSampleBuffer s...

15得票2回答
使用AVAssetWriter时出现未知的底层OSStatus错误-16364。

我正在为我的一个应用程序构建视频导出功能。实际上,这个视频是由六种不同图像的系列组成,每张图像持续时间不同(较短)。 当我尝试导出包含283张不同持续时间图片的内容时,导出正常工作。但是当我尝试导出包含803张图片的内容时,我会遇到可怕的“操作无法完成”错误(也就是说,“我们不知道发生了什么...

15得票5回答
从ARKit中获取RGB“CVPixelBuffer”

我正在尝试从苹果的 ARKit 中获取一个 RGB 颜色空间的 CVPixelBuffer。在 ARSessionDelegate 的 func session(_ session: ARSession, didUpdate frame: ARFrame) 方法中,我获取到了一个 ARFram...

11得票3回答
复制/拷贝CVPixelBufferRef使用CVPixelBufferCreate

我需要创建一个CVPixelBufferRef的副本,以便能够使用复制品中的值以位为单位地操纵原始像素缓冲区。 使用CVPixelBufferCreate或CVPixelBufferCreateWithBytes似乎无法实现此目的。 根据这个问题,也可能可以使用memcpy()来完成。但是,...

10得票1回答
在某些设备上,将像素缓冲区写入资产编写器存在困难

我正在开发一个功能,用于将样本缓冲区中的图像写入AVAssetWriter。奇怪的是,这在10.5英寸的iPad Pro上很好地工作,但会导致7.9英寸的iPad Mini 2崩溃。我无法想象同样的代码如何在两个不同的设备上出现问题。但以下是我的代码:func captureOutput(_ ...

9得票1回答
将ARFrame捕获的图像转换为UIImage方向问题

我想检测球,并且让AR模型与其进行交互。我使用了opencv来检测球并发送球的中心点,我可以在hitTest中使用该坐标获取sceneView中的坐标。我一直在使用以下函数将CVPixelBuffer转换为UIImage: static func convertToUIImage(buffe...

9得票1回答
从CVPixelBufferRef获取RAW Bayer像素数据

我正在使用AVCaptureSession和AVCapturePhotoOutput从设备的相机中以kCVPixelFormatType_14Bayer_RGGB格式获取原始照片数据。 我已经成功地在AVCapturePhotoCaptureDelegate回调中获取了原始照片样本缓冲区: ...

9得票4回答
如何使用CVPixelBuffer/IOSurface更新CALayer?

我有一个由外部源以每秒30帧更新的基于IOSurface的CVPixelBuffer。我想在NSView中呈现图像数据的预览 - 对我来说最好的方法是什么? 我可以直接设置视图上CALayer的.contents,但这只会在视图第一次更新时(或者例如我调整视图大小时)更新。我一直在查阅文档,...

8得票3回答
如何在Swift中直接从CIImage而不是UIImage创建CVPixelBuffer?

我正在通过iPhone相机记录经过滤波的视频,在实时录制过程中,将CIImage转换为UIImage会导致CPU使用率大幅增加。我的缓冲函数使用UIImage制作CVPixelBuffer,这迫使我进行此转换。如果可能的话,我想改为创建一个可以接受CIImage的缓冲函数,以便跳过从UIIma...