9得票6回答
AVAssetWriterInputPixelBufferAdaptor 返回空的像素缓冲池。

我确定我的缓冲区属性有问题,但是我不清楚应该填什么。文档并没有很好地说明。因此,我根据 CVPixelBufferPoolCreate 进行了猜测。对于 Core Foundation,我基本上一窍不通。 // "width" and "height" are const ints ...

9得票3回答
VTDecompressionSession中的图像缓冲区显示顺序

我有一个项目,需要从实时网络流中解码h264视频,并最终得到一个可以在iOS设备上的另一个框架(Unity3D)中显示的纹理。我可以使用VTDecompressionSession成功地解码视频,然后使用CVMetalTextureCacheCreateTextureFromImage(或Op...

8得票1回答
理解核心视频CVPixelBufferPool和CVOpenGLESTextureCache的语义

我正在重构我的iOS基于OpenGL的渲染管道。我的管道由许多渲染步骤组成,因此我需要许多中间纹理来进行渲染和读取。这些纹理具有各种类型(无符号字节和半浮点数),可能具有不同数量的通道。 为了节省内存和分配工作,我回收了之前在管道中使用过但不再需要的纹理。在以前的实现中,我自己完成了这个操作...

34得票2回答
在不同屏幕上使用Cocoa绘图会降低性能

我有一个基于文档的应用程序,每个文档都有一个带有NSScrollView的窗口,仅使用Cocoa进行一些(相当连续的)绘图。 为了调用绘图,我正在使用CVDisplayLink,如下所示的代码:- (void)windowControllerDidLoadNib:(NSWindowContr...

29得票2回答
如何从CMSampleBufferRef中获取字节以便通过网络发送

我正在使用AVFoundation框架捕获视频,参考了苹果开发文档 http://developer.apple.com/library/ios/#documentation/AudioVideo/Conceptual/AVFoundationPG/Articles/03_MediaCaptu...

10得票1回答
iOS的核心视频示例

除了Core Video编程指南,有没有任何使用Core Video的教程和示例可供参考?

7得票1回答
如何使用AVMediaTypeText实例化一个AVMutableCompositionTrack?

我正在尝试在创建的视频的某个部分放置一些文字。我意识到可以使用CALayers上的文本层覆盖整个视频长度,但是如何仅在视频的一部分上使用呢?经过一些研究,我发现可以创建一个AVMutableCompositionTrack类型为AVMediaTypeText的轨道,这似乎可以解决问题;然而,我...

8得票1回答
如何选择与AVAssetReader一起使用的像素格式类型(kCVPixelBufferPixelFormatTypeKey)?

我们正在使用AVAssetReader和AVAssetWriter,并且类似于Video Encoding using AVAssetWriter - CRASHES中所述的方式读取从照片库/资源库获取的视频,然后将其写入不同比特率以减小其大小(以便进行网络上传)。 让我们成功的技巧是在AV...

9得票1回答
CVPixelBuffer与CVImageBuffer,以及缓冲区总体概述

" CMSampleBufferGetImageBuffer 返回的 CVPixelBuffer 有什么区别?我只想获取图像平面(RGBA),但我无法从CVImageBuffer中获取此信息。我正在使用Swift。 谢谢。"

9得票1回答
从CVPixelBuffer创建一个CMSampleBuffer。

我从ARSessionDelegate获取了一个CVPixelBuffer: func session(_ session: ARSession, didUpdate frame: ARFrame) { frame.capturedImage // CVPixelBufferRef ...