34得票2回答
在不同屏幕上使用Cocoa绘图会降低性能

我有一个基于文档的应用程序,每个文档都有一个带有NSScrollView的窗口,仅使用Cocoa进行一些(相当连续的)绘图。 为了调用绘图,我正在使用CVDisplayLink,如下所示的代码:- (void)windowControllerDidLoadNib:(NSWindowContr...

29得票2回答
如何从CMSampleBufferRef中获取字节以便通过网络发送

我正在使用AVFoundation框架捕获视频,参考了苹果开发文档 http://developer.apple.com/library/ios/#documentation/AudioVideo/Conceptual/AVFoundationPG/Articles/03_MediaCaptu...

20得票4回答
持有CVImageBuffer中的MTLTexture会导致卡顿问题。

我使用CVMetalTextureCacheCreateTextureFromImage从相机和播放器的CVImageBuffer中创建一个MTLTexture,然后使用CVMetalTextureGetTexture获取MTLTexture。但是,在使用Metal渲染纹理时,偶尔会看到视频帧...

18得票8回答
了解AVCaptureSession的会话预设的分辨率

我正在iOS中访问相机,并使用以下会话预设:captureSession.sessionPreset = AVCaptureSessionPresetMedium; 这是很标准的内容。但是,我想预先知道由于此预设而获得的视频分辨率(尤其是因为根据设备不同,它会有所不同)。我知道有在线表格可以查...

15得票1回答
如何将CGImage转换为CMSampleBufferRef?

我想将一个CGImage 转换为 CMSampleBufferRef 并使用 appendSampleBuffer: 方法将其附加到一个 AVAssetWriterInput 上。 我已经使用以下代码获取了 CMSampleBufferRef,但是当我提供所得到的 CMSampleBuffer...

14得票3回答
在iOS下逐帧读取视频

我正在寻找一种使用iOS API检索视频的单独帧的方法。我尝试使用AVAssetImageGenerator,但它似乎只提供最接近秒的帧数,这对我的使用有些粗略。 根据文档的理解,我应该能够通过AVAssetReader、AVAssetReaderOutput和CMSampleBufferG...

10得票1回答
iOS的核心视频示例

除了Core Video编程指南,有没有任何使用Core Video的教程和示例可供参考?

9得票3回答
VTDecompressionSession中的图像缓冲区显示顺序

我有一个项目,需要从实时网络流中解码h264视频,并最终得到一个可以在iOS设备上的另一个框架(Unity3D)中显示的纹理。我可以使用VTDecompressionSession成功地解码视频,然后使用CVMetalTextureCacheCreateTextureFromImage(或Op...

9得票6回答
AVAssetWriterInputPixelBufferAdaptor 返回空的像素缓冲池。

我确定我的缓冲区属性有问题,但是我不清楚应该填什么。文档并没有很好地说明。因此,我根据 CVPixelBufferPoolCreate 进行了猜测。对于 Core Foundation,我基本上一窍不通。 // "width" and "height" are const ints ...

9得票1回答
如何使用CGImage和直接的CGDataProvider直接更新像素

实际问题 有几个答案可以解决我的问题: 我能否强制CGImage从直接数据提供程序(使用CGDataProviderCreateDirect创建)重新加载其数据,就像CGContextDrawImage一样?或者是否有其他方法可以通过设置self.layer.contents来实现它? ...