7得票1回答
AVAssetTrack的preferredTransform始终返回横向视角

我有一个记录视频的应用程序。 为了处理手机旋转,我有以下代码: // called on phone rotation AVCaptureConnection *previewLayerConnection = [[self previewLayer] connection...

17得票2回答
iPhone 7 Plus - AVFoundation双摄像头

我目前正在积极研究这个问题,但是现在iPhone 7 Plus有双摄像头系统,AVFoundation是否允许您同时处理每个特定摄像头的视频帧? 我认为/希望我能够在特定位置同时处理两个AVCaptureDevice实例的输出。

7得票3回答
为什么CMSampleBufferGetImageBuffer返回NULL?

我已经编写了一些代码来处理OSX上的视频文件,逐帧处理。以下是从构建OK的代码中提取的内容,它打开文件,定位视频轨道(仅轨道)并开始读取CMSampleBuffers而没有问题。但是,当我尝试提取像素缓冲区帧时,我获得的每个CMSampleBufferRef都返回NULL。在iOS文档中没有任...

15得票3回答
iOS提取视频帧为图像

我正在使用UIImagePicker让用户创建视频并将其裁剪。我需要将该视频拆分成多个帧,并让用户选择其中一个。 为了显示这些帧,我很可能需要将它们转换为UIImage。我该怎么做呢?我必须使用AVFoundation,但我找不到有关如何获取和转换帧的教程。 我是否应该也使用AVFound...

189得票15回答
如何在Swift中使用AVPlayerViewController (AVKit)播放视频

如何使用 AV Kit Player View Controller 在 Swift 中播放视频?override func viewDidLoad() { super.viewDidLoad() let videoURLWithPath = "http://*...

7得票3回答
使用像素数据创建CVPixelBuffer,但最终图像失真

我使用OpenGLES方法(glReadPixels)或其他方式获取像素,然后创建CVPixelBuffer(带或不带CGImage)进行视频录制,但最终图片会变形。当我在iPhone 5c、5s和6上测试时,这种情况发生在iPhone6上。 它看起来像这样: 这是代码: CGSiz...

11得票2回答
如何避免在使用AVFoundation时通过iPhone相机阻塞用户界面?

我正在尝试在我的iPhone应用程序中嵌入一个简单的视图以快速拍照。一切都很好,但我遇到了相机启动时间的一些问题。在Apple的示例项目中,AVCaptureSession的-startRunning没有在主线程上执行,这似乎是必要的。我在视图初始化期间设置捕获会话,并在单独的线程中启动它。现...

7得票2回答
如何使AVPlayer立即出现,而不是在视频结束后才出现?

我们的应用允许用户录制视频,然后应用程序添加字幕并导出编辑后的视频。目标是立即重播视频,但是AVPlayer只会在视频完成后出现(仅会播放音频,这是一个单独的问题)。 目前情况如下:我们显示预览,以便用户可以实时查看他正在录制的内容。用户录制完成后,我们希望回放视频进行审核。不幸的是,没有视...

67得票4回答
在iOS应用中使用现有的系统声音 [Swift|]

我能否在我的应用程序中使用现有的苹果系统声音? 我想用Swift编写一个简单的应用程序,完成以下步骤: 读取 / 获取设备上所有可用系统声音的列表(我认为它们位于 /System/Library/Audio/UISounds/) 在屏幕上显示列表 如果我点击了列表项,则播放这些声音 所以它...

13得票1回答
将CMSampleBufferRef数据传递到音频输出插孔

我正在开发一个应用程序,需要通过输出音频插孔捕获音频并同时记录和保存视频。 我已经查看了aurio touch苹果示例代码,并实现了音频直通功能。 我还通过AVCaptureSession实现了视频录制。以上两个功能都已单独完成并且正常工作。 但是在合并功能时,由于AVCapturese...