12得票2回答
AVPlayerViewController使用仅音频的AVPlayer

刚开始使用AVKit,我正在尝试播放一些音频。希望能够使用在精通现代化媒体回放中详细介绍的新AVPlayerViewController,这样我就有了一个现成的播放/暂停/搜寻UI。基本上,我有一个故事板,其中包含一个容器视图,该容器视图具有到AVPlayerViewController的嵌入...

10得票1回答
在JPEG文件中将深度数据(16位深度)存储为辅助数据。

我希望能够在iOS中以非有损压缩的图像文件中存储捕获的ARframe的深度数据。 根据这个WWDC演讲: "在iOS 11中,我们支持两种深度图像。第一种是HEIF HEVC,即新格式,也称为HEIC文件,在那里,对深度有一流的支持...我们支持的第二种格式是JPEG。JPEG并不意味着要...

7得票2回答
视频播放器视图阻止SwiftUI导航栏隐藏。

问题在于我将VideoPlayer视图放入NavigationView的父视图或子视图中。在这个例子中,子视图将显示导航栏: struct ParentView: View { var body: some View { NavigationView { VStack...

8得票1回答
如何在SceneKit中最佳地播放视频?

我尝试了多种不同的技术来在SceneKit中播放视频,但似乎没有一种能正常工作。 我曾尝试将AVPlayerLayer分配给SCNMaterial.diffuse.contents,但根本无法显示任何视频帧,尽管声音播放正常。 我还尝试将包含SKVideoNode子节点的SpriteKit...

7得票5回答
如何在iOS上获取相机校准数据?又称AVCameraCalibrationData。

据我所知,AVCameraCalibrationData仅通过AVCaptureDepthDataOutput可用。这正确吗? 而另一方面,只有使用iPhone X前置摄像头或iPhone Plus后置摄像头才能访问AVCaptureDepthDataOutput,或者我错了吗? 我想做的...

7得票3回答
在使用ReplayKit进行流媒体传输时,如何从CMSampleBuffer中保存视频

我正在将我的应用程序内容流式传输到我的RTMP服务器,并使用RPBroadcastSampleHandler。 其中一个方法是: override func processSampleBuffer(_ sampleBuffer: CMSampleBuffer, with sampleBuf...

11得票2回答
AVPictureInPictureController在应用进入后台时不会自动启动画中画功能。

使用AVPlayer+AVPlayerLayer+AVPictureInPictureController在运行iOS 14(beta 7)的iPhone上创建自定义视频播放器时,当从UIButton操作调用player.start()后,该视频不会自动进入画中画模式,即使应用程序进入后台。 ...

8得票2回答
无法从AVURLAsset获取HLS视频(.m3u8格式)的视频轨道用于AVPlayer?

我正在开发一个自定义视频播放器,用于从服务器流式传输HLS视频。我可以使用AVPlayerItem和AVPlayer成功播放HLS视频。 接下来,我想为我的视频播放器添加字幕轨道和音频轨道,因此我使用了AVMutableComposition。现在问题是,当我为HLS视频创建AVURLAss...

8得票1回答
在SwiftUI视图中嵌入视频

我的主要目标是使用SwiftUI将GIF/MP4文件嵌入到HStack/VStack的视图中。我了解代码需要符合'Representable'协议。我第一次尝试实现这个目标的代码如下: import SwiftUI import AVKit struct GIF : UIViewContr...

7得票3回答
iOS 9: 使用AVPlayerViewController Swift。(划掉的播放按钮)

我在iOS设备和模拟器上播放视频内容时遇到了一些问题。 目标:使用hls公共视频流从在线资源流式传输视频,并使用AVPlayerViewController进行播放,以了解其工作原理。 这一直导致没有错误被抛出,但视图控制器向我呈现了此视图。 我决定退回并在本地资源上进行测试,因此我...