我正在尝试为iOS创建一个视频播放器,但需要读取一些额外的音频轨道。我一直在查看MPVideoPlayerController和AV Foundation中的AVPlayer,但都有点模糊。
我的目标是播放一个视频(从本地的.mp4文件),并且在电影播放时获取当前的音频缓冲区/帧,以便我可以进行一些计算和其他(与视频/音频无关)操作,这些操作依赖于当前播放的音频。这意味着视频应该继续播放,带有其音频轨道,但我也想要实时的原始音频数据用于计算(比如:获取某个频率的振幅)。
有没有人有示例或提示如何做到这一点?当然,我已经查看了苹果的AV Foundation库文档,但对我来说不够清晰。
我的目标是播放一个视频(从本地的.mp4文件),并且在电影播放时获取当前的音频缓冲区/帧,以便我可以进行一些计算和其他(与视频/音频无关)操作,这些操作依赖于当前播放的音频。这意味着视频应该继续播放,带有其音频轨道,但我也想要实时的原始音频数据用于计算(比如:获取某个频率的振幅)。
有没有人有示例或提示如何做到这一点?当然,我已经查看了苹果的AV Foundation库文档,但对我来说不够清晰。