从iOS设备流式传输视频/音频

4

我在这里读到了一些关于在iOS设备录制时进行实时流媒体视频/音频的帖子。不幸的是,似乎没有任何“好”的解决方案。

我知道在录制时必须访问文件,然后将文件发送到服务器,其他用户可以在直播中观看我的流(有一小段时间的延迟)。

对于iOS的工作对我来说不是问题,我更难处理的是应该如何处理数据并传输到服务器以及服务器的整个处理过程。

我有几个问题:

  1. 仅说“服务器”非常模糊,它应该是什么类型的“服务器”?
  2. 我知道必须使用某种协议将数据发送到服务器,然后从服务器获取数据,以便用户可以观看实时视频。我应该使用哪种协议?
  3. 整个服务器端处理似乎让我感到非常迷茫,应该如何处理已发送到服务器的文件?
  4. 所有这些似乎都非常复杂,是否有任何第三方解决方案?例如Periscope、Ustream或Meerkat等应用程序使用哪种技术为其用户提供实时流媒体功能?

如果可能的话,我也很感激能够得到每个问题超过一个字的答案。

1个回答

5

以下是我的回答:

  1. "媒体服务器"是一类软件,例如Wowza、Red5、Nimble Streamer、nginx-rtmp-module等。

  2. 发送数据到媒体服务器的最常用协议是RTMP和RTSP。观看视频可以通过多种方式,如RTMP(需要安装Flash)、HLS(iOS原生支持,Android 4+支持,并在一些网页播放器上运行)和DASH(在某些播放器上受支持)。

  3. 不需要文件,媒体服务器可以处理传入的实时流并处理来自观看者的连接。

  4. 基本上,他们使用了提到的技术组合以及他们自己的“专业技能”。


所以我可以使用Wowza媒体服务器作为我的后端。然后,使用RTMP和RTSP,我将发送我用相机捕获的文件到Wowza,并且为了在iOS上观看实时流,我将使用Http Live Streaming(因为这是苹果的限制)?而且我猜我需要的所有信息都在Wowza文档中,对吧? - Xoroxoxoxoxoso
如果您能,请回答这个问题:http://stackoverflow.com/questions/33889683/how-to-implemet-digital-picture-frame-in-ios-app。 - Aarti Oza

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接