在WebRTC中,我经常看到关于点对点实现以及如何从一个客户端获取视频流的内容。那么服务器对客户端的呢?
WebRTC是否可以从服务器向客户端流式传输视频文件? (我正在考虑使用WebRTC Native C++ API创建自己的服务器应用程序,以连接到Chrome或Firefox浏览器客户端应用程序的当前实现。)
好的,如果可能的话,它会比许多当前的视频流服务更快吗?
在WebRTC中,我经常看到关于点对点实现以及如何从一个客户端获取视频流的内容。那么服务器对客户端的呢?
WebRTC是否可以从服务器向客户端流式传输视频文件? (我正在考虑使用WebRTC Native C++ API创建自己的服务器应用程序,以连接到Chrome或Firefox浏览器客户端应用程序的当前实现。)
好的,如果可能的话,它会比许多当前的视频流服务更快吗?
是的,由于服务器可以是该点对点会话中的一个节点,因此这是可能的。 如果您遵守协议并使用VP8发送SRTP数据包中的视频,浏览器将播放该视频。为了帮助您在其他应用程序或服务器上构建这些组件,您可以查看此页面和此项目作为指南。
现在,将WebRTC与其他流媒体服务进行比较...这将取决于几个变量,如编解码器或协议。 但是,例如,将WebRTC(SRTP通过UDP使用VP8 Codec)与Flash(RTMP通过TCP使用H264 Codec)进行比较,我会说WebRTC胜出。
<video>
标签。但当然,一切都取决于您向客户端发送什么内容。
我使用本地WebRTC API编写了一些应用程序和插件,目前并没有太多信息可供参考,但以下几个资源可能会对您有所帮助:
QT示例:http://research.edm.uhasselt.be/jori/qtwebrtc
本地到浏览器示例:http://sourcey.com/webrtc-native-to-browser-video-streaming-example/
我最初使用了WebRTC Native C++ to Browser Video Streaming Example,但它无法再与实际的WebRTC Native Code一起构建。
然后我进行了修改,将其合并为一个独立的进程:
peerconnection_server
)peerconnection_client
)。从浏览器到WebRTC Native C++客户端的流的移除,提供了一种简单的解决方案,可以通过GitHub webrtc-streamer访问可用的Video4Linux设备,以便通过WebRTC浏览器进行访问。
当然可以,它允许将实时流媒体转换为WebRTC,例如:
OBS/FFmpeg ---RTMP---> Server ---WebRTC--> Chrome/Client
对于这种情况,它允许使用WebRTC播放超低延迟的实时流媒体,约为600~800毫秒。请查看this demo。
是的,我们开发了一个负载测试工具,用于发布和播放 Ant Media Server。该工具可以广播媒体文件。我们使用了与Ant Media Server相同的本地WebRTC库。
当然可以。我正在使用本地WebRTC API编写一个程序,它可以作为对等方加入会议并记录视频和音频。
请参见:如何从浏览器流式传输音频到WebRTC本机C++应用程序
而且你绝对可以从本机应用程序中流式传输媒体。
我相信你可以使用dummy_audio_file
从本地文件流式传输音频,并找到一种方法来访问视频流式传输进度。