我正在努力理解WebRTC。我需要能够通过网络浏览器捕获和流式传输实时音频。
我只是找不到能理解或更新的代码示例。如果有人能帮我学习如何在HTML5/WebRTC中首先捕获和播放音频,那将帮助我入门并开始进展。
注意:我只关心在Chrome(或Chrome Canary)中使其工作。
感谢您的任何帮助!
我正在努力理解WebRTC。我需要能够通过网络浏览器捕获和流式传输实时音频。
我只是找不到能理解或更新的代码示例。如果有人能帮我学习如何在HTML5/WebRTC中首先捕获和播放音频,那将帮助我入门并开始进展。
注意:我只关心在Chrome(或Chrome Canary)中使其工作。
感谢您的任何帮助!
HTML5 Rocks article on WebRTC是解释WebRTC的最佳入门文章,用通俗易懂的语言解释了一切。
如果只是简单地捕获本地视频/音频,您需要关注MediaStream API(即getUserMedia)。一旦您让它工作起来,那么您就需要开始研究RTCPeerConnection API。
客户端代码对于RTCPeerConnection API来说非常简单,但是需要用于信令的服务器端代码(即建立点对点连接)可能会很棘手。
我最终在PHP中编写了自己的服务器端解决方案,但是这花费了我大约三周的时间来理解WebSocket specs以使其正常工作。如果您想看到实际的代码,我可以发布一些我的工作代码。
如果您准备好接受挑战,我建议尝试自己编写服务器端脚本,否则,我会建议使用像Socket.IO这样的WebSocket库,它可以为您完成所有棘手的服务器端工作。
如果你讨论的是WebRTC实时音频流传输/广播,而不仅仅是点对点通话,那么WebRTC并不是为广播而设计的。请点击这里WebRTC - scalable live stream broadcasting / multicasting了解更多信息。