我想建立一个服务,允许用户从浏览器中实时听取电话。我有一些Asterisk的经验,这似乎足够灵活,可以做到我所描述的。Node.js听起来不错,因为据说它能很好地处理并发,而且我喜欢JavaScript。在浏览器中,我认为HTML5音频标签由于可以处理来自流源的播放,因此可以用来播放声音。我的同事使用Icecast合作制作了这个概念的演示文稿,但未能完成。还存在显著的延迟问题。我的问题是:我该怎么开始呢?感谢任何帮助!更新:我发现了一份演示文稿,讨论在后端通过SIP代理在WebSockets上实现SIP:http://sip-on-the-web.aliax.net/一旦我运行起来,下一步就是实现流媒体。看起来我应该能够通过中转常规的sip客户端输出的音频,通过第二个服务器将其流式传输到浏览器。我想知道为什么不能全部在内存中完成?然后在通话进行中无需编写和读取文件。