我正在尝试使用适用于Android的本地WebRTC SDK(libjingle)。到目前为止,我可以从Android端向Web(或其他平台)发送流,并且可以从对等方接收MediaStream(通过onAddStream回调函数)。
我正在开发的项目仅需要音频流。没有任何视频轨道被创建或发送给任何人。
我的问题是,我如何播放从远程对等方获取的MediaStream对象?
@Override
public void onAddStream(MediaStream mediaStream) {
Log.d(TAG, "onAddStream: got remote stream");
// Need to play the audio ///
}
再次强调,我的问题是关于音频的。我没有使用视频。 显然所有本地的webrtc示例都使用视频轨道,所以我在网上找不到任何文档或示例。
提前感谢!
remoteAudioTrack
之后,我应该在哪里使用它? - ADMremoteAudioTrack
对象和任何与视频相关的渲染器。我还在使用AppRTCAudioManager
,但没有成功建立通话。我想我需要深入了解连接过程。感谢您的支持。如果问题存在,我会再次联系您。 - ADM