Webrtc Android相机捕获

3

什么

渲染相机视频流

请参考Google讨论:

https://groups.google.com/forum/#!searchin/discuss-webrtc/capturer$20android$20preview%7Csort:date/discuss-webrtc/sUIR23FftSU/5YIp7cO1BgAJ

用例

如果我使用2G网络,我的视频质量应该很高,而被呼叫者应该看到我模糊的画面。

Apprtc Demo是做什么的?

Apprtc Demo渲染要发送到peerConnection的mediaStream videoTrack,而不是真正的相机视频流。

我在做什么?

和Apprtc Demo一样

见解

有两种方法很有前途,但没有帮助:

  • VideoSource.adaptOutputFormat(width,height,fps)
  • CameraVideoCapturer.startCapture(width,height,fps)

因为我是从peerConnection中渲染而不是从相机中渲染。

问题

您有任何想法如何实现自己相机的渲染吗?

1个回答

0
当您创建视频源时,需要将视频捕获器连接到其上。
例如:localVideoSource = peerConnectionFactory.createVideoSource(videoCapturer); 因此,您必须实现接口org.webrtc.VideoCapturer,然后将其设置为视频源。
根据您的讨论,我了解到您需要更好的质量。您可以在启动默认相机时通过设置自己的分辨率来避免自定义实现,如下所示: capturer.startCapture(widthRecording, heightRecording, fpsRecording);

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接