通过RTSP将Oculus Rift的流媒体传输到安卓设备

3
我正在开发一个应用程序,需要在android设备上实时可视化oculus rift在wlan网络中所看到的内容(基本上是指一位带有平板电脑的指挥官/游戏主持人和一位使用oculus rift的玩家)。
android设备可以显示http、HLS和rtsp流。
我已经尝试了几种解决方案:
1: 使用Open Broadcast Software + 带有RTMP模块的nginx windows => HLS流。延迟很可怕(平均约10秒,最小5-6秒),但仍然可以工作。不过,这对我的要求来说还不够好。
+ 可以使用 - 10秒延迟
2: 在平板电脑上重建环境。基本上,平板电脑会播放游戏的低分辨率版本,并实时发送诸如位置和方向等数据到平板电脑。实时定位和方向非常好。当玩家转动头部时可以得到即时反馈。不幸的是,一些依赖于引擎的问题会在一段时间后出现:基于fps的物理效果、视频和声音播放速率无法在android播放器中更改等。
+ 最开始的几秒钟很好用 - 之后完全失去同步
3: 我现在正在尝试的是:将图形卡的输出流作为rtsp流进行传输。像Fraps或OBS这样的软件可以捕获我想要的输出。然后,像LibAV/VLC或ffmpeg这样的软件可以将任何流作为rtsp流进行传输。但是,它们都无法正确地捕获游戏屏幕的输出。
如果你有任何建议或想法,谢谢提前告知。
1个回答

1

选项3似乎是您最好的选择。与Twitch使用GPU捕获帧的方式相同,您可以在不损失性能的情况下进行捕获,然后将其流式传输到所选设备。这也类似于Steam的家庭流媒体工作方式(如我所知)。


网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接