16得票1回答
MJPEG流媒体和解码

我想从IP摄像机(通过RTSP)接收JPEG图像。 为此,我尝试了OpenCV中的cvCreateFileCapture_FFMPEG。 但是ffmpeg似乎在流的MJPEG格式方面存在一些问题(因为它会自动尝试检测流信息),最终我得到以下错误:mjpeg: unsupported codin...

10得票2回答
如何编写Live555 FramedSource以允许我实时流传输H.264视频?

我正试图编写一个从Live555中派生出来的类,它将允许我从我的D3D9应用程序实时流式传输数据到MP4或类似格式。 每帧我都会将后备缓冲区作为纹理抓取到系统内存中,然后将其从RGB转换为YUV420P,然后使用x264进行编码,最后理想情况下将NAL数据包传递给Live555。我创建了一个...

8得票1回答
使用Live555从连接到H264编码器的IP摄像机中流传实时视频

我正在使用一块自定义的基于德州仪器OMAP-L138芯片的板子,该芯片基本上由一个基于ARM9的SoC和一个DSP处理器组成。它连接着一个摄像头镜头。我试图做的是捕获实时视频流,将其发送到DSP处理器进行H264编码,并通过uPP以8192字节的数据包发送。我想使用Live555提供的test...

8得票2回答
RTSP/RTMP 视频流客户端 iOS

我需要一个开源的解决方案/库,用于将RTSP/RTMP流传输到iOS应用程序。我需要构建一个连接到媒体服务器并打开提供的视频流的应用程序。我相信一定有库存在,但我还没有找到一个开源的、编译成功的、实际工作的并且可以在iOS 5+,iPhone 4+上运行的库。我没有偏好,RTMP或RTSP都可...

7得票2回答
使用H264(mp4)编解码器捕获OpenCV流的摄像头

我喜欢通过opencv捕获的网络摄像头图片进行流媒体传输。我考虑使用ffmpeg和live555来解决问题(遗憾的是它们的文档不是很好)。我的问题如下: 如何将捕获的图像转换为H264格式,以便每秒的图片数匹配。如果在循环中,我会得到超过25张图片/秒,视频就会太快。 如何直接通过rtp/...

7得票1回答
使用Gstreamer或ffmpeg在Android上创建rtsp客户端

我想在安卓上流媒体播放rtsp,但是我最终得出结论,不能使用安卓API的MediaPlayer、Videoview等,因为延迟对我来说是个大问题。我需要延迟小于500毫秒。现在我打算使用Gstreamer或ffmpeg创建一个安卓rtsp客户端。我有几个疑问: Gstreamer或ffmp...

7得票1回答
使用H264编码帧发送每帧元数据

我们正在寻找一种方法,可以从服务器向客户端发送每帧元数据(例如ID)与H264编码的帧一起传输。 我们目前正在开发远程渲染应用程序,其中客户端和服务器端都积极参与。服务器渲染高质量图像,包括所有效果、照明等。客户端也拥有模型信息,并在带宽过低或需要扭曲图像以避免卡顿时呈现出漫反射图像。 到...