我正在寻找一种高效的方法来完成以下任务:
使用多个源视频(长度大致相同),我需要生成一个输出视频,其中包括所有原始源,每个源在其自己的区域内运行(就像几个不同大小的 PIP一样)。因此,最终结果是所有原始文件并排运行,每个文件都在自己的区域/框中。
源和输出需要为
我已经查看了 avisynth,但不幸的是它无法处理
我的当前流程使用 ffmpeg以以下方式:
使用多个源视频(长度大致相同),我需要生成一个输出视频,其中包括所有原始源,每个源在其自己的区域内运行(就像几个不同大小的 PIP一样)。因此,最终结果是所有原始文件并排运行,每个文件都在自己的区域/框中。
源和输出需要为
flv
,我使用的平台是Windows(在Windows 7 64位上进行开发,在Windows Server 2008上部署)。我已经查看了 avisynth,但不幸的是它无法处理
flv
,我尝试过的所有插件和flv分离器都无法正常工作。我的当前流程使用 ffmpeg以以下方式:
- 使用ffmpeg为每秒的视频生成25个png,根据需要调整原始大小。
- 使用命名空间将每组帧合并成新图像,从静态背景开始,然后将每帧加载到
中,并绘制到背景对象中 - 这给了我合并的帧。
- 使用ffmpeg将生成的图像组合成视频。
所有这些都非常依赖于IO(这是我目前的处理瓶颈),我觉得必须有一种更有效的方式来达到我的目标。我没有太多视频处理经验,也不知道有什么选择。
有人能建议一种更有效的处理方式吗?
ffmpeg-iin1.webm -vf"in2.webm [in1];[in1]crop=640:720:640:0[in3];[in]pad=640*2:0[in0];[in0][in3]overlay=640:0[out]"-crf5-b:v8M out.webm
- robertc