我正在复用视频和音频流。视频流来自生成的图像数据,音频流来自aac文件。有些音频文件比我设置的总视频时间长,因此我的策略是当音频流复用器的时间大于总视频时间时停止它的复用(最后一个由编码视频帧控制)。我不会在这里放置整个安装代码,但它类似于最新FFMPEG存储库中的muxing.c示例。唯一的区别是我使用来自文件的音频流,而不是从合成生成的编码帧。我非常确定问题在于我在复用器循环期间的错误同步。以下是我的做法:
现在,视频部分是完美的。但是如果音频轨道比视频持续时间长,那么总视频长度会增加约5%-20%,很明显音频对此有贡献,因为视频帧恰好完成在它们应该完成的位置。
我找到的最接近的“hack”是这一部分:
在这里,我试图将音频流的
如果有人能指出我在这里做错了什么,我将不胜感激。
重要提示:我没有为任何上下文设置持续时间。我控制复合会话的终止,该终止基于视频帧计数。音频输入流当然有持续时间,但对我来说并没有帮助,因为视频持续时间定义了电影长度。
更新:
这是第二次赏金尝试。
更新2:
实际上,我的音频时间戳{den,num}是错误的,如答案所解释的那样,{1,1}确实是正确的方式。阻止其正常工作的是这行中的一个错误(我的错):
void AudioSetup(const char* audioInFileName)
{
AVOutputFormat* outputF = mOutputFormatContext->oformat;
auto audioCodecId = outputF->audio_codec;
if (audioCodecId == AV_CODEC_ID_NONE) {
return false;
}
audio_codec = avcodec_find_encoder(audioCodecId);
avformat_open_input(&mInputAudioFormatContext,
audioInFileName, 0, 0);
avformat_find_stream_info(mInputAudioFormatContext, 0);
av_dump_format(mInputAudioFormatContext, 0, audioInFileName, 0);
for (size_t i = 0; i < mInputAudioFormatContext->nb_streams; i++) {
if (mInputAudioFormatContext->streams[i]->codecpar->codec_type == AVMEDIA_TYPE_AUDIO) {
inAudioStream = mInputAudioFormatContext->streams[i];
AVCodecParameters *in_codecpar = inAudioStream->codecpar;
mAudioOutStream.st = avformat_new_stream(mOutputFormatContext, NULL);
mAudioOutStream.st->id = mOutputFormatContext->nb_streams - 1;
AVCodecContext* c = avcodec_alloc_context3(audio_codec);
mAudioOutStream.enc = c;
c->sample_fmt = audio_codec->sample_fmts[0];
avcodec_parameters_to_context(c, inAudioStream->codecpar);
//copyparams from input to autput audio stream:
avcodec_parameters_copy(mAudioOutStream.st->codecpar, inAudioStream->codecpar);
mAudioOutStream.st->time_base.num = 1;
mAudioOutStream.st->time_base.den = c->sample_rate;
c->time_base = mAudioOutStream.st->time_base;
if (mOutputFormatContext->oformat->flags & AVFMT_GLOBALHEADER) {
c->flags |= CODEC_FLAG_GLOBAL_HEADER;
}
break;
}
}
}
void Encode()
{
int cc = av_compare_ts(mVideoOutStream.next_pts, mVideoOutStream.enc->time_base,
mAudioOutStream.next_pts, mAudioOutStream.enc->time_base);
if (mAudioOutStream.st == NULL || cc <= 0) {
uint8_t* data = GetYUVFrame();//returns ready video YUV frame to work with
int ret = 0;
AVPacket pkt = { 0 };
av_init_packet(&pkt);
pkt.size = packet->dataSize;
pkt.data = data;
const int64_t duration = av_rescale_q(1, mVideoOutStream.enc->time_base, mVideoOutStream.st->time_base);
pkt.duration = duration;
pkt.pts = mVideoOutStream.next_pts;
pkt.dts = mVideoOutStream.next_pts;
mVideoOutStream.next_pts += duration;
pkt.stream_index = mVideoOutStream.st->index;
ret = av_interleaved_write_frame(mOutputFormatContext, &pkt);
} else
if(audio_time < video_time) {
//5 - duration of video in seconds
AVRational r = { 60, 1 };
auto cmp= av_compare_ts(mAudioOutStream.next_pts, mAudioOutStream.enc->time_base, 5, r);
if (cmp >= 0) {
mAudioOutStream.next_pts = (int64_t)std::numeric_limits<int64_t>::max();
return true; //don't mux audio anymore
}
AVPacket a_pkt = { 0 };
av_init_packet(&a_pkt);
int ret = 0;
ret = av_read_frame(mInputAudioFormatContext, &a_pkt);
//if audio file is shorter than stop muxing when at the end of the file
if (ret == AVERROR_EOF) {
mAudioOutStream.next_pts = (int64_t)std::numeric_limits<int64_t>::max();
return true;
}
a_pkt.stream_index = mAudioOutStream.st->index;
av_packet_rescale_ts(&a_pkt, inAudioStream->time_base, mAudioOutStream.st->time_base);
mAudioOutStream.next_pts += a_pkt.pts;
ret = av_interleaved_write_frame(mOutputFormatContext, &a_pkt);
}
}
现在,视频部分是完美的。但是如果音频轨道比视频持续时间长,那么总视频长度会增加约5%-20%,很明显音频对此有贡献,因为视频帧恰好完成在它们应该完成的位置。
我找到的最接近的“hack”是这一部分:
AVRational r = { 60 ,1 };
auto cmp= av_compare_ts(mAudioOutStream.next_pts, mAudioOutStream.enc->time_base, 5, r);
if (cmp >= 0) {
mAudioOutStream.next_pts = (int64_t)std::numeric_limits<int64_t>::max();
return true;
}
在这里,我试图将音频流的
next_pts
与视频文件设置的总时间(即5秒)进行比较。通过设置r = {60,1}
,我将这些秒数转换为音频流的时间基准。至少我认为我是在做这个。通过这种方法,当使用标准AAC文件(即采样率为44100,立体声)时,我得到了非常小的偏差,从而使电影长度与正确的长度相差不大。但是,如果我使用更具问题性的样本进行测试,例如AAC采样率为16000,单声道,则视频文件的大小增加了将近一秒钟。如果有人能指出我在这里做错了什么,我将不胜感激。
重要提示:我没有为任何上下文设置持续时间。我控制复合会话的终止,该终止基于视频帧计数。音频输入流当然有持续时间,但对我来说并没有帮助,因为视频持续时间定义了电影长度。
更新:
这是第二次赏金尝试。
更新2:
实际上,我的音频时间戳{den,num}是错误的,如答案所解释的那样,{1,1}确实是正确的方式。阻止其正常工作的是这行中的一个错误(我的错):
mAudioOutStream.next_pts += a_pkt.pts;
必须是:
mAudioOutStream.next_pts = a_pkt.pts;
这个bug导致pts指数级增长,导致流(以pts为衡量)非常早就到达了尽头,因此音频流比预期提前终止。