- 浏览: 32821 次
最新评论
-
嵌入式Linux:
不好意思,我看了下,是由于将manifest写成了mainfe ...
Android 源码下载 -
caik123:
if everything is simple as you ...
Android 源码下载
ffmpeg:开源的跨平台的视频和音频流方案,提供了录制、转换以及流化音视频的完整解决方案,包含先进的音频/视频编解码库libavcodec,里面提供了许多API给我们使用,但仍有一些问题需要我们自己解决,如同步问题。
ffmpeg编译后的一些文件:
ffplay:真正的播放器,像vlc、mplayer等,有图形界面的
ffmpeg:可以理解为一种工具,利用ffmpeg提供的API,再加上其他操作,可以实现转码等一些功能。
ffserver:做服务器的,可以单播或多播一些流。
处理音视频的一般过程:
1、从视频文件中打开视频流(解复用的过程)
2、从视频流中读取包到帧当中(解码)
3、如果帧还不完整,跳回2
4、对该帧进行操作
5、跳回2
一、打开文件获取视频流(以下操作使用ffmpeg-0.8版本)
<1> 使用av_register_all()注册所有的文件格式和编解码器的库,只需要调用一次,所以最好的选择就是在main函数中。
<2> av_open_input_file 打开视频文件。这个函数会读取视频文件头部信息并保存在AVFormatContext中,函数原型如下(avformat.h中):
int av_open_input_file(AVFormatContext **ic_ptr, const char *filename, AVInputFormat *fmt, int buf_size, AVFormatParameters *ap) { int err; AVDictionary *opts = convert_format_parameters(ap); if (!ap || !ap->prealloced_context) *ic_ptr = NULL; err = avformat_open_input(ic_ptr, filename, fmt, &opts); av_dict_free(&opts); return err; }
函数实现在utils.c中。如果后3个参数为NULL或者0,libavformat将自动检测这些参数,该函数最终调用avformat_open_input进行操作。
int avformat_open_input(AVFormatContext **ps, const char *filename, AVInputFormat *fmt, AVDictionary **options) { return avformat_open_input_header(ps,filename,fmt,options,NULL); }
avformat_open_input_header作用是读取视频文件头部信息并保存在AVFormatContext中。
<3> 根据视频文件头部信息,得到音视频流的信息,调用函数av_find_stream_info(定义在avformat.h)
int av_find_stream_info(AVFormatContext *ic) { int i, count, ret, read_size, j; AVStream *st; AVPacket pkt1, *pkt; int64_t old_offset = avio_tell(ic->pb); for(i=0;i<ic->nb_streams;i++) { AVCodec *codec; st = ic->streams[i]; /*st->codec得到的是AVCodecContext类型,其保存了流中关于使用 编解码器的信息 */ if (st->codec->codec_id == CODEC_ID_AAC) { st->codec->sample_rate = 0; st->codec->frame_size = 0; st->codec->channels = 0; } if (st->codec->codec_type == AVMEDIA_TYPE_VIDEO || st->codec->codec_type == AVMEDIA_TYPE_SUBTITLE) { /* if(!st->time_base.num) st->time_base= */ if(!st->codec->time_base.num) /* time_base是一个AVRational(分母)结构体,保存帧率的信息,现在很多编解码器 都使用非整数的帧率,如NTSC使用29.97fps*/ st->codec->time_base= st->time_base; } //only for the split stuff if (!st->parser && !(ic->flags & AVFMT_FLAG_NOPARSE)) { st->parser = av_parser_init(st->codec->codec_id); if(st->need_parsing == AVSTREAM_PARSE_HEADERS && st->parser){ st->parser->flags |= PARSER_FLAG_COMPLETE_FRAMES; } } assert(!st->codec->codec); /*找到对应的编解码器*/ codec = avcodec_find_decoder(st->codec->codec_id); /* Force decoding of at least one frame of codec data * this makes sure the codec initializes the channel configuration * and does not trust the values from the container. */ if (codec && codec->capabilities & CODEC_CAP_CHANNEL_CONF) st->codec->channels = 0; /* Ensure that subtitle_header is properly set. */ if (st->codec->codec_type == AVMEDIA_TYPE_SUBTITLE && codec && !st->codec->codec) //打开编解码器 avcodec_open(st->codec, codec); //try to just open decoders, in case this is enough to get parameters if(!has_codec_parameters(st->codec)){ if (codec && !st->codec->codec) avcodec_open(st->codec, codec); } } for (i=0; i<ic->nb_streams; i++) { ic->streams[i]->info->last_dts = AV_NOPTS_VALUE; } count = 0; read_size = 0; for(;;) { if(url_interrupt_cb()){ ret= AVERROR_EXIT; av_log(ic, AV_LOG_DEBUG, "interrupted\n"); break; } /* check if one codec still needs to be handled */ for(i=0;i<ic->nb_streams;i++) { int fps_analyze_framecount = 20; st = ic->streams[i]; if (!has_codec_parameters(st->codec)) break; /* if the timebase is coarse (like the usual millisecond precision of mkv), we need to analyze more frames to reliably arrive at the correct fps */ if (av_q2d(st->time_base) > 0.0005) fps_analyze_framecount *= 2; if (ic->fps_probe_size >= 0) fps_analyze_framecount = ic->fps_probe_size; /* variable fps and no guess at the real fps */ if( tb_unreliable(st->codec) && !(st->r_frame_rate.num && st->avg_frame_rate.num) && st->info->duration_count < fps_analyze_framecount && st->codec->codec_type == AVMEDIA_TYPE_VIDEO) break; if(st->parser && st->parser->parser->split && !st->codec->extradata) break; if(st->first_dts == AV_NOPTS_VALUE) break; } if (i == ic->nb_streams) { /* NOTE: if the format has no header, then we need to read some packets to get most of the streams, so we cannot stop here */ if (!(ic->ctx_flags & AVFMTCTX_NOHEADER)) { /* if we found the info for all the codecs, we can stop */ ret = count; av_log(ic, AV_LOG_DEBUG, "All info found\n"); break; } } /* we did not get all the codec info, but we read too much data */ if (read_size >= ic->probesize) { ret = count; av_log(ic, AV_LOG_DEBUG, "Probe buffer size limit %d reached\n", ic->probesize); break; } /* NOTE: a new stream can be added there if no header in file (AVFMTCTX_NOHEADER) */ ret = av_read_frame_internal(ic, &pkt1); if (ret < 0 && ret != AVERROR(EAGAIN)) { /* EOF or error */ ret = -1; /* we could not have all the codec parameters before EOF */ for(i=0;i<ic->nb_streams;i++) { st = ic->streams[i]; if (!has_codec_parameters(st->codec)){ char buf[256]; avcodec_string(buf, sizeof(buf), st->codec, 0); av_log(ic, AV_LOG_WARNING, "Could not find codec parameters (%s)\n", buf); } else { ret = 0; } } break; } if (ret == AVERROR(EAGAIN)) continue; pkt= add_to_pktbuf(&ic->packet_buffer, &pkt1, &ic->packet_buffer_end); if ((ret = av_dup_packet(pkt)) < 0) goto find_stream_info_err; read_size += pkt->size; st = ic->streams[pkt->stream_index]; if (st->codec_info_nb_frames>1) { int64_t t; if (st->time_base.den > 0 && (t=av_rescale_q(st->info->codec_info_duration, st->time_base, AV_TIME_BASE_Q)) >= ic->max_analyze_duration) { av_log(ic, AV_LOG_WARNING, "max_analyze_duration %d reached at %"PRId64"\n", ic->max_analyze_duration, t); break; } st->info->codec_info_duration += pkt->duration; } { int64_t last = st->info->last_dts; int64_t duration= pkt->dts - last; if(pkt->dts != AV_NOPTS_VALUE && last != AV_NOPTS_VALUE && duration>0){ double dur= duration * av_q2d(st->time_base); // if(st->codec->codec_type == AVMEDIA_TYPE_VIDEO) // av_log(NULL, AV_LOG_ERROR, "%f\n", dur); if (st->info->duration_count < 2) memset(st->info->duration_error, 0, sizeof(st->info->duration_error)); for (i=1; i<FF_ARRAY_ELEMS(st->info->duration_error); i++) { int framerate= get_std_framerate(i); int ticks= lrintf(dur*framerate/(1001*12)); double error= dur - ticks*1001*12/(double)framerate; st->info->duration_error[i] += error*error; } st->info->duration_count++; // ignore the first 4 values, they might have some random jitter if (st->info->duration_count > 3) st->info->duration_gcd = av_gcd(st->info->duration_gcd, duration); } if (last == AV_NOPTS_VALUE || st->info->duration_count <= 1) st->info->last_dts = pkt->dts; } if(st->parser && st->parser->parser->split && !st->codec->extradata){ int i= st->parser->parser->split(st->codec, pkt->data, pkt->size); if(i){ st->codec->extradata_size= i; st->codec->extradata= av_malloc(st->codec->extradata_size + FF_INPUT_BUFFER_PADDING_SIZE); memcpy(st->codec->extradata, pkt->data, st->codec->extradata_size); memset(st->codec->extradata + i, 0, FF_INPUT_BUFFER_PADDING_SIZE); } } /* if still no information, we try to open the codec and to decompress the frame. We try to avoid that in most cases as it takes longer and uses more memory. For MPEG-4, we need to decompress for QuickTime. */ if (!has_codec_parameters(st->codec) || !has_decode_delay_been_guessed(st)) try_decode_frame(st, pkt); st->codec_info_nb_frames++; count++; } // close codecs which were opened in try_decode_frame() for(i=0;i<ic->nb_streams;i++) { st = ic->streams[i]; if(st->codec->codec) avcodec_close(st->codec); } for(i=0;i<ic->nb_streams;i++) { st = ic->streams[i]; if (st->codec_info_nb_frames>2 && !st->avg_frame_rate.num && st->info->codec_info_duration) av_reduce(&st->avg_frame_rate.num, &st->avg_frame_rate.den, (st->codec_info_nb_frames-2)*(int64_t)st->time_base.den, st->info->codec_info_duration*(int64_t)st->time_base.num, 60000); if (st->codec->codec_type == AVMEDIA_TYPE_VIDEO) { if(st->codec->codec_id == CODEC_ID_RAWVIDEO && !st->codec->codec_tag && !st->codec->bits_per_coded_sample){ uint32_t tag= avcodec_pix_fmt_to_codec_tag(st->codec->pix_fmt); if(ff_find_pix_fmt(ff_raw_pix_fmt_tags, tag) == st->codec->pix_fmt) st->codec->codec_tag= tag; } // the check for tb_unreliable() is not completely correct, since this is not about handling // a unreliable/inexact time base, but a time base that is finer than necessary, as e.g. // ipmovie.c produces. if (tb_unreliable(st->codec) && st->info->duration_count > 15 && st->info->duration_gcd > FFMAX(1, st->time_base.den/(500LL*st->time_base.num)) && !st->r_frame_rate.num) av_reduce(&st->r_frame_rate.num, &st->r_frame_rate.den, st->time_base.den, st->time_base.num * st->info->duration_gcd, INT_MAX); if (st->info->duration_count && !st->r_frame_rate.num && tb_unreliable(st->codec) /*&& //FIXME we should not special-case MPEG-2, but this needs testing with non-MPEG-2 ... st->time_base.num*duration_sum[i]/st->info->duration_count*101LL > st->time_base.den*/){ int num = 0; double best_error= 2*av_q2d(st->time_base); best_error = best_error*best_error*st->info->duration_count*1000*12*30; for (j=1; j<FF_ARRAY_ELEMS(st->info->duration_error); j++) { double error = st->info->duration_error[j] * get_std_framerate(j); // if(st->codec->codec_type == AVMEDIA_TYPE_VIDEO) // av_log(NULL, AV_LOG_ERROR, "%f %f\n", get_std_framerate(j) / 12.0/1001, error); if(error < best_error){ best_error= error; num = get_std_framerate(j); } } // do not increase frame rate by more than 1 % in order to match a standard rate. if (num && (!st->r_frame_rate.num || (double)num/(12*1001) < 1.01 * av_q2d(st->r_frame_rate))) av_reduce(&st->r_frame_rate.num, &st->r_frame_rate.den, num, 12*1001, INT_MAX); } if (!st->r_frame_rate.num){ if( st->codec->time_base.den * (int64_t)st->time_base.num <= st->codec->time_base.num * st->codec->ticks_per_frame * (int64_t)st->time_base.den){ st->r_frame_rate.num = st->codec->time_base.den; st->r_frame_rate.den = st->codec->time_base.num * st->codec->ticks_per_frame; }else{ st->r_frame_rate.num = st->time_base.den; st->r_frame_rate.den = st->time_base.num; } } }else if(st->codec->codec_type == AVMEDIA_TYPE_AUDIO) { if(!st->codec->bits_per_coded_sample) st->codec->bits_per_coded_sample= av_get_bits_per_sample(st->codec->codec_id); // set stream disposition based on audio service type switch (st->codec->audio_service_type) { case AV_AUDIO_SERVICE_TYPE_EFFECTS: st->disposition = AV_DISPOSITION_CLEAN_EFFECTS; break; case AV_AUDIO_SERVICE_TYPE_VISUALLY_IMPAIRED: st->disposition = AV_DISPOSITION_VISUAL_IMPAIRED; break; case AV_AUDIO_SERVICE_TYPE_HEARING_IMPAIRED: st->disposition = AV_DISPOSITION_HEARING_IMPAIRED; break; case AV_AUDIO_SERVICE_TYPE_COMMENTARY: st->disposition = AV_DISPOSITION_COMMENT; break; case AV_AUDIO_SERVICE_TYPE_KARAOKE: st->disposition = AV_DISPOSITION_KARAOKE; break; } } } av_estimate_timings(ic, old_offset); compute_chapters_end(ic); #if 0 /* correct DTS for B-frame streams with no timestamps */ for(i=0;i<ic->nb_streams;i++) { st = ic->streams[i]; if (st->codec->codec_type == AVMEDIA_TYPE_VIDEO) { if(b-frames){ ppktl = &ic->packet_buffer; while(ppkt1){ if(ppkt1->stream_index != i) continue; if(ppkt1->pkt->dts < 0) break; if(ppkt1->pkt->pts != AV_NOPTS_VALUE) break; ppkt1->pkt->dts -= delta; ppkt1= ppkt1->next; } if(ppkt1) continue; st->cur_dts -= delta; } } } #endif find_stream_info_err: for (i=0; i < ic->nb_streams; i++) av_freep(&ic->streams[i]->info); return ret; }
二、读取包的信息保存在帧中
<1> 分配目标帧的内存,函数为avcode_alloc_frame() (定义在avcodec.h)
AVFrame *avcodec_alloc_frame(void); /* ffmpeg/libavcodec/utils.c */ AVFrame *avcodec_alloc_frame(void){ AVFrame *pic= av_malloc(sizeof(AVFrame)); if(pic==NULL) return NULL; avcodec_get_frame_defaults(pic); return pic; }
<2> 通过读取包来读取视频流,将它解码成帧,主要函数有av_read_frame(),这里说明下,av_read_packet这个方法已经不用了,在ffmpeg 0.8中有进行说明,函数原型如下:
/** * Return the next frame of a stream. * This function returns what is stored in the file, and does not validate * that what is there are valid frames for the decoder. It will split what is * stored in the file into frames and return one for each call. It will not * omit invalid data between valid frames so as to give the decoder the maximum * information possible for decoding. * * The returned packet is valid * until the next av_read_frame() or until av_close_input_file() and * must be freed with av_free_packet. For video, the packet contains * exactly one frame. For audio, it contains an integer number of * frames if each frame has a known fixed size (e.g. PCM or ADPCM * data). If the audio frames have a variable size (e.g. MPEG audio), * then it contains one frame. * * pkt->pts, pkt->dts and pkt->duration are always set to correct * values in AVStream.time_base units (and guessed if the format cannot * provide them). pkt->pts can be AV_NOPTS_VALUE if the video format * has B-frames, so it is better to rely on pkt->dts if you do not * decompress the payload. * * @return 0 if OK, < 0 on error or end of file */ int av_read_frame(AVFormatContext *s, AVPacket *pkt);
av_read_frame通常是在while循环中,主要是读取一个包并且将它保存在AVPacket结构体中,使用函数avcodec_decode_video2()将包转换为帧(原先的avcodec_decode_video()方法已经不用了,在ffmpeg/doc/APIChanges 说明如下:
2009-04-07 - r18351 - lavc 52.23.0 - avcodec_decode_video/audio/subtitle The old decoding functions are deprecated, all new code should use the new functions avcodec_decode_video2(), avcodec_decode_audio3() and avcodec_decode_subtitle2(). These new functions take an AVPacket *pkt argument instead of a const uint8_t *buf / int buf_size pair.
当解码一个包时,我们可能没有得到自己所需的帧的信息,因此当我们得到下一帧的时候,avcodec_decode_video2中设置了帧的结束标志 got_picture, 如果得到我们所需的帧,我们就可以对其进行自己所需要的操作了。
相关推荐
4. **视频播放器的构建**:在`tutorial01-07`中,你将逐步学习如何使用FFmpeg和SDL构建一个基础的视频播放器。这会涉及到视频解码、帧渲染、时间同步等关键技术。例如,`tutorial01`可能是关于如何初始化SDL窗口和...
FFmpeg基础库编程开发是一个涉及多媒体处理的高级话题,它通常包括视频和音频的编解码、流媒体的处理、字幕的嵌入与处理、容器格式的理解、以及音视频的采集、录制和播放等功能。对于想要深入了解并掌握媒体处理技术...
本书旨在让更多的人深入理解 FFmpeg 框架库,通过使用和学习它应用到各行业的软件 开发当中,快速、安全的构建自己的多媒体软件程序。 FFmpeg 可以是你学习多媒体程序开发的入口点,由此扩展到流媒体、编解码、...
1. **基础概念**:了解 FFmpeg 的基本架构和工作原理,例如其组件(如 libavcodec、libavformat 和 libavfilter)的功能以及如何相互协作。 2. **命令行使用**:学习如何使用 FFmpeg 命令行工具进行基本操作,如将...
在FFmpeg基础库的学习中,我们将深入理解其核心概念和技术。 首先,FFmpeg 包含多个组件,如 libavcodec(编码解码库)、libavformat(容器格式处理库)、libavfilter(滤镜系统)和libavutil(通用工具库)。这些...
FFMPEG是一个非常强大的视音频编解码工具,它几乎囊括了现存所有的视...以上就是关于FFMPEG视音频编解码零基础学习方法的知识点。希望这些知识点能够帮助大家在学习FFMPEG的过程中有所收获,早日成为一名FFMPEG高手。
本教程详细介绍了FFmpeg的基础编程,包括从视频文件的读取、解码到在界面上播放的整个过程,是学习FFmpeg开发的入门指南。通过学习,开发者可以掌握多媒体处理的基本原理和实践技巧,为进一步的音视频应用开发打下...
本PDF文档——"ffmpeg基础库编程开发"——旨在帮助开发者深入了解 FFmpeg 的基本概念和实践应用。 该文档共计460页,结构清晰,包含十二章和五个附录,确保了内容的全面性和深度。以下是基于标题和描述中可能涵盖的...
这份"ffmpeg基础.pdf"入门资料,旨在帮助初学者理解FFmpeg的基本概念和操作,以便在没有相关背景知识的情况下也能上手使用。 首先,FFmpeg 的核心功能是多媒体处理。它支持众多的编码格式和编解码器,包括常见的如 ...
PDF 文件“FFmpeg基础.pdf”很可能提供了关于如何使用 FFmpeg 的基础知识,包括命令行操作、基本概念和实际应用案例。下面我们将深入探讨 FFmpeg 的关键知识点。 1. **FFmpeg 基本概念**: - **FFmpeg 包含的组件*...
该文档主要面向初学者,旨在帮助他们理解和使用FFmpeg的一些基础命令。 首先,让我们深入了解FFmpeg的命令格式。FFmpeg的命令结构通常如下:[时间条件] -i [输入文件路径] [滤镜命令] [输出文件路径]。在时间条件上...
FFmpeg 是一个强大的开源..."FFMPEG入门基础资料pdf"这份文档将详细介绍这些基础知识,通过深入学习,你将能够熟练运用FFmpeg解决实际问题。建议初学者从安装FFmpeg开始,然后逐步探索其功能,通过实践来巩固理论知识。
在进行FFmpeg基础库编程开发时,涉及到的多媒体概念、框架组成、编译和应用、数据结构以及重要模块等知识点,对于希望深入学习和使用FFmpeg的开发者而言至关重要。 首先,多媒体概念介绍部分涵盖了视频、音频、字幕...
在“ffmpeg-学习资料源代码”这个压缩包中,包含了丰富的学习资源,如播放器和服务器等,这些都是FFmpeg应用实例的绝佳参考资料。 FFmpeg 的核心功能包括: 1. **编码**:它支持多种音频和视频编码格式,例如 H.264...
阅读提供的"ffmpeg基础库编程开发》20140307 (白底).pdf"文档,可以深入学习FFmpeg的原理和实践方法,而"read.txt"可能是对文档的简要介绍或阅读指南,辅助理解FFmpeg的开发要点。通过系统学习和实践,开发者可以...
本资料"FFMPEG完美入门资料"旨在帮助你快速理解FFmpeg的基本概念,建立牢固的根基,为后续的高级学习打下坚实基础。 首先,我们要了解FFmpeg的核心组件。FFmpeg主要包括四个部分:ffprobe用于分析多媒体文件,...
- **官方文档**:详尽的API参考和命令行工具指南,是学习FFmpeg的基础。 - **教程文章**:介绍FFmpeg的基本概念和常用命令,帮助初学者快速上手。 - **示例代码**:通过实际的代码示例,展示FFmpeg在各种场景下的...