网上文章都太老,本文基于FFmpeg4.1,没有使用任何弃用的API,要运行先配置环境
解码流程关键函数:
1、avformat_open_input()
2、avformat_find_stream_info()
3、av_read_frame()
4、avcodec_send_packet()提供原始数据包数据作为解码器的输入
5、avcodec_receive_frame()从解码器返回解码的输出数据。
YUV色彩模型,Y信号分量为亮度,U、V信号分量色度
YUV是不同于RGB的一种色彩模型,具体百度
FFFmpeg解码出来一般是yuv420p数据(AV_PIX_FMT_YUV420P)
解码后的数据储存在AVFrame *frame_yuv中
frame_yuv->data[0] //y
frame_yuv->data[1] //u
frame_yuv->data[2] //v
frame_yuv->linesize[0] //y宽度
frame_yuv->linesize[1] //u宽度
frame_yuv->linesize[2] //v宽度
如果是yuv420p,那么每一帧 y:u:v 数据大小之比为 4:1:1
这里可以把yuv数据分别看成三个矩形,y长为视频每帧宽度width,宽为视频每帧高度height
那么u和v矩形大小一样,都是宽度为width/2,高度为height/2的矩形
frame_yuv->linesize[0]代表解码出来的y分量宽度,它和视频每帧宽度width有什么不同呢?
The linesize may be larger than the size of usable data -- theremay be extra padding present for performance reasons.
翻译:linesize 可能大于可用数据的大小——出于性能原因,可能存在额外的填充。
我理解的意思就是linesize[0]可能会大于y分量实际宽度(视频宽度width)。
如何把每一帧yuv数据保存在文件中?
frame_yuv->data[0]是个一维数组(注意不是frame_yuv->data,是frame_yuv->data[0]),一维数组如何装下二维矩形数据呢(上面描述的矩形),视频解码后把数据一行一行地按着顺序储存frame_yuv->data[0]里面,所以我们也要一行一行读取。
第i需要偏移 i * frame_yuv->linesize[0]起始地址就是frame_yuv->data[0] + i * frame_yuv->linesize[0],然后再取出width长度的数据就是第i行y分量,y分量高度为height,所以i的值从0到height。u、v分量高度为frame_yuv->height / 2,在frame_yuv->data[1、2] 中宽度为frame_yuv->linesize[1、2] ,实际宽度为frame_yuv->height / 2。
yuv文件好像没有头部信息,所以我们不用管头部。
int loop = frame_yuv->height / 2;
int len_uv = frame_yuv->width / 2;//u、v分量
for(int i = 0;i < frame_yuv->height;i++){
out.write((char *)(frame_yuv->data[0] + i * frame_yuv->linesize[0]),frame_yuv->width);
}
for(int i = 0;i < loop;i++){
out.write((char *)(frame_yuv->data[1] + i * frame_yuv->linesize[1]),len_uv);
}
for(int i = 0;i < loop;i++){
out.write((char *)(frame_yuv->data[2] + i * frame_yuv->linesize[2]),len_uv);
}
这里只保存了100帧,文件大小为width * height * 1.5 * 100 Byte,生成的文件很大,100帧 1920 x 1080 的视频就300多M,25fps的话只能播放4s,可以看出视频压缩的重要性
文件保存后如何验证呢?
使用 ffplay.exe可以播放yuv文件**
使用命令
ffplay -video_size widthxheight -i "video_path"
如 ffplay -video_size 1920x1080 -i "E:\xxx.yuv"
按照实际视频尺寸设置参数,设置不正确的话播放会错误
以下是完整代码:
#pragma comment(lib,"avformat.lib")
#pragma comment(lib,"avcodec.lib")
#pragma comment(lib,"avutil.lib")
#pragma comment(lib,"avdevice.lib")
#pragma comment(lib,"swresample.lib")
#pragma comment(lib,"postproc.lib")
#pragma comment(lib,"swscale.lib")
#include <iostream>
#include <fstream>
extern "C"{
#include <libavformat/avformat.h>
}
using std::cin;
using std::cout;
using std::endl;
using std::ofstream;
using std::ios_base;
int main(){
AVFormatContext *fmt_ctx = nullptr;
const char * in_path = "E:\\whys_pr.mp4";
const char * out_path = "E:\\out.yuv";
if(avformat_open_input(&fmt_ctx,in_path,nullptr,nullptr) != 0){
cout << "avformat_open_input错误" << endl;
system("pause");
return 1;
}
//打印出视频信息
//av_dump_format(fmt_ctx,0,in_path,0);
if(avformat_find_stream_info(fmt_ctx,nullptr) < 0){
avformat_free_context(fmt_ctx);
cout << "avformat_find_stream_info错误" << endl;
system("pause");
return 1;
}
AVCodec *codec;
AVCodecContext * cd_ctx;
unsigned video_index = 0;
for(unsigned i = 0;fmt_ctx->nb_streams;i++){
//寻找到视频流
if(fmt_ctx->streams[i]->codecpar->codec_type == AVMEDIA_TYPE_VIDEO){
video_index = i;
//获取到视频流
AVStream *streams = fmt_ctx->streams[i];
//streams->r_frame_rate
cout << ((float)streams->avg_frame_rate.num) / streams->avg_frame_rate.den << "fps,";
//视频编码类型
cout << avcodec_get_name(streams->codecpar->codec_id) << endl;
codec = avcodec_find_decoder(streams->codecpar->codec_id);
if(!codec){
cout << "没有找到解码器" << endl;
system("pause");
return 1;
}
//分配AVCodecContext空间
cd_ctx = avcodec_alloc_context3(codec);
//填充数据
avcodec_parameters_to_context(cd_ctx,streams->codecpar);
//视频尺寸
cout << streams->codecpar->width << 'x' << streams->codecpar->height << endl;
break;
}
}
/* open it */
if(avcodec_open2(cd_ctx,codec,NULL) < 0){
cout << "avcodec_open2错误" << endl;
system("pause");
return 1;
}
AVPacket *pkt = av_packet_alloc();
if(!pkt){
cout << "av_packet_alloc错误" << endl;
system("pause");
return 1;
}
AVFrame *frame_yuv = av_frame_alloc();
if(!frame_yuv){
cout << "av_frame_alloc错误" << endl;
system("pause");
return 1;
}
//打开输出视频的文件
ofstream out = ofstream(out_path,ios_base::binary);
int frame_count = 0;//记录获取的帧数
while(av_read_frame(fmt_ctx,pkt) >= 0 && frame_count < 100){//这里只获取100帧了
//找到视频流
if(pkt->stream_index == video_index){
if(avcodec_send_packet(cd_ctx,pkt) != 0){
cout << "avcodec_send_packet错误" << endl;
break;
}
while(avcodec_receive_frame(cd_ctx,frame_yuv) == 0){
frame_count++;
//AV_PIX_FMT_YUV420P, ///< planar YUV 4:2:0, 12bpp, (1 Cr & Cb sample per 2x2 Y samples)
cout << "解码到第" << cd_ctx->frame_number << "帧" << endl;
for(int i = 0;i < frame_yuv->height;i++){
out.write((char *)(frame_yuv->data[0] + i * frame_yuv->linesize[0]),frame_yuv->width);
}
int loop = frame_yuv->height / 2;
int len_uv = frame_yuv->width / 2;
for(int i = 0;i < loop;i++){
out.write((char *)(frame_yuv->data[1] + i * frame_yuv->linesize[1]),len_uv);
}
for(int i = 0;i < loop;i++){
out.write((char *)(frame_yuv->data[2] + i * frame_yuv->linesize[2]),len_uv);
}
}
}
}
cout << "解码完毕,文件保存在" << out_path << endl;
out.close();
av_packet_free(&pkt);
avcodec_close(cd_ctx);
avcodec_free_context(&cd_ctx);
av_frame_free(&frame_yuv);
avformat_close_input(&fmt_ctx);
system("pause");
return 0;
}