上一遍文件是将mp4的视频流数据解码,并且写入yuv的数据文件中,这篇文章是一个逆向操作,既将yuv数据文件编码为一个mp4文件
1. 主要函数的调用流程
avformat_alloc_output_context2 根据文件名创建视频封装上下文对象
avio_open 打开视频文件
avcodec_find_encoder 查找编码器, 我们使用的是h264,参数就是AV_CODEC_ID_H264
avcodec_alloc_context3 创建编码器的上下文对象并且设置相关参数
avcodec_open2 打开编码器
avformat_new_stream 在视频文件中创建一个视频流对象
avformat_write_header 写入文件头
avcodec_send_frame 将yuv数据封装成帧并送入编码器
avcodec_receive_packet 从编码器中获取编码好的h264帧
av_interleaved_write_frame 将h264帧写入视频文件中
flush_encoder 写入剩余的帧数据
av_write_trailer 写入文件尾部信息
2. 主要步骤
- 打开新的视频文件
- 创建视频编码器
- 写入文件头
- 循环将yuv数据帧编码, 并将编码好的h264帧写入视频文件中
- 写入文件尾部
3.详细代码
char *path = "d:/new_test.mp4";
int fps = 25;
//注册组件
av_register_all();
int width = 1920;
int height = 1080;
AVFormatContext* avformat_context = NULL;
//初始化封装格式上下文
avformat_alloc_output_context2(&avformat_context, NULL, NULL, path);
//打开输出文件
if (avio_open(&avformat_context->pb, path, AVIO_FLAG_WRITE) < 0) {
return;
}
AVCodec * codec = avcodec_find_encoder(AV_CODEC_ID_H264);
AVCodecContext *avcodec_context = avcodec_alloc_context3(codec);
//时间基,pts,dts的时间单位 pts(解码后帧被显示的时间), dts(视频帧送入解码器的时间)的时间单位,是两帧之间的时间间隔
avcodec_context->time_base.den = fps;//pts
avcodec_context->time_base.num = 1;//1秒
avcodec_context->codec_id = AV_CODEC_ID_H264;
avcodec_context->codec_type = AVMEDIA_TYPE_VIDEO;//表示视频类型
avcodec_context->pix_fmt = AV_PIX_FMT_YUV420P;//视频数据像素格式
avcodec_context->width = width;//视频宽高
avcodec_context->height = height;
AVStream* avvideo_stream = avformat_new_stream(avformat_context, NULL);//创建一个流
avvideo_stream->codec = avcodec_context;
avvideo_stream->time_base = avcodec_context->time_base;
avvideo_stream->codec->codec_tag = 0;
//初始化编解码器
int ret = avcodec_open2(avcodec_context, codec, nullptr);
if (ret) {
return;
}
int avformat_write_header_result = avformat_write_header(avformat_context, NULL);
if (avformat_write_header_result != AVSTREAM_INIT_IN_WRITE_HEADER) {
return;
}
int buffer_size = av_image_get_buffer_size(avcodec_context->pix_fmt,
avcodec_context->width,
avcodec_context->height,
1);
uint8_t *out_buffer = (uint8_t *)av_malloc(buffer_size);
AVFrame *frame = av_frame_alloc();
av_image_fill_arrays(frame->data,
frame->linesize,
out_buffer,
avcodec_context->pix_fmt,
avcodec_context->width,
avcodec_context->height,
1);
frame->format = AV_PIX_FMT_YUV420P;
frame->width = width;
frame->height = height;
AVPacket *av_packet = av_packet_alloc();
av_init_packet(av_packet);
uint8_t * file_buffer = (uint8_t *)av_malloc(width * height * 3 / 2);
FILE *in_file = fopen("d:/yuv420p.yuv", "rb");
int i= 0;
while (true) {
//读取yuv帧数据 注意yuv420p的长度 width * height * 3 / 2
if (fread(file_buffer, 1, width * height * 3 / 2, in_file) <= 0) {
break;
} else if (feof(in_file)) {
break;
}
//封装yuv帧数据
frame->data[0] = file_buffer;//y数据的起始位置在数组中的索引
frame->data[1] = file_buffer + width * height;//u数据的起始位置在数组中的索引
frame->data[2] = file_buffer + width * height * 5 / 4;//v数据的起始位置在数组中的索引
frame->linesize[0] = width;//y数据的行宽
frame->linesize[1] = width / 2;//u数据的行宽
frame->linesize[2] = width / 2;//v数据的行宽
frame->pts = i;
i++;
avcodec_send_frame(avcodec_context, frame);//将yuv帧数据送入编码器
while(true) {
int ret = avcodec_receive_packet(avcodec_context, av_packet);//从编码器中取出h264帧
if (ret) {
av_packet_unref(av_packet);
break;
}
av_packet_rescale_ts(av_packet, avcodec_context->time_base, avvideo_stream->time_base);
av_packet->stream_index = avvideo_stream->index;
//将帧写入视频文件中,与av_write_frame的区别是,将对 packet 进行缓存和 pts 检查。
av_interleaved_write_frame(avformat_context, av_packet);
}
}
//读取剩余的帧
avcodec_send_frame(avcodec_context, nullptr);
while(true) {
int ret = avcodec_receive_packet(avcodec_context, av_packet);
if (ret) {
av_packet_unref(av_packet);
break;
}
av_packet_rescale_ts(av_packet, avcodec_context->time_base, avvideo_stream->time_base);
av_packet->stream_index = avvideo_stream->index;
//将对 packet 进行缓存和 pts 检查,这是区别于 av_write_frame 的地方。
av_interleaved_write_frame(avformat_context, av_packet);
}
fclose(in_file);
avcodec_close(avcodec_context);
av_free(frame);
av_free(out_buffer);
av_free_packet(av_packet);
av_write_trailer(avformat_context);
avio_close(avformat_context->pb);
avformat_free_context(avformat_context);