在之前写过一篇文章编译FFmpeg for Android,简单的讲了一下如何在Linux下编译ffmpeg,今天在这里再根据自己的实践经验说一下如何定制化自己需要的ffmpeg库。
项目实战
需求:
读取视频文件,将其转换成yuv,进行保存。
针对这一需求,我们定制化自己的.so库,让其尽可能的小
需求c代码实现
#include <jni.h>
#include <android/log.h>
#define LOGI(FORMAT,...) __android_log_print(ANDROID_LOG_INFO,"jason",FORMAT,##__VA_ARGS__);
#define LOGE(FORMAT,...) __android_log_print(ANDROID_LOG_ERROR,"jason",FORMAT,##__VA_ARGS__);
//封装格式
#include "libavformat/avformat.h"
//解码
#include "libavcodec/avcodec.h"
//缩放
#include "libswscale/swscale.h"
JNIEXPORT void JNICALL
Java_com_ffmpeg_1study_MainActivity_video_1decode(JNIEnv *env, jobject instance, jstring input_,
jstring output_) {
const char *input_cstr = (*env)->GetStringUTFChars(env, input_, 0);
const char *output_cstr = (*env)->GetStringUTFChars(env, output_, 0);
//1.注册组件
av_register_all();
//封装格式上下文
AVFormatContext *pFormatCtx = avformat_alloc_context();
//2.打开输入视频文件
int err_code=avformat_open_input(&pFormatCtx,input_cstr,NULL,NULL);
LOGE("%s","打印名字");
// LOGE("%s",pFormatCtx->iformat->name);
if(err_code!= 0){
char errbuf[1024];
const char *errbuf_ptr = errbuf;
av_strerror(err_code, errbuf_ptr, sizeof(errbuf));
LOGE("Couldn't open file %s: %d(%s)", input_cstr, err_code, errbuf_ptr);
LOGE("%s","打开输入视频文件失败");
return;
}
//3.获取视频信息
if(avformat_find_stream_info(pFormatCtx,NULL) < 0){
LOGE("%s","获取视频信息失败");
return;
}
//视频解码,需要找到视频对应的AVStream所在pFormatCtx->streams的索引位置
int video_stream_idx = -1;
int i = 0;
for(; i < pFormatCtx->nb_streams;i++){
//根据类型判断,是否是视频流
if(pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO){
video_stream_idx = i;
break;
}
}
//4.获取视频解码器
AVCodecContext *pCodeCtx = pFormatCtx->streams[video_stream_idx]->codec;
AVCodec *pCodec = avcodec_find_decoder(pCodeCtx->codec_id);
if(pCodec == NULL){
LOGE("%s","无法解码");
return;
}
//5.打开解码器
if(avcodec_open2(pCodeCtx,pCodec,NULL) < 0){
LOGE("%s","解码器无法打开");
return;
}
//编码数据
AVPacket *packet = (AVPacket *)av_malloc(sizeof(AVPacket));
//像素数据(解码数据)
AVFrame *frame = av_frame_alloc();
AVFrame *yuvFrame = av_frame_alloc();
//只有指定了AVFrame的像素格式、画面大小才能真正分配内存
//缓冲区分配内存
uint8_t *out_buffer = (uint8_t *)av_malloc(avpicture_get_size(AV_PIX_FMT_YUV420P, pCodeCtx->width, pCodeCtx->height));
//初始化缓冲区
avpicture_fill((AVPicture *)yuvFrame, out_buffer, AV_PIX_FMT_YUV420P, pCodeCtx->width, pCodeCtx->height);
//输出文件
FILE* fp_yuv = fopen(output_cstr,"wb");
//用于像素格式转换或者缩放
struct SwsContext *sws_ctx = sws_getContext(
pCodeCtx->width, pCodeCtx->height, pCodeCtx->pix_fmt,
pCodeCtx->width, pCodeCtx->height, AV_PIX_FMT_YUV420P,
SWS_BILINEAR, NULL, NULL, NULL);
int len ,got_frame, framecount = 0;
//6.一阵一阵读取压缩的视频数据AVPacket
while(av_read_frame(pFormatCtx,packet) >= 0){
//解码AVPacket->AVFrame
len = avcodec_decode_video2(pCodeCtx, frame, &got_frame, packet);
//Zero if no frame could be decompressed
//非零,正在解码
if(got_frame){
//frame->yuvFrame (YUV420P)
//转为指定的YUV420P像素帧
sws_scale(sws_ctx,
frame->data,frame->linesize, 0, frame->height,
yuvFrame->data, yuvFrame->linesize);
//向YUV文件保存解码之后的帧数据
//AVFrame->YUV
//一个像素包含一个Y
int y_size = pCodeCtx->width * pCodeCtx->height;
fwrite(yuvFrame->data[0], 1, y_size, fp_yuv);
fwrite(yuvFrame->data[1], 1, y_size/4, fp_yuv);
fwrite(yuvFrame->data[2], 1, y_size/4, fp_yuv);
LOGI("解码%d帧",framecount++);
}
av_free_packet(packet);
}
fclose(fp_yuv);
av_frame_free(&frame);
avcodec_close(pCodeCtx);
avformat_free_context(pFormatCtx);
(*env)->ReleaseStringUTFChars(env, input_, input_cstr);
(*env)->ReleaseStringUTFChars(env, output_, output_cstr);
}
我们回顾一下视频播放的流程图
查看上面流程图,分析视频播放流程,我们应该根据步骤,选择自己需要的库
1).首先是视频的解封装,需要解封装协议(protocol)和视音频分离器(demuxer)
由于自己是读取本地视频,所以设置--enable-protocol=file,查看视频的格式
如何查看视频的格式:去ffmpeg官网下载编译好的库,解压后会在bin文件夹下有三个.exe文件,在window搜索输入cmd进入dos页面 cd进入三个.exe文件的目录 (比如, cd C:\Users\Administrator\Desktop\ffmpeg-20181007-0a41a8b-win64-static\bin),再输入ffmpeg -i 然后拖动文件到dos窗口,点击Enter就得到上面的视频信息了
我们发现可能视音频分离器可以是图片上红色框里的 mov,mp4,m4a,3gp,3g2,mj2 所以我就选取了两次尝试一下,如下:
--enable-demuxer=mov
--enable-demuxer=m4a
经过测试,是可以这样设置的。
2).经过音视频分离器分离后我们得到了适配压缩数据,接下来就是视频解码了,所以需要配置解码器了,由视频的格式信息我们设置:
--enable-decoder=h264 \
--enable-decoder=YUV420P
需要解析每一帧数据,所以我们要配置解析器:
--enable-parser=h264
配置build_android.sh
#!/bin/bash
make clean
export NDK=/usr/ndk/android-ndk-r14b
export SYSROOT=$NDK/platforms/android-14/arch-arm/
export TOOLCHAIN=$NDK/toolchains/arm-linux-androideabi-4.9/prebuilt/linux-x86_64
export CPU=arm
export PREFIX=$(pwd)/android/$CPU
export ADDI_CFLAGS="-marm"
./configure --target-os=linux \
--prefix=$PREFIX --arch=arm \
--disable-everything \
--enable-protocol=file \
--enable-demuxer=mov \
--enable-demuxer=m4a \
--enable-decoder=h264 \
--enable-decoder=YUV420P \
--enable-parser=h264 \
--enable-neon \
--enable-small \
--enable-swscale \
--disable-doc \
--enable-shared \
--disable-static \
--disable-x86asm \
--disable-symver \
--enable-gpl \
--disable-ffmpeg \
--disable-ffplay \
--disable-ffprobe \
--disable-doc \
--disable-symver \
--cross-prefix=$TOOLCHAIN/bin/arm-linux-androideabi- \
--enable-cross-compile \
--sysroot=$SYSROOT \
--extra-cflags="-Os -fpic $ADDI_CFLAGS" \
--extra-ldflags="$ADDI_LDFLAGS" \
$ADDITIONAL_CONFIGURE_FLAG
make clean
make
make install