FFmpeg4Android:视频播放

5 FFmpeg4Android:视频播放

视频文件的播放过程,就是将视频中的压缩数据解码成一帧帧的RGB数据,绘制到Native或Android的控件上。因此,视频的播放可方式分为两种:
1)jni层播放:即将视频文件通过ffmpeg解码,同时将java层的显示控件surface传入到jni层, 在jni层进行渲染;
2)java层播放:即将视频文件通过ffmpeg解码,然后将解码一帧一帧数据返回到java层,并转化成Bitmap显示到相应控件中(如:ImageView、SurfaceView等)。
可以看出方式1)效率会更高,只会显示的话用1)方法即可;但是有些时候出于某种原因需要对显示的Bitmap图片在java层进行处理,就需要用到方式2)。

5.1 视频的jni层播放

视频的jni层播放,是在jni中的通过ANativeWindow进行渲染显示。
先看C端的代码(ffmpeg_video_player.c文件):

#include <stdlib.h>
#include <stdio.h>
#include <unistd.h>
#include <android/log.h>
#include <android/native_window_jni.h>
#include <android/native_window.h>

#include "libyuv.h"
// 封装格式
#include "libavformat/avformat.h"
// 解码
#include "libavcodec/avcodec.h"
// 缩放
#include "libswscale/swscale.h"

#include "queue.h"

#define LOGI(FORMAT, ...) __android_log_print(ANDROID_LOG_INFO, "ffmpeg", FORMAT, ##__VA_ARGS__);
#define LOGE(FORMAT, ...) __android_log_print(ANDROID_LOG_ERROR, "ffmpeg", FORMAT, ##__VA_ARGS__);

static int s_mwidth;
static int s_mheight;

JNIEXPORT void JNICALL Java_com_lzp_decoder_Player_render
  (JNIEnv *env, jobject jobj, jstring input_jstr, jobject surface)
{
    const char* input_cstr = (*env)->GetStringUTFChars(env, input_jstr, NULL);
    // 1.注册组件
    av_register_all();

    // 封装格式上下文
    AVFormatContext *pFormatCtx = avformat_alloc_context();

    // 2.打开输入视频文件
    if (avformat_open_input(&pFormatCtx, input_cstr, NULL, NULL) != 0) {
        LOGE("%s", "打开输入视频文件失败");
        return;
    }
    // 3.获取视频信息
    if (avformat_find_stream_info(pFormatCtx, NULL) < 0) {
        LOGE("%s", "获取视频信息失败");
        return;
    }

    // 视频解码,需要找到视频对应的AVStream所在pFormatCtx->streams的索引位置
    int video_stream_idx = -1;
    int i = 0;
    for (; i < pFormatCtx->nb_streams; i++) {
        // 根据类型判断,是否是视频流
        if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
            video_stream_idx = i;
            break;
        }
    }

    // 4.获取视频解码器
    AVCodecContext *pCodeCtx = pFormatCtx->streams[video_stream_idx]->codec;
    AVCodec *pCodec = avcodec_find_decoder(pCodeCtx->codec_id);
    if (pCodec == NULL) {
        LOGE("%s", "无法解码");
        return;
    }

    // 5.打开解码器
    if (avcodec_open2(pCodeCtx, pCodec, NULL) < 0) {
        LOGE("%s", "解码器无法打开");
        return;
    }

    // 编码数据
    AVPacket *packet = (AVPacket *)av_malloc(sizeof(AVPacket));

    // 像素数据(解码数据)
    AVFrame *yuv_frame = av_frame_alloc();
    AVFrame *rgb_frame = av_frame_alloc();

    // native绘制
    // 窗体
    ANativeWindow* nativeWindow = ANativeWindow_fromSurface(env, surface);
    // 绘制时的缓冲区
    ANativeWindow_Buffer outBuffer;

    int len, got_frame, framecount = 0;
    // 6.一阵一阵读取压缩的视频数据AVPacket
    while (av_read_frame(pFormatCtx, packet) >= 0) {
        // 解码AVPacket->AVFrame
        len = avcodec_decode_video2(pCodeCtx, yuv_frame, &got_frame, packet);

        // Zero if no frame could be decompressed
        // 非零,正在解码
        if (got_frame) {
            LOGI("解码%d帧", framecount++);
            // lock
            // 设置缓冲区的属性(宽、高、像素格式)
            ANativeWindow_setBuffersGeometry(nativeWindow, pCodeCtx->width, pCodeCtx->height, WINDOW_FORMAT_RGBA_8888);
            ANativeWindow_lock(nativeWindow, &outBuffer, NULL);

            // 设置rgb_frame的属性(像素格式、宽高)和缓冲区
            // rgb_frame缓冲区与outBuffer.bits是同一块内存
            avpicture_fill((AVPicture *)rgb_frame, outBuffer.bits, AV_PIX_FMT_RGBA, pCodeCtx->width, pCodeCtx->height);

            // YUV->RGBA_8888
            I420ToARGB(
                yuv_frame->data[0], yuv_frame->linesize[0], 
                yuv_frame->data[2], yuv_frame->linesize[2], 
                yuv_frame->data[1], yuv_frame->linesize[1], 
                rgb_frame->data[0], rgb_frame->linesize[0], 
                pCodeCtx->width, pCodeCtx->height);

            // unlock
            ANativeWindow_unlockAndPost(nativeWindow);

            usleep(1000 * 16);
        }
        av_free_packet(packet);
    }

    ANativeWindow_release(nativeWindow);
    av_frame_free(&yuv_frame);
    avcodec_close(pCodeCtx);
    avformat_free_context(pFormatCtx);

    (*env)->ReleaseStringUTFChars(env, input_jstr, input_cstr);
}

可以看到函数Java_com_lzp_decoder_Player_render
(JNIEnv *env, jobject jobj, jstring input_jstr, jobject surface)中的第3个参数传入的是jobject surface,对应java层中的Surface。
将绘制窗体ANativeWindow与绘制缓冲区ANativeWindow_Buffer相关联,通过操作缓冲区的方式来达到渲染的效果。

JAVA端代码如下:

package com.lzp.decoder;

import android.media.AudioFormat;
import android.media.AudioManager;
import android.media.AudioTrack;
import android.util.Log;
import android.view.Surface;

/**
 * 视频播放的控制器
 */
public class Player {

    // 解码视频
    public native void render(String input, Surface surface);

    static {
        System.loadLibrary("avutil-54");
        System.loadLibrary("swresample-1");
        System.loadLibrary("avcodec-56");
        System.loadLibrary("avformat-56");
        System.loadLibrary("swscale-3");
        System.loadLibrary("postproc-53");
        System.loadLibrary("avfilter-5");
        System.loadLibrary("avdevice-56");
        System.loadLibrary("myffmpeg");
    }
}

5.2 视频的java层播放

视频的java层播放,是将jni层解码后的rgb数据返回,然后在java层中转化成Bitmap进行显示。

C端的代码(ffmpeg_videofile_decoder.c文件):

//
// Created by lizhiping03 on 2018/2/1.
//

#include "com_lzp_decoder_VideoDecoder.h"

#include <stdlib.h>
#include <stdio.h>
#include <unistd.h>
#include <android/log.h>
#include <android/native_window_jni.h>
#include <android/native_window.h>

#include "libyuv.h"
// 封装格式
#include "libavformat/avformat.h"
// 解码
#include "libavcodec/avcodec.h"
// 缩放
#include "libswscale/swscale.h"

#include "queue.h"

#define LOGI(FORMAT, ...) __android_log_print(ANDROID_LOG_INFO, "ffmpeg", FORMAT, ##__VA_ARGS__);
#define LOGE(FORMAT, ...) __android_log_print(ANDROID_LOG_ERROR, "ffmpeg", FORMAT, ##__VA_ARGS__);

static int s_mwidth;
static int s_mheight;
int cnt = 0;

AVFormatContext *pFormatCtx;
AVCodecContext  *pCodecCtx;

/*
 * Class:     com_lzp_decoder_VideoDecoder
 * Method:    init
 * Signature: (Ljava/lang/String;)V
 */
JNIEXPORT void JNICALL Java_com_lzp_decoder_VideoDecoder_init
  (JNIEnv *env, jobject jobj, jstring input_jstr)
{
    cnt = 0;
    const char* input_cstr = (*env)->GetStringUTFChars(env, input_jstr, NULL);
    // 1.注册组件
    av_register_all();

    // 封装格式上下文
    pFormatCtx = avformat_alloc_context();

    // 2.打开输入视频文件
    if (avformat_open_input(&pFormatCtx, input_cstr, NULL, NULL) != 0) {
        LOGE("%s", "打开输入视频文件失败");
        return;
    }
    // 3.获取视频信息
    if (avformat_find_stream_info(pFormatCtx, NULL) < 0) {
        LOGE("%s", "获取视频信息失败");
        return;
    }

    // 视频解码,需要找到视频对应的AVStream所在pFormatCtx->streams的索引位置
    int video_stream_idx = -1;
    int i = 0;
    for (; i < pFormatCtx->nb_streams; i++) {
        // 根据类型判断,是否是视频流
        if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
            video_stream_idx = i;
            break;
        }
    }

    // 4.获取视频解码器
    pCodecCtx = pFormatCtx->streams[video_stream_idx]->codec;
    AVCodec *pCodec = avcodec_find_decoder(pCodecCtx->codec_id);
    if (pCodec == NULL) {
        LOGE("%s", "无法解码");
        return;
    }

    // 5.打开解码器
    if (avcodec_open2(pCodecCtx, pCodec, NULL) < 0) {
        LOGE("%s", "解码器无法打开");
        return;
    }

    // 编码数据
    AVPacket *packet = (AVPacket *)av_malloc(sizeof(AVPacket));

    // 像素数据(解码数据)
    AVFrame *yuv_frame = av_frame_alloc();

    int len, got_frame, framecount = 0;

    create_queue();

    s_mwidth = pCodecCtx->width;
    s_mheight = pCodecCtx->height;

    // 6.一阵一阵读取压缩的视频数据AVPacket
    while (av_read_frame(pFormatCtx, packet) >= 0) {
        // 解码AVPacket->AVFrame
        len = avcodec_decode_video2(pCodecCtx, yuv_frame, &got_frame, packet);

        // Zero if no frame could be decompressed
        // 非零,正在解码
        if (got_frame) {
            LOGI("解码%d帧", framecount++);

            queue_append_last(yuv_frame);

            usleep(1000 * 16);
        }

        av_free_packet(packet);
    }

    av_frame_free(&yuv_frame);
    (*env)->ReleaseStringUTFChars(env, input_jstr, input_cstr);
}

/*
 * Class:     com_lzp_decoder_VideoDecoder
 * Method:    readFrame
 * Signature: ([BII)I
 */
JNIEXPORT jint JNICALL Java_com_lzp_decoder_VideoDecoder_readFrame
  (JNIEnv *env, jobject jobj, jbyteArray rgbdata, const jint width, const jint height)
{
    jbyte *rgb_data = (jbyte *)(*env)->GetByteArrayElements(env, rgbdata, 0);

    AVFrame *yuv_frame = queue_get_first();
    AVFrame *rgb_frame = NULL;
    rgb_frame = avcodec_alloc_frame();

    struct SwsContext *swsctx = NULL;

    if (yuv_frame) {
        LOGE("got frame: %d", cnt++);
        queue_delete_first();
        avpicture_fill((AVPicture *) rgb_frame, (uint8_t *)rgb_data, PIX_FMT_RGB565, width, height);

        swsctx = sws_getContext(s_mwidth, s_mheight, pCodecCtx->pix_fmt, width, height, PIX_FMT_RGB565, SWS_BICUBIC, NULL, NULL, NULL);
        sws_scale(swsctx, (const uint8_t * const *)yuv_frame->data, yuv_frame->linesize, 0, s_mheight, rgb_frame->data, rgb_frame->linesize);

        //av_free(yuv_frame);
        av_free(rgb_frame);
        (*env)->ReleaseByteArrayElements(env, rgbdata, rgb_data, 0);
        return 1;
    }
    av_free(yuv_frame);
    av_free(rgb_frame);
    (*env)->ReleaseByteArrayElements(env, rgbdata, rgb_data, 0);
    return -1;
}

这里的init(JNIEnv *env, jobject jobj, jstring input_jstr)负责将视频文件解码,并将yuv数据放出队列中,供读帧函数readFrame取。每读一次会从队列头取到一帧。

JAVA端代码:

package com.lzp.decoder;

import android.app.Activity;
import android.graphics.Bitmap;
import android.graphics.Canvas;
import android.graphics.Rect;
import android.nfc.Tag;
import android.nfc.TagLostException;
import android.os.Environment;
import android.os.Handler;
import android.os.Bundle;
import android.util.Log;
import android.view.SurfaceHolder;
import android.view.SurfaceView;
import android.view.View;
import android.widget.Button;
import android.widget.Toast;

import com.lzp.decoder.utils.FileUtils;

import java.io.File;
import java.nio.ByteBuffer;

public class BitmapShowActivity extends Activity implements SurfaceHolder.Callback {

    public final String TAG = BitmapShowActivity.class.getSimpleName();

    private int width = 320;
    private int height = 640;

    private VideoDecoder mDecoder;

    private boolean isRunning = false;

    private byte[] rgbdata;
    private ByteBuffer imagBuf;

    private SurfaceView mSurfaceView;
    private SurfaceHolder mSurfaceHolder;
    private Rect mPreviewWindow = new Rect(0, 0, width, height);

    private Bitmap mBitmap;
    private Handler mHandler;

    private String mFileUrl;

    private Button mPlayerBtn;

    @Override
    protected void onCreate(Bundle savedInstanceState) {
        super.onCreate(savedInstanceState);

        setContentView(R.layout.activity_video_file);

        mPlayerBtn = findViewById(R.id.player);
        mSurfaceView = findViewById(R.id.sufaceView);
        mSurfaceHolder = mSurfaceView.getHolder();
        mSurfaceHolder.addCallback(this);

        mDecoder = new VideoDecoder();
        mHandler = new Handler();
        mFileUrl = new File(Environment.getExternalStorageDirectory(), "sintel.mp4").getAbsolutePath();

        rgbdata = new byte[width * height * 2];
        imagBuf = ByteBuffer.wrap(rgbdata);
        mBitmap = Bitmap.createBitmap(width, height, Bitmap.Config.RGB_565);

        mPlayerBtn.setOnClickListener(new View.OnClickListener() {
            @Override
            public void onClick(View v) {
                if ("开始播放".equals(mPlayerBtn.getText().toString())) {
                    isRunning = true;
                    mPlayerBtn.setText("停止播放");
                    new DecoderThread().start();
                    // new RenderThread().start();
                } else {
                    isRunning = false;
                    mPlayerBtn.setText("开始播放");
                }
            }
        });
    }

    ...

    private class RenderThread extends Thread {
        @Override
        public void run() {
            while (isRunning) {
                try {
                    sleep(100);
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }
                if (mDecoder.readFrame(rgbdata, width, height) > 0) {
                    mHandler.post(mPreviewTask);
                }
            }
        }
    }

    private class DecoderThread extends Thread {
        @Override
        public void run() {
            mDecoder.init(mFileUrl);
        }
    }

    final Runnable mPreviewTask = new Runnable() {
        @Override
        public void run() {
            mBitmap.copyPixelsFromBuffer(imagBuf);
            if (mBitmap != null) {
                FileUtils.saveBitmap(BitmapShowActivity.this, mBitmap);
                Canvas canvas = mSurfaceHolder.lockCanvas();
                if (canvas != null) {
                    canvas.drawBitmap(mBitmap, null, mPreviewWindow, null);
                }
                mSurfaceHolder.unlockCanvasAndPost(canvas);
            }
            imagBuf.clear();
        }
    };
}

2018/2/11更新-----------------------
上面的代码在java层开了两个线程分别做解码与播放:线程1将解码后的yuv数据放入队列,线程2从队列中取出数据实现播放。存在很大的问题,两个线程都在java层开启,没有办法做解码与播放的同步,也没有对队列进行上锁,丢帧是必然的。因此,接下来用回调的方式来进行视频播放。
回调,即从c/c++通过反射的方式调java层代码,c/c++调java的方式,可参考:FFmpeg4Android:jni中c/c++调用java

改进后C端代码(ffmpeg_videofile_decoder.c文件):

/*
 * Class:     com_lzp_decoder_VideoDecoder
 * Method:    init
 * Signature: (Ljava/lang/String;)V
 */
JNIEXPORT void JNICALL Java_com_lzp_decoder_VideoDecoder_decodeVideo
  (JNIEnv *env, jobject jobj, jstring input_jstr, const jint width, const jint height)
{
    cnt = 0;
    const char* input_cstr = (*env)->GetStringUTFChars(env, input_jstr, NULL);
    // 1.注册组件
    av_register_all();

    // 封装格式上下文
    pFormatCtx = avformat_alloc_context();

    // 2.打开输入视频文件
    if (avformat_open_input(&pFormatCtx, input_cstr, NULL, NULL) != 0) {
        LOGE("%s", "打开输入视频文件失败");
        return;
    }

    // 3.获取视频信息
    if (avformat_find_stream_info(pFormatCtx, NULL) < 0) {
        LOGE("%s", "获取视频信息失败");
        return;
    }
    // 视频解码,需要找到视频对应的AVStream所在pFormatCtx->streams的索引位置
    int video_stream_idx = -1;
    int i = 0;
    for (; i < pFormatCtx->nb_streams; i++) {
        // 根据类型判断,是否是视频流
        if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
            video_stream_idx = i;
            break;
        }
    }

    // 4.获取视频解码器
    pCodecCtx = pFormatCtx->streams[video_stream_idx]->codec;
    AVCodec *pCodec = avcodec_find_decoder(pCodecCtx->codec_id);
    if (pCodec == NULL) {
        LOGE("%s", "无法解码");
        return;
    }

    // 5.打开解码器
    if (avcodec_open2(pCodecCtx, pCodec, NULL) < 0) {
        LOGE("%s", "解码器无法打开");
        return;
    }

    // 编码数据
    AVPacket *packet = (AVPacket *)av_malloc(sizeof(AVPacket));

    // 像素数据(解码数据)
    AVFrame *yuv_frame = av_frame_alloc();
    int len, got_frame, framecount = 0;

    create_queue();

    // jclass clazz = (*env)->FindClass(env, "com/lzp/decoder/VideoDecoder");
    jclass clazz = (*env)->GetObjectClass(env, jobj);
    jmethodID jmID = (*env)->GetMethodID(env, clazz, "frameCallback", "([BII)V");

    struct SwsContext *swsctx = NULL;

    // 6.一阵一阵读取压缩的视频数据AVPacket
    while (av_read_frame(pFormatCtx, packet) >= 0) {
        // 解码AVPacket->AVFrame
        len = avcodec_decode_video2(pCodecCtx, yuv_frame, &got_frame, packet);
        // Zero if no frame could be decompressed
        // 非零,正在解码
        if (got_frame) {
            LOGI("解码%d帧", framecount++);
            // queue_append_last(yuv_frame);
            //jstring newStr = (*env)->NewStringUTF(env, "yuv_frame");
            AVFrame *rgb_frame = av_frame_alloc();
            jbyteArray  rgbdata = (*env)->NewByteArray(env, 2 * width * height);
            jbyte *rgb_data = (jbyte *)(*env)->GetByteArrayElements(env, rgbdata, NULL);

            avpicture_fill((AVPicture *) rgb_frame, (uint8_t *)rgb_data, PIX_FMT_RGB565, width, height);
            swsctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt, width, height, PIX_FMT_RGB565, SWS_BICUBIC, NULL, NULL, NULL);

            sws_scale(swsctx, (const uint8_t * const *)yuv_frame->data, yuv_frame->linesize, 0, pCodecCtx->height, rgb_frame->data, rgb_frame->linesize);

            (*env)->ReleaseByteArrayElements(env, rgbdata, rgb_data, 0);
            // 回调java中的frameCallback方法
            (*env)->CallVoidMethod(env, jobj, jmID, rgbdata, width, height);
            (*env)->DeleteLocalRef(env, rgbdata);
            usleep(1000 * 16);
            av_free(rgb_frame);
        }
        av_free_packet(packet);
    }
    av_frame_free(&yuv_frame);
    (*env)->ReleaseStringUTFChars(env, input_jstr, input_cstr);
}

java端代码:VideoDecoder.java
VideoDecoder变成了抽象类,并添加native decodeVideo()方法与frameCallback()抽象方法。调用decodeVideo方法后开始解码视频,每解码一帧会回调frameCallback()一次。

\package com.lzp.decoder;


/**
 * Created by lizhiping03 on 2018/2/1.
 */

public abstract class VideoDecoder {

    /**
     * 打开视频文件并开始解码
     * @param file_url
     */
    public native void init(String file_url);

    /**
     * 取一帧rgb数据
     */
    public native int readFrame(byte[] rgbdata, int width, int height);


    /**
     * 打开视频文件并开始解码
     * @param file_url
     */
    public native void decodeVideo(String file_url, int width, int height);

    public abstract void frameCallback(byte[] rgbdata, int width, int heigth);

    static {
        System.loadLibrary("myffmpeg");
    }
}

BitmapShowActivity.java代码:

package com.lzp.decoder;

import android.app.Activity;
import android.graphics.Bitmap;
import android.graphics.Canvas;
import android.graphics.Rect;
import android.nfc.Tag;
import android.nfc.TagLostException;
import android.os.Environment;
import android.os.Handler;
import android.os.Bundle;
import android.os.Message;
import android.util.Log;
import android.view.SurfaceHolder;
import android.view.SurfaceView;
import android.view.View;
import android.widget.Button;
import android.widget.Toast;

import com.lzp.decoder.utils.FileUtils;

import java.io.File;
import java.nio.ByteBuffer;

public class BitmapShowActivity extends Activity implements SurfaceHolder.Callback {

    public final String TAG = BitmapShowActivity.class.getSimpleName();

    private int width = 320;
    private int height = 640;

    private VideoDecoder mDecoder;

    private boolean isRunning = false;

    private byte[] rgbdata;
    private ByteBuffer imagBuf;
    private ByteBuffer imagBuf2;

    private SurfaceView mSurfaceView;
    private SurfaceHolder mSurfaceHolder;
    private Rect mPreviewWindow = new Rect(0, 0, width, height);

    private Bitmap mBitmap;
    private Handler mHandler;

    private String mFileUrl;

    private Button mPlayerBtn;
    private Button mPlayerBtn2;

    @Override
    protected void onCreate(Bundle savedInstanceState) {
        super.onCreate(savedInstanceState);

        setContentView(R.layout.activity_video_file);

        mPlayerBtn = findViewById(R.id.player);
        mPlayerBtn2 = findViewById(R.id.player2);
        mSurfaceView = findViewById(R.id.sufaceView);
        mSurfaceHolder = mSurfaceView.getHolder();
        mSurfaceHolder.addCallback(this);

        rgbdata = new byte[width * height * 2];
        imagBuf = ByteBuffer.wrap(rgbdata);
        imagBuf2 = ByteBuffer.wrap(rgbdata);

        mBitmap = Bitmap.createBitmap(width, height, Bitmap.Config.RGB_565);

        mHandler = new Handler() {
            @Override
            public void handleMessage(Message msg) {
                super.handleMessage(msg);
                switch (msg.what) {
                    case 1:
                        imagBuf2 = ByteBuffer.wrap((byte[])msg.obj);
                        Log.e(TAG, "len: " + ((byte[])msg.obj).length);

                        mBitmap.copyPixelsFromBuffer(imagBuf2);
                        if (mBitmap != null) {
                            Log.e(TAG, "mBitmap");
                            //FileUtils.saveBitmap(BitmapShowActivity.this, mBitmap);
                            Canvas canvas = mSurfaceHolder.lockCanvas();
                            if (canvas != null) {
                                canvas.drawBitmap(mBitmap, null, mPreviewWindow, null);
                            }
                            mSurfaceHolder.unlockCanvasAndPost(canvas);
                        }
                        imagBuf2.clear();

                        break;
                    default:
                        break;
                }
            }
        };

        mFileUrl = new File(Environment.getExternalStorageDirectory(), "sintel.mp4").getAbsolutePath();
        
        ...

        mPlayerBtn2.setOnClickListener(new View.OnClickListener() {
            @Override
            public void onClick(View v) {
                if ("回调播放".equals(mPlayerBtn2.getText().toString())) {
                    isRunning = true;
                    mPlayerBtn2.setText("停止播放");
                    new DecoderThread2().start();
                } else {
                    isRunning = false;
                    mPlayerBtn2.setText("回调播放");
                }
            }
        });

        mDecoder = new VideoDecoder() {
            @Override
            public void frameCallback(byte[] rgb_data, int width, int heigth) {
                String str = String.format("rgbata size: %d, width: %d, height: %d", rgb_data.length, width, heigth);
                Log.e("BitmapShowActivity", str);
                Message msg = mHandler.obtainMessage();
                msg.what = 1;
                msg.obj = rgb_data;
                mHandler.sendMessage(msg);
            }
        };
    }

    @Override
    public void surfaceCreated(SurfaceHolder holder) {
    }

    @Override
    public void surfaceChanged(SurfaceHolder holder, int format, int width, int height) {
        mPreviewWindow = new Rect(0, 0, width, height);
    }

    @Override
    public void surfaceDestroyed(SurfaceHolder holder) {
        if (mBitmap != null) {
            mBitmap.recycle();
            mBitmap = null;
        }
    }

    ...

    private class DecoderThread2 extends Thread {
        @Override
        public void run() {
            mDecoder.decodeVideo(mFileUrl, width, height);
        }
    }

    ...
}

这时候会发现播放正常了,不会有丢帧的情况。

代码+视频文件下载:http://download.csdn.net/download/itismelzp/10249569

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容

  • 1、通过CocoaPods安装项目名称项目信息 AFNetworking网络请求组件 FMDB本地数据库组件 SD...
    阳明先生x阅读 15,967评论 3 119
  • 转载请注明出处(https://www.jianshu.com/p/5f538820e370),您的打赏是小编继续...
    福later阅读 26,745评论 8 70
  • 其实前段时间,我发的那些向前走,不要回头,是真的,你不用担心我会怎么样,要是回头你真的能答应和我交往,或者恋...
    小白一只阅读 168评论 0 0
  • 就这样 我跟一个刚认识一个月的M师兄没话聊了 我们一起度过了一段无聊有趣的半夜时光 通过网络 本来陌生的人变的熟悉...
    怪人㭝阅读 220评论 0 0
  • 今天没画多少,10点才上完课回来的我已经困的不行了 大家晚安
    一临江仙阅读 146评论 0 6