用AudioTrack实现音频播放,先看代码
布局文件,只是两个按钮。
音频文件wav,在res文件夹下,创建一个raw文件,把音频文件放在此文件夹下。
public class TestActivty extends Activity implements View.OnClickListener {
private static final String TAG ="TestActivity";
private Button button,test_stop;
private byte[] audioData;
private AudioTrack audioTrack;
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.test);
button=(Button) findViewById(R.id.test_paly);
test_stop=(Button)findViewById(R.id.test_stop);
button.setOnClickListener(this);
test_stop_tip.setOnClickListener(this);
}
private class MyThreadOne extends Thread{
@Override
public void run() {
super.run();
int bufsize = AudioTrack.getMinBufferSize(28050,
AudioFormat.CHANNEL_CONFIGURATION_STEREO,
AudioFormat.ENCODING_PCM_16BIT);
Log.i(TAG, "new AudioTrackONE**********");
AudioTrack audioTrackOne=new AudioTrack(
AudioManager.STREAM_HSAE,
28050,
AudioFormat.CHANNEL_OUT_STEREO,
AudioFormat.ENCODING_PCM_16BIT,
bufsize,
AudioTrack.MODE_STREAM);
//写入数据
try {
InputStream in = getResources().openRawResource(R.raw.android_default);
try {
ByteArrayOutputStream out = new ByteArrayOutputStream(4096);
for (int b; (b = in.read()) != -1; ) {
out.write(b);
}
Log.d(TAG, "Got the data");
audioData = out.toByteArray();
} finally {
in.close();
}
} catch (IOException e) {
Log.wtf(TAG, "Failed to read", e);
}
//循环播放
while (true) {
Log.i(TAG,"*******circulation,Android********");
Log.d(TAG, "Writing audio data...");
audioTrackOne.write(audioData, 0, audioData.length);
Log.d(TAG, "Starting playback");
audioTrackOne.play();
Log.d(TAG, "Playing");
}
}
}
private void startThread(){
Log.i(TAG, "start thread***********");
MyThreadOne threadOne=new MyThreadOne();
threadOne.start();
}
@Override
public void onClick(View v) {
switch (v.getId()){
case R.id.test_paly:
Button btn = (Button) v;
String string = btn.getText().toString();
startThread();
break;
case R.id.test_stop_tip:
stopPlay();
break;
}
}
private void stopPlay() {
if (audioTrack != null) {
Log.d(TAG, "Stopping");
audioTrack.stop();
Log.d(TAG, "Releasing");
audioTrack.release();
Log.d(TAG, "Nulling");
}
}
@Override
protected void onPause() {
super.onPause();
stopPlay();
}
}
在Android中播放声音,可以使用MediaPlayer,AudioTrack,两种方式。
两种方式的区别:
MediaPlayer:播放多种格式的声音文件,例如“MP3,AAC,WAV,OGG,MIDI等。
AudioTrack:只能播放PCM数据流,如大多数的WAV格式的音频文件。
但是两者本质上没啥区别,MediaPlayer在播放音频文件时,在framework层还是会创建AudioTrack,把解码后的pcm数据流传给给AudioTrack,最后AudioFlinger进行混音,传递音频给硬件播放出来。而利用AudioTrack播放只是跳过Mediaplayer的解码部分而已。
//根据采样率,采样精度,单双声道来得到frame的大小。
int bufsize = AudioTrack.getMinBufferSize(8000,//每秒8K个点
AudioFormat.CHANNEL_CONFIGURATION_STEREO,//双声道
AudioFormat.ENCODING_PCM_16BIT);//一个采样点16比特-2个字节
//注意,按照数字音频的知识,这个算出来的是一秒钟buffer的大小。
//创建AudioTrack
AudioTrack trackplayer = new AudioTrack(AudioManager.STREAM_MUSIC, 8000,
AudioFormat.CHANNEL_CONFIGURATION_ STEREO,
AudioFormat.ENCODING_PCM_16BIT,
bufsize,
AudioTrack.MODE_STREAM);//
trackplayer.play() ;//开始
trackplayer.write(bytes_pkg, 0, bytes_pkg.length) ;//往track中写数据
….
trackplayer.stop();//停止播放
trackplayer.release();//释放底层资源。
1,AudioTrack的两种数据加载模式MODE_STREAM和MODE_STATIC
MODE_STREAM:这种模式下,通过write一次次把音频数据写到AudioTrack中,这和平时通过write系统调用往文件中写数据类似,但是这种方式每次都需要把数据从用户提供的Buffer中拷贝到AudioTrack内部的Buffer中,这在一定程度上会使引入延迟。未解决这一问题,引入了下面这种模式
MODE_STATIC:这种模式下,在play之前只需要把所有数据通过一次write调佣传递到AudioTrack中的内部缓冲区,后续就不必再传递数据了。这种模式适用于铃声这种内存占用比较小,延时要求比较高的文件。缺点:一次write数据不能太多,否则系统无法分配足够的内存来存储全部数据。
2,音频流的类型
Android将系统的声音分为好几种流类型,下面是几个常见的:
- STREAM_ALARM:警告声
- STREAM_MUSIC:音乐声,例如music等
- STREAM_RING:铃声
- STREAM_SYSTEM:系统声音,例如低电提示音,锁屏音等
- STREAM_VOCIE_CALL:通话声
注意:上面这些类型的划分和音频数据本身并没有关系。例如MUSIC和RING类型都可以是某首MP3歌曲。另外,声音流类型的选择没有固定的标准,例如,铃声预览中的铃声可以设置为MUSIC类型。音频流类型的划分和Audio系统对音频的管理策略有关。
借鉴文章https://www.cnblogs.com/renhui/p/7463287.html