引子
Android
Framework的音频子系统中,每一个音频流对应着一个AudioTrack类的一个实例,每个AudioTrack会在创建时注册到
AudioFlinger中,由AudioFlinger把所有的AudioTrack进行混合(Mixer),然后输送到AudioHardware中
进行播放,目前Android的Froyo版本设定了同时最多可以创建32个音频流,也就是说,Mixer最多会同时处理32个AudioTrack的数
据流。
如何使用AudioTrack
AudioTrack的主要代码位于
frameworks/base/media/libmedia/audiotrack.cpp中。现在先通过一个例子来了解一下如何使用
AudioTrack,ToneGenerator是android中产生电话拨号音和其他音调波形的一个实现,我们就以它为例子:
ToneGenerator的初始化函数:
-
bool
ToneGenerator::initAudioTrack(){
-
-
mpAudioTrack=new
AudioTrack();
-
mpAudioTrack->set
(mStreamType,
-
0,
-
AudioSystem::PCM_16_BIT,
-
AudioSystem::CHANNEL_OUT_MONO,
-
0,
-
0,
-
audioCallback,
-
this
,
-
0,
-
0,
-
mThreadCanCallJava);
-
if
(mpAudioTrack->initCheck()!=NO_ERROR){
-
LOGE("AudioTrack->initCheckfailed"
);
-
goto
initAudioTrack_exit;
-
}
-
mpAudioTrack->setVolume(mVolume,mVolume);
-
mState=TONE_INIT;
-
......
-
}
可见,创建步骤很简单,先new一个AudioTrack的实例,然后调用set成员函数完成参数的设置并注册到AudioFlinger中,然后可以调
用其他诸如设置音量等函数进一步设置音频参数。其中,一个重要的参数是audioCallback,audioCallback是一个回调函数,负责响应
AudioTrack的通知,例如填充数据、循环播放、播放位置触发等等。回调函数的写法通常像这样:
-
void
ToneGenerator::audioCallback(int
event
,void
*user,void
*info){
-
if
(event
!=AudioTrack::EVENT_MORE_DATA)return
;
-
AudioTrack::Buffer*buffer=static_cast<AudioTrack::Buffer*>(info);
-
ToneGenerator*lpToneGen=static_cast<ToneGenerator*>(user);
-
short
*lpOut=buffer->i16;
-
unsignedint
lNumSmp=buffer->size/sizeof
(short
);
-
const
ToneDescriptor*lpToneDesc=lpToneGen->mpToneDesc;
-
if
(buffer->size==0)return
;
-
-
-
memset(lpOut,0,buffer->size);
-
......
-
-
}
该函数首先判断事件的类型是否是EVENT_MORE_DATA,如果是,则后续的代码会填充相应的音频数据后返回,当然你可以处理其他事件,以下是可用的事件类型
-
enum
event_type{
-
EVENT_MORE_DATA=0,
-
EVENT_UNDERRUN=1,
-
EVENT_LOOP_END=2,
-
EVENT_MARKER=3,
-
EVENT_NEW_POS=4,
-
EVENT_BUFFER_END=5
-
};
关于开始播放和停止播放 ,只要简单的调用start() ,stop()即可
mpAudioTrack->start();
AudioTrack和AudioFlinger的通信机制
通常,AudioTrack和AudioFlinger并不在同一个进程中,它们通过android中的binder机制建立联系。
AudioFlinger是android中的一个service,在android启动时就已经被加载。
我们可以这样理解:
- audio_track_cblk_t实现了一个环形FIFO;
- AudioTrack是FIFO的数据生产者;
- AudioFlinger是FIFO的数据消费者。
建立联系的过程
解释一下过程:
- Framework或者Java层通过JNI,new AudioTrack();
- 根据StreamType等参数,通过一系列的调用getOutput();
- 如有必要,AudioFlinger根据StreamType打开不同硬件设备;
- AudioFlinger为该输出设备创建混音线程: MixerThread(),并把该线程的id作为getOutput()的返回值返回给AudioTrack;
- AudioTrack通过binder机制调用AudioFlinger的createTrack();
- AudioFlinger注册该AudioTrack到MixerThread中;
- AudioFlinger创建一个用于控制的TrackHandle,并以IAudioTrack这一接口作为createTrack()的返回值;
- AudioTrack通过IAudioTrack接口,得到在AudioFlinger中创建的FIFO(audio_track_cblk_t);
- AudioTrack创建自己的监控线程:AudioTrackThread;
自此,AudioTrack建立了和AudioFlinger的全部联系工作,接下来,AudioTrack可以:
- 通过IAudioTrack接口控制该音轨的状态,例如start,stop,pause等等;
- 通过对FIFO的写入,实现连续的音频播放;
- 监控线程监控事件的发生,并通过audioCallback回调函数与用户程序进行交互;
FIFO的管理
audio_track_cblk_t
audio_track_cblk_t这个结构是FIFO实现的关键,该结构是在createTrack的时候,由AudioFlinger申请相
应的内存,然后通过IMemory接口返回AudioTrack的,这样AudioTrack和AudioFlinger管理着同一个
audio_track_cblk_t,通过它实现了环形FIFO,AudioTrack向FIFO中写入音频数据,AudioFlinger从FIFO
中读取音频数据,经Mixer后送给AudioHardware进行播放。
audio_track_cblk_t的主要数据成员:
user --AudioTrack当前的写位置的偏移
userBase -- AudioTrack写偏移的基准位置,结合user的值方可确定真实的FIFO地址指针
server --AudioFlinger当前的读位置的偏移
serverBase -- AudioFlinger读偏移的基准位置,结合server的值方可确定真实的FIFO地址指针
frameCount-- FIFO的大小,以音频数据的帧为单位,16bit的音频每帧的大小是2字节
buffers -- 指向FIFO的起始地址
out -- 音频流的方向,对于AudioTrack,out=1,对于AudioRecord,out=0
audio_track_cblk_t的主要成员函数:
framesAvailable_l()和framesAvailable()用于获取FIFO中可写的空闲空间的大小,只是加锁和不加锁的区别。
转自:
http://blog.csdn.net/DroidPhone/archive/2010/10/14/5941344.aspx
相当的经典
分享到:
相关推荐
上一篇介绍了AudioFlinger的初始化,接下来对音频路由进行介绍。注意,本文主要介绍动态路由,即汽车音频路由的常规方式。针对Android原生路由策略不做深入分析。 什么是音频路由?如何实现音频路由?如何定制音频...
Android 使用 AudioRecord 和 AudioTrack 完成音频PCM数据的采集和播放,并读写音频wav文件。 封装好的Java代码,可同时录制PCM和WAV文件。自己定义存储位置。 Android提供了AudioRecord和MediaRecord。MediaRecord...
一个使用audiotrack播放PCM音频数据的DEMO,上传的代码工程中有个音频数据文件夹,包含了用于测试的PCM数据文件,详情请看readme.txt;另外代码附详细说明,走过路过的都不要错过了,喜欢就顶下吧
用AudioRecord获取音频源数据流存储后,再用AudioTrack读取存储文件,播放录音。能够录音后,即时播放。
RT,一个使用audiotrack播放PCM音频数据的DEMO,上传的代码工程中有个音频数据文件夹,包含了用于测试的PCM数据文件,详情请看readme.txt;另外代码附详细说明,走过路过的都不要错过了,喜欢就顶下吧
android 使用 audiotrack和audiorecord jni层的开源代码
android基于AudioTrack播放PCM音频文件的源码实例,播放扩展名为rm格式的文件,不使用android 内置的Audio和video来播放PCM音频数据,通过通过解码得到PCM数据源,使用AudioTrack类实现音频文件的播放,本源码就是...
本Demo使用MediaCodec解码AAC音频数据,解码之后直接使用AudioTrack播放PCM音频数据
android使用AudioTrack低延迟播放音频文件.rar,太多无法一一验证是否可用,程序如果跑不起来需要自调,部分代码功能进行参考学习。
播放PCM音频数据的双缓冲用法
通过AudioTrack实现播放PCM文件,设置采样率,将文件读取到byte字节中
audiotrack 播放音频
读入文件,pcm dat等格式,转换为数组由Androidtrack播放
一个关于AudioRecord和AudioTrack的简单事例 通过录制得到PCM格式的音频,然后通过再用AudioTrack播放该文件
事实上,两种本质上是没啥区别的,MediaPlayer在播放音频时,在framework层还是会创建AudioTrack,把解码后的PCM数流传递给AudioTrack,最后由AudioFlinger进行混音,传递音频给硬件播放出来。利用Aud
AudioRecord录音 AudioTrack播放, 详见博客: http://blog.csdn.net/yangysng07/article/details/41150839
android使用audioRecord和audioTrack实现语音录音播放与即时播放
可以多个音频顺序播放,可以重复播放音频 博文地址:http://blog.csdn.net/w1027296673/article/details/50441709
本文主要介绍Android上可以进行音频(PCM)播放的两个组件–AudioTrack/OpenSL ES的简单使用方法。 对一个音频文件(如MP3文件),如何使用FFmpeg进行解码获取到PCM,之前的文章已经有相应的说明: ...