您的位置:首页 > 移动开发 > Android开发

Android音频系统之AudioTrack

2015-01-06 09:42 351 查看


1.1 AudioTrack


1.1.1 AudioTrack应用实例

对于Android应用开发人员来讲,音频回放最熟悉的莫过于MediaPlayer,而AudioTrack相信用的人相对会少很多。这是因为MediaPlayer提供了更完整的封装和状态控制,使得我们用很少的代码就可以实现一个简单的音乐播放器。而相比MediaPlayer,AudioTrack更为精练、高效,实际上MediaPlayerService的内部实现就是使用了AudioTrack。

AudioTrack被用于PCM音频流的回放,在数据传送上它有两种方式:

Ø 调用write(byte[],int,int)或write(short[],int,int)把音频数据“push”到AudioTrack中。

Ø 与之相对的,当然就是“pull”形式的数据获取,即数据接收方主动索取的过程,如下图所示:


图 13‑20 “push”和“pull”两种数据传送模式

除此之外,AudioTrack还同时支持static和streaming两种模式:

§ static

静态的言下之意就是数据一次性交付给接收方。好处是简单高效,只需要进行一次操作就完成了数据的传递;缺点当然也很明显,对于数据量较大的音频回放,显然它是无法胜任的,因而通常只用于播放铃声、系统提醒等对内存小的操作

§ streaming

流模式和网络上播放视频是类似的,即数据是按照一定规律不断地传递给接收方的。理论上它可用于任何音频播放的场景,不过我们一般在以下情况下采用:

Ø 音频文件过大

Ø 音频属性要求高,比如采样率高、深度大的数据

Ø 音频数据是实时产生的,这种情况就只能用流模式了

下面我们选取AudioTrackTest.java为例来讲解,先从使用者的角度来了解下AudioTrack。

/*cts/tests/tests/media/src/android/media/cts*/

public voidtestSetStereoVolumeMax() throwsException {

final String TEST_NAME= "testSetStereoVolumeMax";

final int TEST_SR =22050;

final int TEST_CONF =AudioFormat.CHANNEL_CONFIGURATION_STEREO;

final int TEST_FORMAT= AudioFormat.ENCODING_PCM_16BIT;

final int TEST_MODE =AudioTrack.MODE_STREAM;

final intTEST_STREAM_TYPE = AudioManager.STREAM_MUSIC;

// --------initialization --------------

/*Step1.*/

int minBuffSize = AudioTrack.getMinBufferSize(TEST_SR, TEST_CONF, TEST_FORMAT);

/*Step 2.*/

AudioTrack track = newAudioTrack(TEST_STREAM_TYPE, TEST_SR, TEST_CONF,

TEST_FORMAT, 2 * minBuffSize,TEST_MODE);

byte data[] = newbyte[minBuffSize];

// -------- test--------------

track.write(data, OFFSET_DEFAULT, data.length);

track.write(data, OFFSET_DEFAULT, data.length);

track.play();

float maxVol =AudioTrack.getMaxVolume();

assertTrue(TEST_NAME, track.setStereoVolume(maxVol, maxVol) == AudioTrack.SUCCESS);

// -------- tear down--------------

track.release();

}

这个TestCase是测试立体声左右声道最大音量的。顺便提一下,关于自动化测试的更多描述,可以参照本书最后一个篇章。用例中涉及到AudioTrack的常规操作都用高显标示出来了。可见大概是这么几个步骤:

Step1@ testSetStereoVolumeMax,getMinBufferSize

字面意思就是获取最小的buffer大小,这个buffer将用于后面AudioTrack的构造函数。它是AudioTrack可以正常使用的一个最低保障,根据官方的建议如果音频文件本身要求较高的话,最好可以采用比MinBufferSize更大的数值。这个函数的实现相对简单:

static public int getMinBufferSize(int sampleRateInHz, int channelConfig,int audioFormat) {

int channelCount = 0;

switch(channelConfig){

caseAudioFormat.CHANNEL_OUT_MONO:

caseAudioFormat.CHANNEL_CONFIGURATION_MONO:

channelCount = 1;

break;

case AudioFormat.CHANNEL_OUT_STEREO:

caseAudioFormat.CHANNEL_CONFIGURATION_STEREO:

channelCount = 2;

break;

default:



}

首先得出声道数,目前最多只支持双声道。

if ((audioFormat !=AudioFormat.ENCODING_PCM_16BIT)

&& (audioFormat !=AudioFormat.ENCODING_PCM_8BIT)) {

returnAudioTrack.ERROR_BAD_VALUE;

}

得出音频采样深度,只支持8bit和16bit两种。

// sample rate, notethese values are subject to change

if ( (sampleRateInHz< 4000) || (sampleRateInHz > 48000) ) {

loge("getMinBufferSize(): " + sampleRateInHz +"Hz is nota supported sample rate.");

returnAudioTrack.ERROR_BAD_VALUE;

}

得出采样频率,支持的范围是4k-48kHZ.

int size =native_get_min_buff_size(sampleRateInHz, channelCount, audioFormat);



}

也就是说最小buffer大小取决于采样率、声道数和采样深度三个属性。那么具体是如何计算的呢?我们接着看下native层代码实现:

frameworks/base/core/jni/android_media_AudioTrack.cpp

static jint android_media_AudioTrack_get_min_buff_size(JNIEnv*env, jobject thiz,

jint sampleRateInHertz,jint nbChannels, jint audioFormat) {

int frameCount = 0;

if(AudioTrack::getMinFrameCount(&frameCount, AUDIO_STREAM_DEFAULT,

sampleRateInHertz) != NO_ERROR) {

return -1;

}

return frameCount * nbChannels * (audioFormat ==javaAudioTrackFields.PCM16 ? 2 : 1);

}

这里又调用了getMinFrameCount,这个函数用于确定至少需要多少Frame才能保证音频正常播放。那么Frame代表了什么意思呢?可以想象一下视频中帧的概念,它代表了某个时间点的一幅图像。这里的Frame也是类似的,它应该是指某个特定时间点时的音频数据量,所以android_media_AudioTrack_get_min_buff_size中最后采用的计算公式就是:

至少需要多少帧*每帧数据量

= frameCount * nbChannels * (audioFormat ==javaAudioTrackFields.PCM16 ? 2 : 1);

公式中frameCount就是需要的帧数,每一帧的数据量又等于:

Channel数*每个Channel数据量= nbChannels * (audioFormat ==javaAudioTrackFields.PCM16 ? 2 : 1)

层层返回getMinBufferSize就得到了保障AudioTrack正常工作的最小缓冲区大小了。

Step2@ testSetStereoVolumeMax,创建AudioTrack实例

有了minBuffSize后,我们就可以创建一个AudioTrack对象了。它的构造函数原型是:

public AudioTrack (int streamType, int sampleRateInHz, intchannelConfig, int audioFormat, int bufferSizeInBytes, int mode)

除了倒数第二个参数是计算出来的,其它入参在这个TestCase中都是直接指定的。比如streamType是STREAM_MUSIC,sampleRateInHz是22050等等。如果是编写一个音乐播放器,这些参数自然都是需要通过分析音频文件得出来的,所幸的是Android提供了更加易用的MediaPlayer,使得我们不需要理会这些琐碎细节。

创建AudioTrack的一个重要任务就是和AudioFlinger建立联系,它是由native层的代码来实现的:

public AudioTrack(intstreamType, int sampleRateInHz, int channelConfig, int audioFormat,

intbufferSizeInBytes, int mode, int sessionId)

throwsIllegalArgumentException {



int initResult = native_setup(new WeakReference<AudioTrack>(this),

mStreamType,mSampleRate, mChannels, mAudioFormat,

mNativeBufferSizeInBytes, mDataLoadMode, session);



}

这里调用了native_setup来创建一个本地AudioTrack对象,如下:

/*frameworks/base/core/jni/android_media_AudioTrack.cpp*/

static int android_media_AudioTrack_native_setup(JNIEnv*env, jobject thiz, jobject weak_this,

jint streamType, jintsampleRateInHertz, jint javaChannelMask,

jint audioFormat, jintbuffSizeInBytes, jint memoryMode, jintArray jSession)

{



sp<AudioTrack>lpTrack = new AudioTrack();



AudioTrackJniStorage* lpJniStorage =new AudioTrackJniStorage();

创建一个Storage对象,直觉告诉我们这可能是存储音频数据的地方,后面我们再详细分析。



if (memoryMode== javaAudioTrackFields.MODE_STREAM) {

lpTrack->set(…

audioCallback, //回调函数

&(lpJniStorage->mCallbackData),//回调数据

0,

0,//shared mem

true,// thread cancall Java

sessionId);//audio session ID

} else if (memoryMode ==javaAudioTrackFields.MODE_STATIC) {



lpTrack->set(…

audioCallback, &(lpJniStorage->mCallbackData),0,

lpJniStorage->mMemBase,// shared mem

true,// thread cancall Java

sessionId);//audio session ID

}

…// native_setup结束

函数native_setup首先新建了一个AudioTrack(native)对象,然后进行各种属性的计算,最后调用set函数为AudioTrack设置这些属性——我们只保留两种内存模式(STATIC和STREAM)有差异的地方,便于大家比对理解。对于静态数据,入参中的倒数第三个是lpJniStorage->mMemBase,而STREAM类型时为null(0)。

到目前为止我们还没有看到它与AudioFlinger有交互的地方,看来谜底应该就在这个set函数中了。

status_t AudioTrack::set(…

callback_t cbf, void* user, int notificationFrames, constsp<IMemory>& sharedBuffer,

boolthreadCanCallJava, int sessionId)

{

AutoMutex lock(mLock);



if (streamType ==AUDIO_STREAM_DEFAULT) {

streamType =AUDIO_STREAM_MUSIC;

}

当不设置streamType时,会被改为默认的AUDIO_STREAM_MUSIC。



if (format ==AUDIO_FORMAT_DEFAULT) {

format =AUDIO_FORMAT_PCM_16_BIT;

}

if (channelMask == 0) {

channelMask =AUDIO_CHANNEL_OUT_STEREO;

}

采样深度和声道数默认为16bit和立体声



if (format ==AUDIO_FORMAT_PCM_8_BIT && sharedBuffer != 0) {

ALOGE("8-bit datain shared memory is not supported");

return BAD_VALUE;

}

当sharedBuffer!=0时表明是STATIC模式,也就是说静态数据模式下只支持16bit深度否则就报错直接返回,这点要特别注意。



audio_io_handle_t output = AudioSystem::getOutput(streamType,sampleRate, format, channelMask, flags);

通过上述的有效性检查后,AudioTrack接着就可以使用底层的音频服务了。那么是直接调用AudioFlinger服务提供的接口吗?理论上这样子做也是可以的,但Android系统考虑得更细,它在AudioTrack与底层服务间又提供了AudioSystem和AudioService。其中前者同时提供了Java和native两层的实现,而AudioService则只有native层的实现。这样子就降低了使用者(AudioTrack)与底层实现(AudioPolicyService、AudioFlinger等等)间的藕合。换句话说,不同版本的Android音频系统通常改动很大,但只要AudioSystem和AudioService向上的接口不变,那么AudioTrack就不需要做修改。

所以上面的getOutput是由AudioSystem来提供的,可以猜测到其内部只是做了些简单的中转功能,最终还是得由AudioPolicyService/AudioFlinger来实现。这个getOutput寻找最适合当前AudioTrack的audio interface以及Output输出(也就是前面通过openOutput打开的通道),然后AudioTrack会向这个Output申请一个Track。



mVolume[LEFT] = 1.0f;

mVolume[RIGHT] = 1.0f; /*左右声道的初始值都是最大,另外还有其它成员变量都会在这里赋值,

我们直接省略掉了*/



if (cbf != NULL) {

mAudioTrackThread =new AudioTrackThread(*this, threadCanCallJava);

mAudioTrackThread->run("AudioTrack",ANDROID_PRIORITY_AUDIO, 0 /*stack*/);

}

status_t status = createTrack_l(…sharedBuffer, output);



} //AudioTrack::set函数结束

因为cbf是audioCallback不为空,所以这里会启动一个AudioTrack线程。这个线程是用于AudioTrack(native)与AudioTrack(java)间的数据事件通知的,这就为上层应用处理事件提供了一个入口,包括:

EVENT_MORE_DATA = 0, /*请求写入更多数据*/

EVENT_UNDERRUN = 1, /*PCM 缓冲发生了underrun*/

EVENT_LOOP_END = 2, /*到达loop end,如果loop count不为空的话

将从loop start重新开始回放*/

EVENT_MARKER = 3, /*Playback head在指定的位置,参考setMarkerPosition*/

EVENT_NEW_POS = 4, /*Playback head在一个新的位置,参考setPositionUpdatePeriod */

EVENT_BUFFER_END = 5 /*Playback head在buffer末尾*/

AudioTrack在AudioFlinger中是以Track来管理的。不过因为它们之间是跨进程的关系,自然需要一个“桥梁”来维护,这个沟通的媒介是IAudioTrack(这有点类似于显示系统中的IWindow)。函数createTrack_l除了为AudioTrack在AudioFlinger中申请一个Track外,还会建立两者间IAudioTrack桥梁:

status_t AudioTrack::createTrack_l(

audio_stream_type_t streamType,uint32_t sampleRate, audio_format_tformat, uint32_t channelMask,

int frameCount,audio_output_flags_t flags, const sp<IMemory>& sharedBuffer,

audio_io_handle_t output)

{

const sp<IAudioFlinger>& audioFlinger = AudioSystem::get_audio_flinger();

获得AudioFlinger服务,还记得上一小节的介绍吗?AudioFlinger在ServiceManager中注册,以“media.audio_flinger”为服务名。



IAudioFlinger::track_flags_t trackFlags = IAudioFlinger::TRACK_DEFAULT;



sp<IAudioTrack> track =audioFlinger->createTrack(getpid(),streamType, sampleRate,format,

channelMask, frameCount, trackFlags, sharedBuffer, output, tid,&mSessionId, &status);

//未完待续…

利用AudioFlinger创建一个IAudioTrack,这是它与AudioTrack之间的跨进程通道。除此之处,AudioFlinger还做了什么?我们深入AudioFlinger分析下。

sp<IAudioTrack> AudioFlinger::createTrack(…

constsp<IMemory>& sharedBuffer, audio_io_handle_t output,

pid_t tid, int*sessionId, status_t *status)

{

sp<PlaybackThread::Track> track;

sp<TrackHandle>trackHandle;



PlaybackThread *thread = checkPlaybackThread_l(output);

PlaybackThread*effectThread = NULL;



track = thread->createTrack_l(client, streamType, sampleRate, format,

channelMask,frameCount, sharedBuffer, lSessionId, flags, tid, &lStatus);



if (lStatus == NO_ERROR) {

trackHandle = new TrackHandle(track);

} else {

client.clear();

track.clear();

}

return trackHandle;

}

我们只留下createTrack中最重要的几个步骤,即:

· AudioFlinger::checkPlaybackThread_l

在AudioFlinger::openOutput时,产生了全局唯一的audio_io_handle_t值,这个值是与PlaybackThread相对应的,它作为mPlaybackThreads键值对的key值存在。

当AudioTrack调用createTrack时,需要传入这个全局标记值,checkPlaybackThread_l借此找到匹配的PlaybackThread

· PlaybackThread::createTrack_l

找到匹配的PlaybackThread后,还需要在其内部创建一个PlaybackThread::Track对象(所有Track都由PlaybackThread::mTracks全局变量管理),这些工作由PlaybackThread::createTrack_l完成。我们以下图表示它们之间的关系:

图 13‑21 PlaybackThread:Track的管理


· new TrackHandle

TrackHandle实际上就是IAudioTrack,后续AudioTrack将利用这个binder服务来调用getCblk等接口

我们再接着前面AudioTrack::createTrack_l“未完待续”的部分往下看。



sp<IMemory> cblk =track->getCblk();



mAudioTrack = track;

mCblkMemory = cblk;

mCblk= static_cast<audio_track_cblk_t*>(cblk->pointer());



if (sharedBuffer == 0) {

mCblk->buffers =(char*)mCblk + sizeof(audio_track_cblk_t);

} else {

mCblk->buffers =sharedBuffer->pointer();

mCblk->stepUser(mCblk->frameCount);

}



return NO_ERROR;

}

事实上当PlaybackThread创建一个PlaybackThread::Track对象时,所需的缓冲区空间就已经分配了。这块空间是可以跨进程共享的,所以AudioTrack可以通过track->getCblk()来获取。看起来很简单的一句话,但其中涉及到很多的细节,我们会在后面的数据流小节做集中分析。

到目前为止,AudioTrack已经可以通过IAudioTrack(即上面代码段中的track变量)来调用AudioFlinger提供的服务了。我们以序列图来总结这一小节:



图 13‑22 AudioTrack的创建流程

创建了AudioTrack后,应用实例通过不断写入(AudioTrack::write)数据来回放音频,这部分代码与音频数据流有关,我们也放在后面小节中分析。


1.1.1 AudioPolicyService的路由实现

我们在AudioPolicyService小节曾将其比作是一个“路由器”,不过还没有深入解析它是如何完成路由选择的。这部分的功能与使用者——AudioTrack有很大关联,所以我们特别将它的实现原理剖析放在这里,以使读者可以综合起来理解。

路由器功能由如下几个部分组成:

l 与发送方(AudioTrack)的接口

就好像路由器首先要接收到一个IP数据包,它才会去做路由处理,否则AudioPolicyService就成了“无源之水”了

l 与接收方(AudioFlinger)的接口

道理和上面是类似的,AudioPolicyService内部拥有当前系统中所有音频设备的信息,就好比一个路由器也需要预先知道它有多少个节点,才可能把音频数据发送到正确的终点一样

l 路由路径的选择策略

路径选择策略是AudioPolicyService的重点。和传统的路由器不同,它的路径选择算法并不是固定的,而是通过灵活的方式先产生一个策略制定者,然后再由它来生成具体的策略

大家应该还记得前面AudioTrack小节中,我们调用了AudioSystem::getOutput,即:

status_t AudioTrack::set(…)

{…

audio_io_handle_t output =AudioSystem::getOutput(streamType, sampleRate, format, channelMask, flags);

…}

AudioSystem只是一个中介,其中的实现还是由AudioPolicyService完成的:

audio_io_handle_t AudioSystem::getOutput(…)

{

constsp<IAudioPolicyService>& aps =AudioSystem::get_audio_policy_service();

if (aps == 0) return 0;

returnaps->getOutput(stream, samplingRate, format, channels, flags);

}

显然是直接调用了AudioPolicyService的服务接口:

audio_io_handle_t AudioPolicyService::getOutput(...)

{ …

Mutex::Autolock _l(mLock);

return mpAudioPolicy->get_output(mpAudioPolicy,stream, samplingRate, format, channels, flags);

}

变量mpAudioPolicy便是由策略制定者“生产”出来的Policy。在原生态的实现中它代表的是legacy_audio_policy::policy@Audio_policy_hal.cpp,因而上面实际上调用的是如下函数:

static audio_io_handle_t ap_get_output(struct audio_policy *pol,…)

{

struct legacy_audio_policy*lap = to_lap(pol);

returnlap->apm->getOutput((AudioSystem::stream_type)stream, sampling_rate,(int) format, channels,

(AudioSystem::output_flags)flags);

}

也就是说,前面的apm->getOutput的接口实现最终是落在getOutput @ AudioPolicyManagerBase(AudioPolicyManagerDefault继承自AudioPolicyManagerBase,而后者又继承自AudioPolicyInterface)。

我们先来看下AudioPolicyManagerBase的getOutput实现。

/*hardware/libhardware_legacy/audio/AudioPolicyManagerBase.cpp*/

audio_io_handle_t AudioPolicyManagerBase::getOutput(AudioSystem::stream_typestream,

uint32_t samplingRate, uint32_t format,

uint32_t channelMask, AudioSystem::output_flags flags)

{

audio_io_handle_t output = 0;

uint32_t latency = 0;

/*Step 1. 获取stream类型对应的Strategy*/

routing_strategy strategy= getStrategy((AudioSystem::stream_type)stream);

audio_devices_t device = getDeviceForStrategy(strategy, false/*fromCache*/);



/*Step 2. 应用策略,判断哪些Output符合用户传入的Stream类型*/

SortedVector<audio_io_handle_t>outputs = getOutputsForDevice(device);

/*Step 3. 选择一个最适合的Output*/

output =selectOutput(outputs, flags);

return output;

}

我们将这个函数分为三个步骤。

Step1@AudioPolicyManagerBase::getOutput. 每种Stream类型都有对应的strategy,比如AudioSystem::TTS 和AudioSystem::MUSIC对应的是STRATEGY_MEDIA,AudioSystem::NOTIFICATION对应的是STRATEGY_SONIFICATION_RESPECTFUL。具体的对应关系如下表所示:

表格 13‑5 Stream类型与Strategy对照表
STREAM_TYPE
STRATEGY
VOICE_CALL
STRATEGY_PHONE
BLUETOOTH_SCO
RING
STRATEGY_SONIFICATION
ALARM
NOTIFICATION
STRATEGY_SONIFICATION_RESPECTFUL
DTMF
STRATEGY_DTMF
SYSTEM
STRATEGY_MEDIA
TTS
MUSIC
ENFORCED_AUDIBLE
STRATEGY_ENFORCED_AUDIBLE
不同的Stream类型有可能会被划归同一个Strategy,比如TTS、MUSIC及SYSTEM类型的音频,它们在路由策略上都遵循STRATEGY_MEDIA。当然我们也可以通过重载getStrategy来按自己的要求划分Strategy。

当找到某Stream类型对应的Strategy后,接下来getDeviceForStrategy进一步为这一Strategy查找最佳匹配的音频设备(以STRATEGY_MEDIA为例):

audio_devices_tAudioPolicyManagerBase::getDeviceForStrategy(routing_strategy strategy, boolfromCache)

{

uint32_t device = 0;



switch(strategy) {

case STRATEGY_MEDIA: {

uint32_t device2 = 0;

if (mHasA2dp&& (mForceUse[AudioSystem::FOR_MEDIA] !=

AudioSystem::FORCE_NO_BT_A2DP)&& (getA2dpOutput() != 0) && !mA2dpSuspended) {

device2 =mAvailableOutputDevices & AudioSystem::DEVICE_OUT_BLUETOOTH_A2DP;

if (device2 == 0){

device2 =mAvailableOutputDevices &

AudioSystem::DEVICE_OUT_BLUETOOTH_A2DP_HEADPHONES;

}

if (device2 == 0){

device2 =mAvailableOutputDevices &

AudioSystem::DEVICE_OUT_BLUETOOTH_A2DP_SPEAKER;

}

}

if (device2 == 0) {

device2 =mAvailableOutputDevices & AudioSystem::DEVICE_OUT_WIRED_HEADPHONE;

}

if (device2 == 0) {

device2 =mAvailableOutputDevices & AudioSystem::DEVICE_OUT_WIRED_HEADSET;

}

if (device2 == 0) {

device2 =mAvailableOutputDevices & AUDIO_DEVICE_OUT_USB_ACCESSORY;

}

if (device2 == 0) {

device2 =mAvailableOutputDevices & AUDIO_DEVICE_OUT_USB_DEVICE;

}



device |= device2;

if (device) break;

device =mDefaultOutputDevice;

if (device == 0) {

ALOGE("getDeviceForStrategy() no device found forSTRATEGY_MEDIA");

}

} break;



上面的代码看上去很长,但逻辑比较简单——按照一定的优先级来匹配系统中已经存在的音频设备。这个优先级的设定因Strategy不同而有所差异。在STRATEGY_MEDIA这种情况下,其优先级如下所示:

² 在有蓝牙A2dp的平台上,且设备可以正常打开,没有挂起,当前也没有强制不使用A2dp,那么通过匹配mAvailableOutputDevices来寻找合适的A2dp设备,比如A2dp_headphone、A2dp_Speaker

² 要注意的是,只有在上一步匹配失败(即找不到合适的设备,变量device2为0)的情况下,才会继续执行下一优先级的判断。这里处于第二等级的是wired headphone

² 继续寻找是否有wired headset

² 寻找是否有usb accessory

² 寻找是否有usb device

等等。。。

正常情况下getDeviceForStrategy都能获得符合要求的device。我们再回到前面的getOutput,看下接下来步骤的执行。

Step2@AudioPolicyManagerBase::getOutput

SortedVector<audio_io_handle_t> AudioPolicyManagerBase::getOutputsForDevice(audio_devices_tdevice)

{

SortedVector<audio_io_handle_t> outputs;

for (size_t i = 0; i <mOutputs.size(); i++) {

if ((device &mOutputs.valueAt(i)->supportedDevices()) == device) {

outputs.add(mOutputs.keyAt(i));

}

}

return outputs;

}

这个函数用于获得所有支持device设备的Output,并添加到outputs中。Output是AudioFlinger::openOutput得到的结果,AudioPolicyService会把它们存储到mOutputs键值对中。因为每个Output通常都支持若干种音频设备,不同的Output支持的音频设备类型也是不限的,所以系统中很可能存在多个支持device的Output。

Step 3@AudioPolicyManagerBase::getOutput. 到目前为止,符合要求的Output可能不止一个,所以要选择一个最适合的。

audio_io_handle_t AudioPolicyManagerBase::selectOutput(constSortedVector<audio_io_handle_t>& outputs,

AudioSystem::output_flags flags)

{

/*Step 1. 处理一些特殊情况*/

if (outputs.size() == 0) {

return 0;

}

if (outputs.size() == 1) {

return outputs[0];

}

先处理一些特殊情况,比如没有任何output存在的情况下只能返回空;同样的如果只有一个output的情况也没得选择,直接返回该output。

/*Step 2. 开始判断择优*/

int maxCommonFlags = 0;

audio_io_handle_toutputFlags = 0;

audio_io_handle_t outputPrimary = 0;

for (size_t i = 0; i <outputs.size(); i++) {

AudioOutputDescriptor*outputDesc = mOutputs.valueFor(outputs[i]);

if(!outputDesc->isDuplicated()) {

int commonFlags =(int)AudioSystem::popCount(outputDesc->mProfile->mFlags & flags);

if (commonFlags > maxCommonFlags) {

outputFlags =outputs[i];

maxCommonFlags= commonFlags;

ALOGV("selectOutput() commonFlags foroutput %d, %04x", outputs[i], commonFlags);

}

if(outputDesc->mProfile->mFlags & AUDIO_OUTPUT_FLAG_PRIMARY) {

outputPrimary= outputs[i];

}

}

}

这个循环是整个函数的核心,我们来分析下它的决策准绳是什么。大家只要仔细看下循环中的判断语句,就可以发现它实际上是在寻找最大值maxCommonFlags,所以问题就转化为,什么东西的最大值?

int commonFlags =(int)AudioSystem::popCount(outputDesc->mProfile->mFlags & flags);

上面这句代码用通俗的话来讲,就是计算outputDesc->mProfile->mFlags与入参flags的相似度有多大。可选的Flags如下所示:

AUDIO_OUTPUT_FLAG_NONE = 0x0,

AUDIO_OUTPUT_FLAG_DIRECT = 0x1, //output直接把track导向一个output stream,没有混音器

AUDIO_OUTPUT_FLAG_PRIMARY = 0x2, //primary output,它是唯一的并且必需存在

AUDIO_OUTPUT_FLAG_FAST = 0x4, //支持fasttracks的output

AUDIO_OUTPUT_FLAG_DEEP_BUFFER = 0x8 //使用deepaudio buffer的output

音频系统中名为output_flags的数据类型非常多,不过仔细回溯的话,可以发现这个flags是在AudioTrack的set函数中指定的。另外,如果在查找过程中发现primaryoutput,则用outputPrimary表示,这在后面会用到。

/*Step 3. 根据优先级做出选择*/

if (outputFlags != 0) {

return outputFlags;

}

if (outputPrimary != 0) {

return outputPrimary;

}

return outputs[0];

}

优先级的排列很简单,即:

² Flags与要求相似度高的output

² Primaryoutput

² 如果上面两种都找不到,则默认返回第一个output

这样子AudioPolicyService就完成了整个路由路径的选择,AudioTrack则是通过AudioSystem::getOutput间接调用到AudioPolicyService的这一功能。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: