Android 实时获取麦克风输入音量的代码
2012-10-28 08:38
1481 查看
/article/8156648.html
Android 上有一些很有趣的应用,例如《吹裙子》、《吹气球》之类的。利用的是实时获取麦克风输入音量,然后进行相应的处理。录音过程中怎样获得声音的大小呢?网上也不少人问如何处理这个事情,也有一些解答,不过都没有实际的代码。简单摸索了一下,写了个小 Demo 试了试,果然可以。给大家共享一下。
不解释代码了,大家看注释。
[java] view
plaincopy
package com.xxiyy.spl;
import android.media.AudioFormat;
import android.media.AudioRecord;
import android.media.MediaRecorder;
import android.util.Log;
public class RecordThread extends Thread {
private AudioRecord ar;
private int bs;
private static int SAMPLE_RATE_IN_HZ = 8000;
private boolean isRun = false;
public RecordThread() {
super();
bs = AudioRecord.getMinBufferSize(SAMPLE_RATE_IN_HZ,
AudioFormat.CHANNEL_CONFIGURATION_MONO,
AudioFormat.ENCODING_PCM_16BIT);
ar = new AudioRecord(MediaRecorder.AudioSource.MIC, SAMPLE_RATE_IN_HZ,
AudioFormat.CHANNEL_CONFIGURATION_MONO,
AudioFormat.ENCODING_PCM_16BIT, bs);
}
public void run() {
super.run();
ar.startRecording();
// 用于读取的 buffer
byte[] buffer = new byte[bs];
isRun = true;
while (isRun) {
int r = ar.read(buffer, 0, bs);
int v = 0;
// 将 buffer 内容取出,进行平方和运算
for (int i = 0; i < buffer.length; i++) {
// 这里没有做运算的优化,为了更加清晰的展示代码
v += buffer[i] * buffer[i];
}
// 平方和除以数据总长度,得到音量大小。可以获取白噪声值,然后对实际采样进行标准化。
// 如果想利用这个数值进行操作,建议用 sendMessage 将其抛出,在 Handler 里进行处理。
Log.d("spl", String.valueOf(v / (float) r));
}
ar.stop();
}
public void pause() {
// 在调用本线程的 Activity 的 onPause 里调用,以便 Activity 暂停时释放麦克风
isRun = false;
}
public void start() {
// 在调用本线程的 Activity 的 onResume 里调用,以便 Activity 恢复后继续获取麦克风输入音量
if (!isRun) {
super.start();
}
}
}
转评:
原文中提到“平方和除以数据总长度,得到音量大小”,有些文章中提到这个音量值在不同的手机中表现得不一样,同样的发声,但出来的值相差很大。进而有通过一些计算,调整“音量”的算法,其中有两个,分别是:
1、计算了噪音,对音量进行调整:
value 的 值 控制 为 0 到 100 之间 0为最小 》= 100为最大!!
int value = (int) (Math.abs((int)(v /(float)r)/10000) >> 1);
2、计算分贝值:
那个值应该是声音的振幅,并不是音量的大小,
声音的大小应该是用分贝为单位的吧,
double dB = 10*Math.log10(v/(double)r);
即:经傅立叶变化后得到的复数数组是个二维数组,实部和虚部的平方和取对数后乘以10就大致等于我们通常表示音量的分贝了。
这些是以前的数学知识,现在已经忘得一干二净了。。。。。
/article/5441115.html
摘要:Audio系统负责Android中的PCM数据的录制输入流和播放输出流的传输和控制,以及音频设备的管理和设置。这里主要介绍播放和录制环节在各个层次的内容,整个结构层次分明,包括了java接口层,JNI层,本地框架层,audio服务层,硬件抽象层等5层。它的结构图如下
图1-1
Audio系统结构
一、java接口层
AudioManager:音频管理对外的接口,提供了音量和ringtone模式的管理,由getSystemService(Context.AUDIO_SERVICE)返回。
Audioservice:是一个非常重要的java层的系统服务,所有的用户发起的调用都是由它往底层转发的。
AudioSystem:提供管理native接口,只时提供在media包的AudioService内部使用,不对用户直接提供接口。
AudioTrack:提供用户从java层直接输出pcm数据的接口write函数,以及部分播放控制函数。
AudioRecord:提供用户在java层直接从外部获取pcm数据的接口read函数。
下面贴一段边录边播放的例子代码说明这些函数的使用
View
Code
这些java class接口类在android.media包中,源码目录:frameworks/base/media/java/android/media。这些接口为使用media包的用户提供了音量和路由设置,播放和录制的pcm数据的接口。
二、JNI层
(android_media_AudioSystem, android_audio_AudioTrack, android_audio_AudioRecord),在libandroid_runtime.so包中
三、本地框架层
AudioSystem:media库提供给上层的audio管理的接口,它的实现主要在audiopolicymanger和audioflinger中
AudioTrack:放音部分对上层的接口,stagefright部分也是调用该接口创建和控制playback track
AudioRecord:录音部分对上层的接口,stagefright部分也是调用该接口创建一路record track
IAudioTrack, IAudioRecord, IAudioFlinger:这三个是声明需要底层audioflinger实现的接口函数
这些c接口类在libmedia.so库中,源码目录:frameworks/av/media/libmedia
四、audio服务层
AudioFlinger:这一层主要实现了track的创建,Android层共享内存的分配,多路混音等
五、硬件抽象层
AudioHardwareInterface:这一层需要根据不同的硬件由厂商自己实现,如Primary,Usb,spdif,a2dp等,每一种硬件设备需要继承audioHardwareInterface,实现一个控制硬件so库。主要的类有AudioStreamOut和AudioStreamIn分别是audio输出环节和输入环节,负责write数据流到硬件和从硬件read数据流。
六、总结
通过对各层一个概括性的介绍,对Audio系统的系统结构和源码分布有一个清楚的理解。
努力工作 创造价值
Android 上有一些很有趣的应用,例如《吹裙子》、《吹气球》之类的。利用的是实时获取麦克风输入音量,然后进行相应的处理。录音过程中怎样获得声音的大小呢?网上也不少人问如何处理这个事情,也有一些解答,不过都没有实际的代码。简单摸索了一下,写了个小 Demo 试了试,果然可以。给大家共享一下。
不解释代码了,大家看注释。
[java] view
plaincopy
package com.xxiyy.spl;
import android.media.AudioFormat;
import android.media.AudioRecord;
import android.media.MediaRecorder;
import android.util.Log;
public class RecordThread extends Thread {
private AudioRecord ar;
private int bs;
private static int SAMPLE_RATE_IN_HZ = 8000;
private boolean isRun = false;
public RecordThread() {
super();
bs = AudioRecord.getMinBufferSize(SAMPLE_RATE_IN_HZ,
AudioFormat.CHANNEL_CONFIGURATION_MONO,
AudioFormat.ENCODING_PCM_16BIT);
ar = new AudioRecord(MediaRecorder.AudioSource.MIC, SAMPLE_RATE_IN_HZ,
AudioFormat.CHANNEL_CONFIGURATION_MONO,
AudioFormat.ENCODING_PCM_16BIT, bs);
}
public void run() {
super.run();
ar.startRecording();
// 用于读取的 buffer
byte[] buffer = new byte[bs];
isRun = true;
while (isRun) {
int r = ar.read(buffer, 0, bs);
int v = 0;
// 将 buffer 内容取出,进行平方和运算
for (int i = 0; i < buffer.length; i++) {
// 这里没有做运算的优化,为了更加清晰的展示代码
v += buffer[i] * buffer[i];
}
// 平方和除以数据总长度,得到音量大小。可以获取白噪声值,然后对实际采样进行标准化。
// 如果想利用这个数值进行操作,建议用 sendMessage 将其抛出,在 Handler 里进行处理。
Log.d("spl", String.valueOf(v / (float) r));
}
ar.stop();
}
public void pause() {
// 在调用本线程的 Activity 的 onPause 里调用,以便 Activity 暂停时释放麦克风
isRun = false;
}
public void start() {
// 在调用本线程的 Activity 的 onResume 里调用,以便 Activity 恢复后继续获取麦克风输入音量
if (!isRun) {
super.start();
}
}
}
转评:
原文中提到“平方和除以数据总长度,得到音量大小”,有些文章中提到这个音量值在不同的手机中表现得不一样,同样的发声,但出来的值相差很大。进而有通过一些计算,调整“音量”的算法,其中有两个,分别是:
1、计算了噪音,对音量进行调整:
value 的 值 控制 为 0 到 100 之间 0为最小 》= 100为最大!!
int value = (int) (Math.abs((int)(v /(float)r)/10000) >> 1);
2、计算分贝值:
那个值应该是声音的振幅,并不是音量的大小,
声音的大小应该是用分贝为单位的吧,
double dB = 10*Math.log10(v/(double)r);
即:经傅立叶变化后得到的复数数组是个二维数组,实部和虚部的平方和取对数后乘以10就大致等于我们通常表示音量的分贝了。
这些是以前的数学知识,现在已经忘得一干二净了。。。。。
Audio的系统结构
/article/5441115.html摘要:Audio系统负责Android中的PCM数据的录制输入流和播放输出流的传输和控制,以及音频设备的管理和设置。这里主要介绍播放和录制环节在各个层次的内容,整个结构层次分明,包括了java接口层,JNI层,本地框架层,audio服务层,硬件抽象层等5层。它的结构图如下
图1-1
Audio系统结构
一、java接口层
AudioManager:音频管理对外的接口,提供了音量和ringtone模式的管理,由getSystemService(Context.AUDIO_SERVICE)返回。
Audioservice:是一个非常重要的java层的系统服务,所有的用户发起的调用都是由它往底层转发的。
AudioSystem:提供管理native接口,只时提供在media包的AudioService内部使用,不对用户直接提供接口。
AudioTrack:提供用户从java层直接输出pcm数据的接口write函数,以及部分播放控制函数。
AudioRecord:提供用户在java层直接从外部获取pcm数据的接口read函数。
下面贴一段边录边播放的例子代码说明这些函数的使用
View
Code
这些java class接口类在android.media包中,源码目录:frameworks/base/media/java/android/media。这些接口为使用media包的用户提供了音量和路由设置,播放和录制的pcm数据的接口。
二、JNI层
(android_media_AudioSystem, android_audio_AudioTrack, android_audio_AudioRecord),在libandroid_runtime.so包中
三、本地框架层
AudioSystem:media库提供给上层的audio管理的接口,它的实现主要在audiopolicymanger和audioflinger中
AudioTrack:放音部分对上层的接口,stagefright部分也是调用该接口创建和控制playback track
AudioRecord:录音部分对上层的接口,stagefright部分也是调用该接口创建一路record track
IAudioTrack, IAudioRecord, IAudioFlinger:这三个是声明需要底层audioflinger实现的接口函数
这些c接口类在libmedia.so库中,源码目录:frameworks/av/media/libmedia
四、audio服务层
AudioFlinger:这一层主要实现了track的创建,Android层共享内存的分配,多路混音等
五、硬件抽象层
AudioHardwareInterface:这一层需要根据不同的硬件由厂商自己实现,如Primary,Usb,spdif,a2dp等,每一种硬件设备需要继承audioHardwareInterface,实现一个控制硬件so库。主要的类有AudioStreamOut和AudioStreamIn分别是audio输出环节和输入环节,负责write数据流到硬件和从硬件read数据流。
六、总结
通过对各层一个概括性的介绍,对Audio系统的系统结构和源码分布有一个清楚的理解。
努力工作 创造价值
相关文章推荐
- Android 实时获取麦克风输入音量的代码
- Android 实时获取麦克风输入音量的代码
- Android 实时获取麦克风输入音量的代码
- Android 实时获取麦克风输入音量的代码
- Android 实时获取麦克风输入音量的代码
- Android 实时获取麦克风输入音量的代码【转】
- Android 实时获取麦克风输入音量的代码(转)
- Android 实时获取麦克风输入音量的代码
- Android 实时获取麦克风输入音量的代码
- Android 实时获取麦克风输入音量的代码
- Android 实时获取麦克风输入音量的代码
- Android 实时获取麦克风输入音量的代码
- 实时获取麦克风输入音量的代码
- Android 实时获取麦克风录音的音量大小
- Android 录音获取麦克风实时音量(转)--资料
- android 实时获取 麦克风 音量大小
- Android 获取麦克风的音量(分贝)
- Android实时获取音量(单位:分贝)
- Android 实现长按录音获取实时音量显示图片(类似微信)
- Android实时获取音量(单位:分贝)