Android IOS WebRTC 音视频开发总结(十六)-- 音频设备操作之opensl与jni
2014-12-14 23:06
991 查看
本节主要分享视频通话中android和ios上操作音频设备的方式,如调解音量大小,启用扬声器(本系列文章转载请说明出处,博客园RTC.Blacker).
先看看webrtc中处理音频设备代码的目录结构:
![](http://images.cnitblog.com/blog/77236/201412/142158030717255.png)
第一种方式就是直接调用Android或ObjectC的API,代码如下(WebRtcAudioTrack.java):
![](http://images.cnitblog.com/blog/77236/201412/142132228844352.png)
通过调用Android提供的AudioManager类来操作音频设备(webrtc是用C++写的,通过JNI来调用这些JAVA方法).
下面是IOS中操作音频设备的方式(audio_device_impl.mm).
![](http://images.cnitblog.com/blog/77236/201412/142133216501440.png)
![](http://images.cnitblog.com/blog/77236/201412/142133377759465.png)
2,在介绍另外一种方式前我们可以先想想既然WebRTC是用C++来实现的,可以用JNI来调用Android的API,那能不能不通过JNI调用JAVA,而是直接调用他底层的实现类库呢?带着这个疑问我们直接看音频设备初始化方法(audio_device_impl.cc):
![](http://images.cnitblog.com/blog/77236/201412/142205285404715.png)
![](http://images.cnitblog.com/blog/77236/201412/142234025404818.png)
通过编译指令WEBRTC_ANDROID_OPENSLES来控制操作音频设备的方式,如果启用则直接调用OpenSles,OpenSles说明如下:
OpenSL ES 提供了可通过C++调用的C语言接口,这些接口功能基本类似于Android中通过JAVA调用的接口:
android.media.MediaPlayer
android.media.MediaRecorder
对于Android NDK开发来说,通过JNI调用OpenSL ES 提供的API,您即可实现大部分音频操作需要而不用在通过Java来操作.
opensles_input.h内容如下:
![](http://images.cnitblog.com/blog/77236/201412/142243092122196.png)
opensles_output.h截图如下:
![](http://images.cnitblog.com/blog/77236/201412/142250568532431.png)
以上,如有错误或遗漏,请纠正或补充,谢谢!
先看看webrtc中处理音频设备代码的目录结构:
![](http://images.cnitblog.com/blog/77236/201412/142158030717255.png)
第一种方式就是直接调用Android或ObjectC的API,代码如下(WebRtcAudioTrack.java):
![](http://images.cnitblog.com/blog/77236/201412/142132228844352.png)
通过调用Android提供的AudioManager类来操作音频设备(webrtc是用C++写的,通过JNI来调用这些JAVA方法).
下面是IOS中操作音频设备的方式(audio_device_impl.mm).
![](http://images.cnitblog.com/blog/77236/201412/142133216501440.png)
![](http://images.cnitblog.com/blog/77236/201412/142133377759465.png)
2,在介绍另外一种方式前我们可以先想想既然WebRTC是用C++来实现的,可以用JNI来调用Android的API,那能不能不通过JNI调用JAVA,而是直接调用他底层的实现类库呢?带着这个疑问我们直接看音频设备初始化方法(audio_device_impl.cc):
![](http://images.cnitblog.com/blog/77236/201412/142205285404715.png)
![](http://images.cnitblog.com/blog/77236/201412/142234025404818.png)
通过编译指令WEBRTC_ANDROID_OPENSLES来控制操作音频设备的方式,如果启用则直接调用OpenSles,OpenSles说明如下:
OpenSL ES 提供了可通过C++调用的C语言接口,这些接口功能基本类似于Android中通过JAVA调用的接口:
android.media.MediaPlayer
android.media.MediaRecorder
对于Android NDK开发来说,通过JNI调用OpenSL ES 提供的API,您即可实现大部分音频操作需要而不用在通过Java来操作.
opensles_input.h内容如下:
![](http://images.cnitblog.com/blog/77236/201412/142243092122196.png)
opensles_output.h截图如下:
![](http://images.cnitblog.com/blog/77236/201412/142250568532431.png)
以上,如有错误或遗漏,请纠正或补充,谢谢!
相关文章推荐
- Android IOS WebRTC 音视频开发总结(八)-- ios上移植webRTCDemo
- Android IOS WebRTC 音视频开发总结(二五)-- webrtc相关资源
- Android IOS WebRTC 音视频开发总结(十)-- webrtc入门002
- Android IOS WebRTC 音视频开发总结(六)
- Android IOS WebRTC 音视频开发总结(六)
- Android IOS WebRTC 音视频开发总结(二四)-- p2p调用堆栈
- Android IOS WebRTC 音视频开发总结(九)-- webrtc入门001
- Android IOS WebRTC 音视频开发总结(十五)-- 培训课程大纲
- Android IOS WebRTC 音视频开发总结(二十)-- 自由职业
- Android IOS WebRTC 音视频开发总结(六)- iOS注意事项
- Android IOS WebRTC 音视频开发总结(十八)-- 手机适配
- Android IOS WebRTC 音视频开发总结(二六)-- webrtc调用堆栈
- Android IOS WebRTC 音视频开发总结(八)
- Android IOS WebRTC 音视频开发总结(七)-- 基于浏览器的开发
- Android IOS WebRTC 音视频开发总结(九)
- Android IOS WebRTC 音视频开发总结(二二)-- 多人视频架构模式
- Android IOS WebRTC 音视频开发总结(十七)-- 调试技巧
- Android IOS WebRTC 音视频开发总结(十四)-- sip和xmpp异同
- Android IOS WebRTC 音视频开发总结(十一)-- stun&turn部署