iOS 画音频波形曲线 根据音频数据版
2016-04-05 23:25
585 查看
DrawView.h
#import <UIKit/UIKit.h>
@interface DrawView : UIView
@property shortshort *drawBuffer;
@property int dataLen;
@property floatfloat *outRel;
@property floatfloat *outImg;
@property int bias;
@property int wSize;
- (void)genKernel;
@end
DrawView.m
#import "DrawView.h"
@implementation DrawView
#define KSIZE 20
#define BIAS 10000
static double fk[KSIZE] = {0};
static double _filterData[2048];
- (void)genKernel
{
double fc = .05;
for (int i = 0; i < KSIZE; i++)
{
if ((i - KSIZE/2) == 0)fk[i] = 22 * M_PI *fc;
if ((i - KSIZE/2) != 0 )fk[i] = sin(22 * M_PI * fc * (i - KSIZE/2))/(i - KSIZE/2);
fk[i] = fk[i] * (0.54 - 0.46 * cos(22 * M_PI * i / KSIZE ));
}
double sum = 0;
for (int m = 0; m < KSIZE; m++)
sum+=fk[m];
for (int n = 0; n < KSIZE; n++)
fk
/=sum;
}
- (void)improveSpectrum
{
memset(_filterData, 0x0, sizeof(double) * 1024);
short transData[(int)self.wSize];
memcpy(transData, self.drawBuffer+_bias, _wSize * sizeof(short));
for (int i = 0; i < _wSize; i++)
{
for (int j = 0; j < KSIZE; j++)
{
_filterData[i] = _filterData[i] + transData[ i - j] * fk[j];
}
}
}
- (id)initWithFrame:(CGRect)frame
{
self = [super initWithFrame:frame];
if (self) {
}
return self;
}
- (void)drawRect:(CGRect)rect
{
float delta = 320. / _wSize;
[self improveSpectrum];
[[UIColor grayColor] set];
UIRectFill ([self bounds]);
CGContextRef currentContext = UIGraphicsGetCurrentContext();
CGContextBeginPath(currentContext);
CGContextMoveToPoint(currentContext, 0., 230.);
CGContextAddLineToPoint(currentContext, 320., 230.);
[[UIColor blueColor] setStroke];
CGContextStrokePath(currentContext);
CGContextBeginPath(currentContext);
CGContextMoveToPoint(currentContext, 0., 230.);
for (int i = 0; i < _wSize; i++)
{
CGFloat x = i * delta;
CGFloat y = _filterData[i] / 150.0 + 230.0;
CGContextAddLineToPoint(currentContext, x, y);
}
[[UIColor redColor] setStroke];
CGContextStrokePath(currentContext);
}
@end
ViewController.h
#import <UIKit/UIKit.h>
@interface ViewController : UIViewController
@end
ViewController.m
#import "ViewController.h"
#import "DrawView.h"
struct WavInfo
{
int size;
char *data;
short channels;
short block_align;
short bits_per_sample;
unsigned long sample_rate;
unsigned long format_length;
unsigned long format_tag;
unsigned long avg_bytes_sec;
};
@interface ViewController ()
@end
void decodeWaveInfo(const charchar *fname, struct WavInfo *info)
{
FILEFILE *fp;
fp = fopen(fname, "rb");
if(fp)
{
char id[5];
unsigned long dataSize,size;
fread(id, sizeof(char), 4, fp);
id[4]='\0';
if (!strcmp(id, "RIFF"))
{
fread(&size, sizeof(unsigned long), 1, fp);//read file size
fread(id, sizeof(char), 4, fp);//read wave
id[4]='\0';
if (!strcmp(id, "WAVE"))
{
fread(id, sizeof(char), 4, fp);
fread(&info->format_length, sizeof(unsigned long), 1, fp);
fread(&info->format_tag, sizeof(short), 1, fp);
fread(&info->channels, sizeof(short), 1, fp);
fread(&info->sample_rate, sizeof(unsigned long), 1, fp);
fread(&info->avg_bytes_sec, sizeof(unsigned long), 1, fp);
fread(&info->block_align, sizeof(short), 1, fp);
fread(&info->bits_per_sample, sizeof(short), 1, fp);
fread(id, sizeof(char), 4, fp);
fread(&dataSize, sizeof(unsigned long), 1, fp);
info->size = dataSize;
info->data = ( charchar *)malloc(sizeof(char)*dataSize);
fread(info->data, sizeof(char), dataSize, fp);
}
else
{
printf("Error\n");
}
}
else
{
printf("Error\n");
}
fclose(fp);
}
}
@implementation ViewController
- (void)viewDidLoad
{
[super viewDidLoad];
NSString *path = [[NSBundle mainBundle] pathForResource:@"effect1" ofType:@"wav"];
struct WavInfo wavInfo;
decodeWaveInfo([path UTF8String], &wavInfo);
DrawView *d = (DrawView *)self.view;
d.drawBuffer = (shortshort *)malloc(sizeof(short) * wavInfo.size / 2 );
[d genKernel];
d.dataLen = wavInfo.size / 2;
d.wSize = 256;
d.bias = 0;
int n = 0;
for (int m = 0; m < wavInfo.size / 2; m++)
{
d.drawBuffer[n++] = wavInfo.data[m * 2 + 1] << 8 | wavInfo.data[m * 2];
}
UIPanGestureRecognizer *pan = [[UIPanGestureRecognizer alloc] initWithTarget:self action:@selector(dragView:)];
[self.view addGestureRecognizer:pan];
UIPinchGestureRecognizer *pinch = [[UIPinchGestureRecognizer alloc] initWithTarget:self action:@selector(pinchView:)];
[self.view addGestureRecognizer:pinch];
}
#pragma mark -
#pragma mark Gesture Recognizer callback
- (void)dragView:(UIPanGestureRecognizer *)recognizer
{
DrawView *d = (DrawView *)self.view;
CGPoint p = [recognizer translationInView:self.view];
NSLog(@"translate point is : %@",NSStringFromCGPoint(p));
d.bias -= p.x;
[self.view setNeedsDisplay];
}
- (void)pinchView:(UIPinchGestureRecognizer *)recognizer
{
DrawView *d = (DrawView *)self.view;
if (recognizer.scale > 1.0)
{
if (d.wSize > 128)
{
d.wSize *= 0.95;
}
}
else
{
if (d.wSize < 1024)
{
d.wSize *= 1.05;
}
}
[self.view setNeedsDisplay];
}
- (void)didReceiveMemoryWarning
{
[super didReceiveMemoryWarning];
// Dispose of any resources that can be recreated.
}
@end
代码下载:http://pan.baidu.com/s/1ACWXT
参考:
在 iPhone
应用或者是游戏的开发过程中,对声音的支持是必不可少的。在我做过的几个应用中,每个都涉及到音效,所以在这里做个简单的归纳,很多都是引用自
《iPhone Application Programming Guide》(需要有 Apple ID 才能打开链接),加了一些实际使用的经验。
iPhone OS 主要提供以下了几种播放音频的方法:
System Sound Services
AVAudioPlayer 类
Audio Queue Services
OpenAL
1. System Sound Services
System Sound Services 是最底层也是最简单的声音播放服务,调用 AudioServicesPlaySystemSound 这个方法就可以播放一些简单的音频文件,使用此方法只适合播放一些很小的提示或者警告音,因为它有很多限制:
■ 声音长度要小于 30 秒
■ In linear PCM 或者 IMA4 (IMA/ADPCM) 格式的
■ 打包成 .caf, .aif, 或者 .wav 的文件
■ 不能控制播放的进度
■ 调用方法后立即播放声音
■ 没有循环播放和立体声控制
另外,它还可以调用系统的震动功能,方法也很简单。具体的代码可以参考官方的示例 SysSound
,
但是官方的示例只有一些简单的用法,从文档中我们发现可以通过 AudioServicesAddSystemSoundCompletion
方法为音频播放添加 CallBack 函数,有了 CallBack 函数我们可以解决不少问题,比如可以克服 System Sound
Services 本身不支持循环播放的问题。以下代码可以实现一个在程序中循环播放的背景音乐:
2. AVAudioPlayer 类
AVAudioPlayer 是 AVFoundation.framework
中定义的一个类,所以使用要先在工程中引入 AVFoundation.framework。我们可以把 AVAudioPlayer
看作是一个高级的播放器,它支持广泛的音频格式,主要是以下这些格式:
■ AAC
■ AMR(AdaptiveMulti-Rate, aformatforspeech)
■ ALAC(AppleLossless)
■ iLBC(internetLowBitrateCodec, anotherformatforspeech)
■ IMA4(IMA/ADPCM)
■ linearPCM(uncompressed)
■ μ-lawanda-law
■ MP3(MPEG-1audiolayer3
AVAudioPlayer 可以播放任意长度的音频文件、支持循环播放、可以同步播放多个音频文件、控制播放进度以及从音频文件的任意一点开始播放等,更高级的功能可以参考 AVAudioPlayer 的文档。要使用 AVAudioPlayer 的对象播放文件,你只需为其指定一个音频文件并设定一个实现了 AVAudioPlayerDelegate 协议的 delegate 对象。这里举一个简单的例子,和上一个例子一样,实现一直循环播放的背景音乐:
可以看到,只要将 AVAudioPlayer 的 numberOfLoops 属性设为负数,音频文件就会一直循环播放直到调用 stop 方法。
AVAudioPlayer 同样支持 Callback,这是 AVAudioPlayerDelegate 的一个可选 delegate 方法:
- (void) audioPlayerDidFinishPlaying: (AVAudioPlayer *) player successfully: (BOOL) flag {
if (player == self.player && flag == YES) {
NSLog(@"Playback finish.");
}
}
另外,你可以随时控制 AVAudioPlayer 对象的播放、暂停以及停止,通过判断对象的状态,分别调用 play、pause 和 stop 方法即可:
- (IBAction) playOrPause: (id) sender {
// if playing, pause
if (self.player.playing) {
[self.player pause];
// if stopped or paused, start playing
} else {
[self.player play];
}
虽
然 AVAudioPlayer 可以播放很多格式,但是我们在实际开发过程中还是最好使用一些没有压缩的格式,比如 WAVE
文件,这样可以减少系统处理单元的资源占用,以便更好的完成程序的其他功能。另外,在使用 AVAudioPlayer 连续播放 mp3
这类经过压缩的音频文件时,在连接处可能出现一定的间隔时间。
3. Audio Queue Services
如果以上两种音频播放的解决方案都无法满足你的需求,那么我想你肯定需要使用 Audio
Queue Services。使用 Audio Queue Services
对音频进行播放,你可以完全实现对声音的控制。例如,你可以在声音数据从文件读到内存缓冲区后对声音进行一定处理再进行播放,从而实现对音频的快速/慢速
播放的功能。
因为 Audio Queue Services 相对复杂很多,Apple 官方已经把它整理为一本书了,具体可以参考 Audio Queue Services Programming Guide 和 SpeakHere 的程序示例。
4. OpenAL
OpenAL 是一套跨平台的开源的音频处理接口,与图形处理的 OpenGL 类似,它为音频播放提供了一套更加优化的方案。它最适合开发游戏的音效,用法也与其他平台下相同。
iPhone 支持 OpenAL 1.1,我没有在实际开发中使用过,具体的文档可以参考 OpenAL 的网站 http://openal.org和 oalTouch 的程序示例。
#import <UIKit/UIKit.h>
@interface DrawView : UIView
@property shortshort *drawBuffer;
@property int dataLen;
@property floatfloat *outRel;
@property floatfloat *outImg;
@property int bias;
@property int wSize;
- (void)genKernel;
@end
DrawView.m
#import "DrawView.h"
@implementation DrawView
#define KSIZE 20
#define BIAS 10000
static double fk[KSIZE] = {0};
static double _filterData[2048];
- (void)genKernel
{
double fc = .05;
for (int i = 0; i < KSIZE; i++)
{
if ((i - KSIZE/2) == 0)fk[i] = 22 * M_PI *fc;
if ((i - KSIZE/2) != 0 )fk[i] = sin(22 * M_PI * fc * (i - KSIZE/2))/(i - KSIZE/2);
fk[i] = fk[i] * (0.54 - 0.46 * cos(22 * M_PI * i / KSIZE ));
}
double sum = 0;
for (int m = 0; m < KSIZE; m++)
sum+=fk[m];
for (int n = 0; n < KSIZE; n++)
fk
/=sum;
}
- (void)improveSpectrum
{
memset(_filterData, 0x0, sizeof(double) * 1024);
short transData[(int)self.wSize];
memcpy(transData, self.drawBuffer+_bias, _wSize * sizeof(short));
for (int i = 0; i < _wSize; i++)
{
for (int j = 0; j < KSIZE; j++)
{
_filterData[i] = _filterData[i] + transData[ i - j] * fk[j];
}
}
}
- (id)initWithFrame:(CGRect)frame
{
self = [super initWithFrame:frame];
if (self) {
}
return self;
}
- (void)drawRect:(CGRect)rect
{
float delta = 320. / _wSize;
[self improveSpectrum];
[[UIColor grayColor] set];
UIRectFill ([self bounds]);
CGContextRef currentContext = UIGraphicsGetCurrentContext();
CGContextBeginPath(currentContext);
CGContextMoveToPoint(currentContext, 0., 230.);
CGContextAddLineToPoint(currentContext, 320., 230.);
[[UIColor blueColor] setStroke];
CGContextStrokePath(currentContext);
CGContextBeginPath(currentContext);
CGContextMoveToPoint(currentContext, 0., 230.);
for (int i = 0; i < _wSize; i++)
{
CGFloat x = i * delta;
CGFloat y = _filterData[i] / 150.0 + 230.0;
CGContextAddLineToPoint(currentContext, x, y);
}
[[UIColor redColor] setStroke];
CGContextStrokePath(currentContext);
}
@end
ViewController.h
#import <UIKit/UIKit.h>
@interface ViewController : UIViewController
@end
ViewController.m
#import "ViewController.h"
#import "DrawView.h"
struct WavInfo
{
int size;
char *data;
short channels;
short block_align;
short bits_per_sample;
unsigned long sample_rate;
unsigned long format_length;
unsigned long format_tag;
unsigned long avg_bytes_sec;
};
@interface ViewController ()
@end
void decodeWaveInfo(const charchar *fname, struct WavInfo *info)
{
FILEFILE *fp;
fp = fopen(fname, "rb");
if(fp)
{
char id[5];
unsigned long dataSize,size;
fread(id, sizeof(char), 4, fp);
id[4]='\0';
if (!strcmp(id, "RIFF"))
{
fread(&size, sizeof(unsigned long), 1, fp);//read file size
fread(id, sizeof(char), 4, fp);//read wave
id[4]='\0';
if (!strcmp(id, "WAVE"))
{
fread(id, sizeof(char), 4, fp);
fread(&info->format_length, sizeof(unsigned long), 1, fp);
fread(&info->format_tag, sizeof(short), 1, fp);
fread(&info->channels, sizeof(short), 1, fp);
fread(&info->sample_rate, sizeof(unsigned long), 1, fp);
fread(&info->avg_bytes_sec, sizeof(unsigned long), 1, fp);
fread(&info->block_align, sizeof(short), 1, fp);
fread(&info->bits_per_sample, sizeof(short), 1, fp);
fread(id, sizeof(char), 4, fp);
fread(&dataSize, sizeof(unsigned long), 1, fp);
info->size = dataSize;
info->data = ( charchar *)malloc(sizeof(char)*dataSize);
fread(info->data, sizeof(char), dataSize, fp);
}
else
{
printf("Error\n");
}
}
else
{
printf("Error\n");
}
fclose(fp);
}
}
@implementation ViewController
- (void)viewDidLoad
{
[super viewDidLoad];
NSString *path = [[NSBundle mainBundle] pathForResource:@"effect1" ofType:@"wav"];
struct WavInfo wavInfo;
decodeWaveInfo([path UTF8String], &wavInfo);
DrawView *d = (DrawView *)self.view;
d.drawBuffer = (shortshort *)malloc(sizeof(short) * wavInfo.size / 2 );
[d genKernel];
d.dataLen = wavInfo.size / 2;
d.wSize = 256;
d.bias = 0;
int n = 0;
for (int m = 0; m < wavInfo.size / 2; m++)
{
d.drawBuffer[n++] = wavInfo.data[m * 2 + 1] << 8 | wavInfo.data[m * 2];
}
UIPanGestureRecognizer *pan = [[UIPanGestureRecognizer alloc] initWithTarget:self action:@selector(dragView:)];
[self.view addGestureRecognizer:pan];
UIPinchGestureRecognizer *pinch = [[UIPinchGestureRecognizer alloc] initWithTarget:self action:@selector(pinchView:)];
[self.view addGestureRecognizer:pinch];
}
#pragma mark -
#pragma mark Gesture Recognizer callback
- (void)dragView:(UIPanGestureRecognizer *)recognizer
{
DrawView *d = (DrawView *)self.view;
CGPoint p = [recognizer translationInView:self.view];
NSLog(@"translate point is : %@",NSStringFromCGPoint(p));
d.bias -= p.x;
[self.view setNeedsDisplay];
}
- (void)pinchView:(UIPinchGestureRecognizer *)recognizer
{
DrawView *d = (DrawView *)self.view;
if (recognizer.scale > 1.0)
{
if (d.wSize > 128)
{
d.wSize *= 0.95;
}
}
else
{
if (d.wSize < 1024)
{
d.wSize *= 1.05;
}
}
[self.view setNeedsDisplay];
}
- (void)didReceiveMemoryWarning
{
[super didReceiveMemoryWarning];
// Dispose of any resources that can be recreated.
}
@end
代码下载:http://pan.baidu.com/s/1ACWXT
参考:
在 iPhone
应用或者是游戏的开发过程中,对声音的支持是必不可少的。在我做过的几个应用中,每个都涉及到音效,所以在这里做个简单的归纳,很多都是引用自
《iPhone Application Programming Guide》(需要有 Apple ID 才能打开链接),加了一些实际使用的经验。
iPhone OS 主要提供以下了几种播放音频的方法:
System Sound Services
AVAudioPlayer 类
Audio Queue Services
OpenAL
1. System Sound Services
System Sound Services 是最底层也是最简单的声音播放服务,调用 AudioServicesPlaySystemSound 这个方法就可以播放一些简单的音频文件,使用此方法只适合播放一些很小的提示或者警告音,因为它有很多限制:
■ 声音长度要小于 30 秒
■ In linear PCM 或者 IMA4 (IMA/ADPCM) 格式的
■ 打包成 .caf, .aif, 或者 .wav 的文件
■ 不能控制播放的进度
■ 调用方法后立即播放声音
■ 没有循环播放和立体声控制
另外,它还可以调用系统的震动功能,方法也很简单。具体的代码可以参考官方的示例 SysSound
,
但是官方的示例只有一些简单的用法,从文档中我们发现可以通过 AudioServicesAddSystemSoundCompletion
方法为音频播放添加 CallBack 函数,有了 CallBack 函数我们可以解决不少问题,比如可以克服 System Sound
Services 本身不支持循环播放的问题。以下代码可以实现一个在程序中循环播放的背景音乐:
AVAudioPlayer 是 AVFoundation.framework
中定义的一个类,所以使用要先在工程中引入 AVFoundation.framework。我们可以把 AVAudioPlayer
看作是一个高级的播放器,它支持广泛的音频格式,主要是以下这些格式:
■ AAC
■ AMR(AdaptiveMulti-Rate, aformatforspeech)
■ ALAC(AppleLossless)
■ iLBC(internetLowBitrateCodec, anotherformatforspeech)
■ IMA4(IMA/ADPCM)
■ linearPCM(uncompressed)
■ μ-lawanda-law
■ MP3(MPEG-1audiolayer3
AVAudioPlayer 可以播放任意长度的音频文件、支持循环播放、可以同步播放多个音频文件、控制播放进度以及从音频文件的任意一点开始播放等,更高级的功能可以参考 AVAudioPlayer 的文档。要使用 AVAudioPlayer 的对象播放文件,你只需为其指定一个音频文件并设定一个实现了 AVAudioPlayerDelegate 协议的 delegate 对象。这里举一个简单的例子,和上一个例子一样,实现一直循环播放的背景音乐:
AVAudioPlayer 同样支持 Callback,这是 AVAudioPlayerDelegate 的一个可选 delegate 方法:
- (void) audioPlayerDidFinishPlaying: (AVAudioPlayer *) player successfully: (BOOL) flag {
if (player == self.player && flag == YES) {
NSLog(@"Playback finish.");
}
}
另外,你可以随时控制 AVAudioPlayer 对象的播放、暂停以及停止,通过判断对象的状态,分别调用 play、pause 和 stop 方法即可:
- (IBAction) playOrPause: (id) sender {
// if playing, pause
if (self.player.playing) {
[self.player pause];
// if stopped or paused, start playing
} else {
[self.player play];
}
虽
然 AVAudioPlayer 可以播放很多格式,但是我们在实际开发过程中还是最好使用一些没有压缩的格式,比如 WAVE
文件,这样可以减少系统处理单元的资源占用,以便更好的完成程序的其他功能。另外,在使用 AVAudioPlayer 连续播放 mp3
这类经过压缩的音频文件时,在连接处可能出现一定的间隔时间。
3. Audio Queue Services
如果以上两种音频播放的解决方案都无法满足你的需求,那么我想你肯定需要使用 Audio
Queue Services。使用 Audio Queue Services
对音频进行播放,你可以完全实现对声音的控制。例如,你可以在声音数据从文件读到内存缓冲区后对声音进行一定处理再进行播放,从而实现对音频的快速/慢速
播放的功能。
因为 Audio Queue Services 相对复杂很多,Apple 官方已经把它整理为一本书了,具体可以参考 Audio Queue Services Programming Guide 和 SpeakHere 的程序示例。
4. OpenAL
OpenAL 是一套跨平台的开源的音频处理接口,与图形处理的 OpenGL 类似,它为音频播放提供了一套更加优化的方案。它最适合开发游戏的音效,用法也与其他平台下相同。
iPhone 支持 OpenAL 1.1,我没有在实际开发中使用过,具体的文档可以参考 OpenAL 的网站 http://openal.org和 oalTouch 的程序示例。
相关文章推荐
- IOS学习 GCD 单例模式 一次性执行 涉及记录时间,计算时差
- (二)Mina源码解析之IoService
- iOS数据持久化 -- Core Data-备用
- iOS中3种正则表达式的使用与比较-备
- iOS 正则表达式
- 关于IOS中使用支付功能(以支付宝为例)
- 关于IOS中使用支付功能(以支付宝为例)
- iOS地图定位功能的实现(解决代理方法不执行问题,解决默认定位苹果总部问题)
- iOS 音频开发经验汇总
- 浅谈iOS沙盒目录
- “空”园三兄弟之nil和Nil及NUL
- iOS关键字
- iOS Client 与WebSocket 通信(二)
- iOS开发 ☞ NSMutableAttributedString详解
- 初学ios转场之Present ModalView
- iOS Client 与WebSocket 通信(一)
- iOS开发之理解iOS中的MVC设计模式
- iOS音频播放
- iOS开发之支付宝支付
- iOS音频功能开发(一)整理