iOS 1.音视频采集
2017-03-02 00:00
204 查看
音频采集参数
1、采样率(samplerate):采样就是把模拟信号数字化的过程,采样频率越高,记录这一段音频信号所用的数据量就越大,同时音频质量也就越高。
2、位宽:每一个采样点都需要用一个数值来表示大小,这个数值的数据类型大小可以是:4bit、8bit、16bit、32bit 等等,位数越多,表示得就越精细,声音质量自然就越好,而数据量也会成倍增大。我们在音频采样过程中常用的位宽是 8bit 或者 16bit。
3、声道数(channels):由于音频的采集和播放是可以叠加的,因此,可以同时从多个音频源采集声音,并分别输出到不同的扬声器,故声道数一般表示声音录制时的音源数量或回放时相应的扬声器数量。声道数为 1 和 2 分别称为单声道和双声道,是比较常见的声道参数。
音频帧(frame):音频跟视频很不一样,视频每一帧就是一张图像,音频数据是流式的,本身没有明确的一帧帧的概念,在实际的应用中,为了音频算法处理/传输的方便,一般约定俗成取 2.5ms~60ms 为单位的数据量为一帧音频。这个时间被称之为“采样时间”,其长度没有特别的标准,它是根据编解码器和具体应用的需求来决定的。
根据以上定义,我们可以计算一下一帧音频帧的大小。假设某音频信号是采样率为 8kHz、双通道、位宽为 16bit,20ms 一帧,则一帧音频数据的大小为:
size = 8000 x 2 x 16bit x 0.02s = 5120 bit = 640 byte
视频采集参数
1、图像传输格式:通用影像传输格式(Common Intermediate Format)是视讯会议(video conference)中常使用的影像传输格式。
2、图像格式:通常采用 YUV 格式存储原始数据信息,其中包含用 8 位表示的黑白图像灰度值,以及可由 RGB 三种色彩组合成的彩色图像。
3、传输通道:正常情况下视频的拍摄只需 1 路通道,随着 VR 和 AR 技术的日渐成熟,为了拍摄一个完整的 360° 视频,可能需要通过不同角度拍摄,然后经过多通道传输后合成。
4、分辨率:随着设备屏幕尺寸的日益增多,视频采集过程中原始视频分辨率起着越来越重要的作用,后续处理环节中使用的所有视频分辨率的定义都以原始视频分辨率为基础。视频采集卡能支持的最大点阵反映了其分辨率的性能。
采样频率:采样频率反映了采集卡处理图像的速度和能力。在进行高度图像采集时,需要注意采集卡的采样频率是否满足要求。采样率越高,图像质量越高,同时保存这些图像信息的数据量也越大。
采集介绍
AVFoundation: 音视频数据采集需要用AVFoundation框架.
AVCaptureDevice:硬件设备,包括麦克风、摄像头,通过该对象可以设置物理设备的一些属性(例如相机聚焦、白平衡等)
AVCaptureDeviceInput:硬件输入对象,可以根据AVCaptureDevice创建对应的AVCaptureDeviceInput对象,用于管理硬件输入数据。
AVCaptureOutput:硬件输出对象,用于接收各类输出数据,通常使用对应的子类- 这里是列表文本AVCaptureAudioDataOutput(声音数据输出对象)、AVCaptureVideoDataOutput(视频数据输出对象)
AVCaptionConnection:当把一个输入和输出添加到AVCaptureSession之后,AVCaptureSession就会在输入、输出设备之间建立连接,而且通过AVCaptureOutput可以获取这个连接对象。
AVCaptureVideoPreviewLayer:相机拍摄预览图层,能实时查看拍照或视频录制效果,创建该对象需要指定对应的AVCaptureSession对象,因为AVCaptureSession包含视频输入数据,有视频数据才能展示。
AVCaptureSession: 协调输入与输出之间传输数据
系统作用:可以操作硬件设备
工作原理:让App与系统之间产生一个捕获会话,相当于App与硬件设备有联系了, 我们只需要把硬件输入对象和输出对象添加到会话中,会话就会自动把硬件输入对象和输出产生连接,这样硬件输入与输出设备就能传输音视频数据。
捕获音视频步骤
1、创建AVCaptureSession对象。
2、创建AVCaptureDevice对象来表示输入设备, AVCaptureDevice对象只是用来调节硬件设备的配置。例如:摄像头、麦克风。
3、创建AVCaptureDeviceInput(音频/视频硬件输入数据)对象,专门管理数据输入。
4、创建AVCaptureVideoDataOutput(音频/视频硬件输出数据)对象,并且设置样品缓存代理(setSampleBufferDelegate)就可以通过它拿到采集到的视频数据。
5、将数据输入对象AVCaptureDeviceInput、数据输出对象AVCaptureOutput添加到媒体会话管理对象AVCaptureSession中,就会自动让音频输入与输出和视频输入与输出产生连接。
6、创建视频预览图层AVCaptureVideoPreviewLayer并指定媒体会话,添加图层到显示容器layer中。
7、启动AVCaptureSession,只有开启,才会开始输入到输出数据流传输。
捕获音视频
切换摄像头
1、获取当前视频设备输入对象
2、确定切换摄像头的方向
3、根据摄像头方向获取对应的摄像头设备
4、创建对应的摄像头输入对象
5、从会话中移除之前的视频输入对象
6、添加新的视频输入对象到会话中
1、采样率(samplerate):采样就是把模拟信号数字化的过程,采样频率越高,记录这一段音频信号所用的数据量就越大,同时音频质量也就越高。
2、位宽:每一个采样点都需要用一个数值来表示大小,这个数值的数据类型大小可以是:4bit、8bit、16bit、32bit 等等,位数越多,表示得就越精细,声音质量自然就越好,而数据量也会成倍增大。我们在音频采样过程中常用的位宽是 8bit 或者 16bit。
3、声道数(channels):由于音频的采集和播放是可以叠加的,因此,可以同时从多个音频源采集声音,并分别输出到不同的扬声器,故声道数一般表示声音录制时的音源数量或回放时相应的扬声器数量。声道数为 1 和 2 分别称为单声道和双声道,是比较常见的声道参数。
音频帧(frame):音频跟视频很不一样,视频每一帧就是一张图像,音频数据是流式的,本身没有明确的一帧帧的概念,在实际的应用中,为了音频算法处理/传输的方便,一般约定俗成取 2.5ms~60ms 为单位的数据量为一帧音频。这个时间被称之为“采样时间”,其长度没有特别的标准,它是根据编解码器和具体应用的需求来决定的。
根据以上定义,我们可以计算一下一帧音频帧的大小。假设某音频信号是采样率为 8kHz、双通道、位宽为 16bit,20ms 一帧,则一帧音频数据的大小为:
size = 8000 x 2 x 16bit x 0.02s = 5120 bit = 640 byte
视频采集参数
1、图像传输格式:通用影像传输格式(Common Intermediate Format)是视讯会议(video conference)中常使用的影像传输格式。
2、图像格式:通常采用 YUV 格式存储原始数据信息,其中包含用 8 位表示的黑白图像灰度值,以及可由 RGB 三种色彩组合成的彩色图像。
3、传输通道:正常情况下视频的拍摄只需 1 路通道,随着 VR 和 AR 技术的日渐成熟,为了拍摄一个完整的 360° 视频,可能需要通过不同角度拍摄,然后经过多通道传输后合成。
4、分辨率:随着设备屏幕尺寸的日益增多,视频采集过程中原始视频分辨率起着越来越重要的作用,后续处理环节中使用的所有视频分辨率的定义都以原始视频分辨率为基础。视频采集卡能支持的最大点阵反映了其分辨率的性能。
采样频率:采样频率反映了采集卡处理图像的速度和能力。在进行高度图像采集时,需要注意采集卡的采样频率是否满足要求。采样率越高,图像质量越高,同时保存这些图像信息的数据量也越大。
采集介绍
AVFoundation: 音视频数据采集需要用AVFoundation框架.
AVCaptureDevice:硬件设备,包括麦克风、摄像头,通过该对象可以设置物理设备的一些属性(例如相机聚焦、白平衡等)
AVCaptureDeviceInput:硬件输入对象,可以根据AVCaptureDevice创建对应的AVCaptureDeviceInput对象,用于管理硬件输入数据。
AVCaptureOutput:硬件输出对象,用于接收各类输出数据,通常使用对应的子类- 这里是列表文本AVCaptureAudioDataOutput(声音数据输出对象)、AVCaptureVideoDataOutput(视频数据输出对象)
AVCaptionConnection:当把一个输入和输出添加到AVCaptureSession之后,AVCaptureSession就会在输入、输出设备之间建立连接,而且通过AVCaptureOutput可以获取这个连接对象。
AVCaptureVideoPreviewLayer:相机拍摄预览图层,能实时查看拍照或视频录制效果,创建该对象需要指定对应的AVCaptureSession对象,因为AVCaptureSession包含视频输入数据,有视频数据才能展示。
AVCaptureSession: 协调输入与输出之间传输数据
系统作用:可以操作硬件设备
工作原理:让App与系统之间产生一个捕获会话,相当于App与硬件设备有联系了, 我们只需要把硬件输入对象和输出对象添加到会话中,会话就会自动把硬件输入对象和输出产生连接,这样硬件输入与输出设备就能传输音视频数据。
捕获音视频步骤
1、创建AVCaptureSession对象。
2、创建AVCaptureDevice对象来表示输入设备, AVCaptureDevice对象只是用来调节硬件设备的配置。例如:摄像头、麦克风。
3、创建AVCaptureDeviceInput(音频/视频硬件输入数据)对象,专门管理数据输入。
4、创建AVCaptureVideoDataOutput(音频/视频硬件输出数据)对象,并且设置样品缓存代理(setSampleBufferDelegate)就可以通过它拿到采集到的视频数据。
5、将数据输入对象AVCaptureDeviceInput、数据输出对象AVCaptureOutput添加到媒体会话管理对象AVCaptureSession中,就会自动让音频输入与输出和视频输入与输出产生连接。
6、创建视频预览图层AVCaptureVideoPreviewLayer并指定媒体会话,添加图层到显示容器layer中。
7、启动AVCaptureSession,只有开启,才会开始输入到输出数据流传输。
捕获音视频
// 捕获音视频 - (void)setupCaputureVideo { // 1.创建捕获会话,必须要强引用,否则会被释放 AVCaptureSession *captureSession = [[AVCaptureSession alloc] init]; _captureSession = captureSession; // 2.获取摄像头设备,默认是后置摄像头 AVCaptureDevice *videoDevice = [self getVideoDevice:AVCaptureDevicePositionFront]; // 3.获取声音设备 AVCaptureDevice *audioDevice = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeAudio]; // 4.创建对应视频设备输入对象 AVCaptureDeviceInput *videoDeviceInput = [AVCaptureDeviceInput deviceInputWithDevice:videoDevice error:nil]; _currentVideoDeviceInput = videoDeviceInput; // 5.创建对应音频设备输入对象 AVCaptureDeviceInput *audioDeviceInput = [AVCaptureDeviceInput deviceInputWithDevice:audioDevice error:nil]; // 6.添加到会话中 // 注意“最好要判断是否能添加输入,会话不能添加空的 // 6.1 添加视频 if ([captureSession canAddInput:videoDeviceInput]) { [captureSession addInput:videoDeviceInput]; } // 6.2 添加音频 if ([captureSession canAddInput:audioDeviceInput]) { [captureSession addInput:audioDeviceInput]; } // 7.获取视频数据输出设备 AVCaptureVideoDataOutput *videoOutput = [[AVCaptureVideoDataOutput alloc] init]; // 7.1 设置代理,捕获视频样品数据 // 注意:队列必须是串行队列,才能获取到数据,而且不能为空 dispatch_queue_t videoQueue = dispatch_queue_create("Video Capture Queue", DISPATCH_QUEUE_SERIAL); [videoOutput setSampleBufferDelegate:self queue:videoQueue]; if ([captureSession canAddOutput:videoOutput]) { [captureSession addOutput:videoOutput]; } // 8.获取音频数据输出设备 AVCaptureAudioDataOutput *audioOutput = [[AVCaptureAudioDataOutput alloc] init]; // 8.2 设置代理,捕获视频样品数据 // 注意:队列必须是串行队列,才能获取到数据,而且不能为空 dispatch_queue_t audioQueue = dispatch_queue_create("Audio Capture Queue", DISPATCH_QUEUE_SERIAL); [audioOutput setSampleBufferDelegate:self queue:audioQueue]; if ([captureSession canAddOutput:audioOutput]) { [captureSession addOutput:audioOutput]; } // 9.获取视频输入与输出连接,用于分辨音视频数据 _videoConnection = [videoOutput connectionWithMediaType:AVMediaTypeVideo]; // 10.添加视频预览图层 AVCaptureVideoPreviewLayer *previedLayer = [AVCaptureVideoPreviewLayer layerWithSession:captureSession]; previedLayer.frame = [UIScreen mainScreen].bounds; [self.view.layer insertSublayer:previedLayer atIndex:0]; _previedLayer = previedLayer; // 11.启动会话 [captureSession startRunning]; } // 指定摄像头方向获取摄像头 - (AVCaptureDevice *)getVideoDevice:(AVCaptureDevicePosition)position { NSArray *devices = [AVCaptureDevice devicesWithMediaType:AVMediaTypeVideo]; for (AVCaptureDevice *device in devices) { if (device.position == position) { return device; } } return nil; } #pragma mark - AVCaptureVideoDataOutputSampleBufferDelegate // 获取输入设备数据,有可能是音频有可能是视频 - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection { if (_videoConnection == connection) { NSLog(@"采集到视频数据"); } else { NSLog(@"采集到音频数据"); } }
切换摄像头
1、获取当前视频设备输入对象
2、确定切换摄像头的方向
3、根据摄像头方向获取对应的摄像头设备
4、创建对应的摄像头输入对象
5、从会话中移除之前的视频输入对象
6、添加新的视频输入对象到会话中
- (WXResult)switchCamera:(AVCaptureDevicePosition)position { // 获取当前设备方向 AVCaptureDevicePosition curPosition = wx_deviceInput.device.position; if (curPosition == position) { return WXResultNoErr; } // 创建设备输入对象 AVCaptureDevice *captureDevice = [AVCaptureDevice defaultDeviceWithDeviceType:AVCaptureDeviceTypeBuiltInWideAngleCamera mediaType:AVMediaTypeVideo position:position]; // 获取改变的摄像头输入设备 AVCaptureDeviceInput *videoDeviceInput = [AVCaptureDeviceInput deviceInputWithDevice:captureDevice error:nil]; // 移除之前摄像头输入设备 [wx_captureSession removeInput:wx_deviceInput]; // 添加新的摄像头输入设备 [wx_captureSession addInput:videoDeviceInput]; // 记录当前摄像头输入设备 wx_deviceInput = videoDeviceInput; return WXResultNoErr; }``` github 地址: https://github.com/simonwxun/WXH264AndAACDemo.git
相关文章推荐
- iOS RTMP 视频直播开发笔记(1) – 采集摄像头图像
- iOS RTMP 视频直播开发笔记(1) – 采集摄像头图像
- iOS - 采集音视频及写入文件
- iOS:自定义图片/视频/音频采集播放,相册,图片编辑
- iOS-音视频采集 by GPUImage
- iphone ios 视频采集AVCaptureSessionPresetHigh/Medium/Low分辨率等参数
- ios直播技术(1)-- 视频采集
- 小码哥iOS--玩转【斗鱼直播APP】系列之采集视频
- iOS 音视频采集 AVCaptureSession
- iOS RTMP 视频直播开发笔记(1)----- 采集摄像头图像
- 【iOS开发】关于视频直播技术,你想要知道的都在这里了(一)采集
- ios视频和音频采集
- WeBRTC IOS视频采集流程
- iOS视频采集(四)
- iOS 对网络视频采集视频截图
- iOS直播技术分享-音视频采集(一)
- iOS视频采集(二)
- iOS GPUImage音视频采集以及美颜功能
- iOS音视频的采集
- iOS 音视频采集以及写入文件(swift)