音频编码

音频基础知识

PCM格式
pcm是经过话筒录音后直接得到的未经压缩的数据流
数据大小=采样频率采样位数声道*秒数/8
采样频率一般是44k,位数一般是8位或者16位,声道一般是单声道或者双声道
pcm属于编码格式,就是一串由多个样本值组成的数据流,本身没有任何头信息或者帧的概念。如果不是音频的录制者,光凭一段PCM数据,是没有办法知道它的采样率等信息的。

AAC格式
初步了解,AAC文件可以没有文件头,全部由帧序列组成,每个帧由帧头和数据部分组成。帧头包含采样率、声道数、帧长度等,有点类似MP3格式。

AAC编码
初始化编码转换器

-(BOOL)createAudioConvert{
     if(m_converter != nil){
         return TRUE;
     }
    AudioStreamBasicDescription inputFormat  =  {0};
    inputFormat.mSampleRate = _configuration.audioSampleRate;
    inputFormat.mFormatID     = kAudioFormatLinearPCM;
    inputFormat.mFormatFlags = kAudioFormatFlagIsSignedInteger | kAudioFormatFlagsNativeEndian | kAudioFormatFlagIsPacked;
    inputFormat.mChannelsPerFrame = (UInt32)_configuration.numberOfChannels;
    inputFormat.mFramesPerPacket = 1; 
    inputFormat.mBitsPerChannel = 16;
    inputFormat.mBytesPerFrame = inputFormat.mBitsPerChannel / 8 * inputFormat.mChannelsPerFrame; 
    inputFormat.mBytesPerPacket = inputFormat.mBytesPerFrame * inputFormat.mFramesPerPacket;

    AudioStreamBasicDescription outputFormat; // 这里开始是输出音频格式
    memset(&outputFormat, 0, sizeof(outputFormat)); 
    outputFormat.mSampleRate = inputFormat.mSampleRate; // 采样率保持一致 
    outputFormat.mFormatID = kAudioFormatMPEG4AAC; // AAC编码 kAudioFormatMPEG4AAC kAudioFormatMPEG4AAC_HE_V2 
    outputFormat.mChannelsPerFrame = (UInt32)_configuration.numberOfChannels;;
    outputFormat.mFramesPerPacket = 1024; // AAC一帧是1024个字节 
    const OSType subtype = kAudioFormatMPEG4AAC; 
    AudioClassDescription requestedCodecs[2] = { 
       {
           kAudioEncoderComponentType, 
           subtype,
           kAppleSoftwareAudioCodecManufacturer 
       }, 
       {
           kAudioEncoderComponentType, 
           subtype,
           kAppleHardwareAudioCodecManufacturer 
        } 
    };
    OSStatus result = AudioConverterNewSpecific(&inputFormat, &outputFormat, 2, requestedCodecs, &m_converter); 

    if(result != noErr) return NO; 
    return YES; 
}

编码转换

char *aacBuf;
if(!aacBuf){
    aacBuf = malloc(inBufferList.mBuffers[0].mDataByteSize);
}
// 初始化一个输出缓冲列表 
AudioBufferList outBufferList; 
outBufferList.mNumberBuffers = 1; 
outBufferList.mBuffers[0].mNumberChannels = inBufferList.mBuffers[0].mNumberChannels; 
outBufferList.mBuffers[0].mDataByteSize = inBufferList.mBuffers[0].mDataByteSize; // 设置缓冲区大小 
outBufferList.mBuffers[0].mData = aacBuf; // 设置AAC缓冲区 UInt32 
outputDataPacketSize = 1; 
if (AudioConverterFillComplexBuffer(m_converter, inputDataProc, &inBufferList, &outputDataPacketSize, &outBufferList, NULL) != noErr){ 
   return; 
} 
AudioFrame *audioFrame = [AudioFrame new]; 
audioFrame.timestamp = timeStamp;
 audioFrame.data = [NSData dataWithBytes:aacBuf length:outBufferList.mBuffers[0].mDataByteSize];
 char exeData[2]; 
exeData[0] = _configuration.asc[0]; 
exeData[1] = _configuration.asc[1]; 
audioFrame.audioInfo =[NSData dataWithBytes:exeData length:2];

在Ios中,实现打开和捕获麦克风大多是用的AVCaptureSession这个组件来实现的,它可以不仅可以实现音频捕获,还可以实现视频的捕获。
针对打开麦克风和捕获音频的代码,简单的整理了一下:

首先,我们需要定义一个AVCaptureSession类型的变量,它是架起在麦克风设备和数据输出上的一座桥,通过它可以方便的得到麦克风的实时原始数据。

    AVCaptureSession  *m_capture;

同时,定义一组函数,用来打开和关闭麦克风;为了能使数据顺利的导出,你还需要实现AVCaptureAudioDataOutputSampleBufferDelegate这个协议

    -(void)open;  
    -(void)close;  
    -(BOOL)isOpen;  

下面我们将分别实现上述参数函数,来完成数据的捕获

-(void)open {  
    NSError *error;  
    m_capture = [[AVCaptureSession alloc]init];  
    AVCaptureDevice *audioDev = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeAudio];  
    if (audioDev == nil)  
    {  
        CKPrint("Couldn't create audio capture device");  
        return ;  
    }  
      
    // create mic device  
    AVCaptureDeviceInput *audioIn = [AVCaptureDeviceInput deviceInputWithDevice:audioDev error:&error];  
    if (error != nil)  
    {  
        CKPrint("Couldn't create audio input");  
        return ;  
    }  
      
      
    // add mic device in capture object  
    if ([m_capture canAddInput:audioIn] == NO)  
    {  
        CKPrint("Couldn't add audio input")  
        return ;  
    }  
    [m_capture addInput:audioIn];  
    // export audio data  
    AVCaptureAudioDataOutput *audioOutput = [[AVCaptureAudioDataOutput alloc] init];  
    [audioOutput setSampleBufferDelegate:self queue:dispatch_get_main_queue()];  
    if ([m_capture canAddOutput:audioOutput] == NO)  
    {  
        CKPrint("Couldn't add audio output");  
        return ;  
    }  
    [m_capture addOutput:audioOutput];  
    [audioOutput connectionWithMediaType:AVMediaTypeAudio];  
    [m_capture startRunning];  
    return ;  
} 
    -(void)close {  
        if (m_capture != nil && [m_capture isRunning])  
        {  
            [m_capture stopRunning];  
        }  
          
        return;  
    }  
    -(BOOL)isOpen {  
        if (m_capture == nil)  
        {  
            return NO;  
        }  
          
        return [m_capture isRunning];  
    }  

通过上面三个函数,即可完成所有麦克风捕获的准备工作,现在我们就等着数据主动送上门了。要想数据主动送上门,我们还需要实现一个协议接口:

    - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection {  
        char szBuf[4096];  
        int  nSize = sizeof(szBuf);  
          
    #if SUPPORT_AAC_ENCODER  
        if ([self encoderAAC:sampleBuffer aacData:szBuf aacLen:&nSize] == YES)  
        {  
            [g_pViewController sendAudioData:szBuf len:nSize channel:0];  
        }  
    #else //#if SUPPORT_AAC_ENCODER  
        AudioStreamBasicDescription outputFormat = *(CMAudioFormatDescriptionGetStreamBasicDescription(CMSampleBufferGetFormatDescription(sampleBuffer)));  
        nSize = CMSampleBufferGetTotalSampleSize(sampleBuffer);  
        CMBlockBufferRef databuf = CMSampleBufferGetDataBuffer(sampleBuffer);  
        if (CMBlockBufferCopyDataBytes(databuf, 0, nSize, szBuf) == kCMBlockBufferNoErr)  
        {  
            [g_pViewController sendAudioData:szBuf len:nSize channel:outputFormat.mChannelsPerFrame];  
        }  
    #endif  
    }  

到这里,我们的工作也就差不多做完了,所捕获出来的数据是原始的PCM数据。

当然,由于PCM数据本身比较大,不利于网络传输,所以如果需要进行网络传输时,就需要对数据进行编码;Ios系统本身支持多种音频编码格式,这里我们就以AAC为例来实现一个PCM编码AAC的函数。

在Ios系统中,PCM编码AAC的例子,在网上也是一找一大片,但是大多都是不太完整的,而且相当一部分都是E文的,对于某些童鞋而言,这些都是深恶痛绝的。我这里就做做好人,把它们整理了一下,写成了一个函数,方便使用。

在编码前,需要先创建一个编码转换对象

 AVAudioConverterRef m_converter;
#if SUPPORT_AAC_ENCODER  
-(BOOL)createAudioConvert:(CMSampleBufferRef)sampleBuffer { //根据输入样本初始化一个编码转换器  
    if (m_converter != nil)  
    {  
        return TRUE;  
    }  
      
    AudioStreamBasicDescription inputFormat = *(CMAudioFormatDescriptionGetStreamBasicDescription(CMSampleBufferGetFormatDescription(sampleBuffer))); // 输入音频格式  
    AudioStreamBasicDescription outputFormat; // 这里开始是输出音频格式  
    memset(&outputFormat, 0, sizeof(outputFormat));  
    outputFormat.mSampleRate       = inputFormat.mSampleRate; // 采样率保持一致  
    outputFormat.mFormatID         = kAudioFormatMPEG4AAC;    // AAC编码  
    outputFormat.mChannelsPerFrame = 2;  
    outputFormat.mFramesPerPacket  = 1024;                    // AAC一帧是1024个字节  
      
    AudioClassDescription *desc = [self getAudioClassDescriptionWithType:kAudioFormatMPEG4AAC fromManufacturer:kAppleSoftwareAudioCodecManufacturer];  
    if (AudioConverterNewSpecific(&inputFormat, &outputFormat, 1, desc, &m_converter) != noErr)  
    {  
        CKPrint(@"AudioConverterNewSpecific failed");  
        return NO;  
    }  
  
    return YES;  
} 
-(BOOL)encoderAAC:(CMSampleBufferRef)sampleBuffer aacData:(char*)aacData aacLen:(int*)aacLen { // 编码PCM成AAC  
    if ([self createAudioConvert:sampleBuffer] != YES)  
    {  
        return NO;  
    }  
      
    CMBlockBufferRef blockBuffer = nil;  
    AudioBufferList  inBufferList;  
    if (CMSampleBufferGetAudioBufferListWithRetainedBlockBuffer(sampleBuffer, NULL, &inBufferList, sizeof(inBufferList), NULL, NULL, 0, &blockBuffer) != noErr)  
    {  
        CKPrint(@"CMSampleBufferGetAudioBufferListWithRetainedBlockBuffer failed");  
        return NO;  
    }  
    // 初始化一个输出缓冲列表  
    AudioBufferList outBufferList;  
    outBufferList.mNumberBuffers              = 1;  
    outBufferList.mBuffers[0].mNumberChannels = 2;  
    outBufferList.mBuffers[0].mDataByteSize   = *aacLen; // 设置缓冲区大小  
    outBufferList.mBuffers[0].mData           = aacData; // 设置AAC缓冲区  
    UInt32 outputDataPacketSize               = 1;  
    if (AudioConverterFillComplexBuffer(m_converter, inputDataProc, &inBufferList, &outputDataPacketSize, &outBufferList, NULL) != noErr)  
    {  
        CKPrint(@"AudioConverterFillComplexBuffer failed");  
        return NO;  
    }  
      
    *aacLen = outBufferList.mBuffers[0].mDataByteSize; //设置编码后的AAC大小  
    CFRelease(blockBuffer);  
    return YES;  
}  
-(AudioClassDescription*)getAudioClassDescriptionWithType:(UInt32)type fromManufacturer:(UInt32)manufacturer { // 获得相应的编码器  
    static AudioClassDescription audioDesc;  
      
    UInt32 encoderSpecifier = type, size = 0;  
    OSStatus status;  
      
    memset(&audioDesc, 0, sizeof(audioDesc));  
    status = AudioFormatGetPropertyInfo(kAudioFormatProperty_Encoders, sizeof(encoderSpecifier), &encoderSpecifier, &size);  
    if (status)  
    {  
        return nil;  
    }  
      
    uint32_t count = size / sizeof(AudioClassDescription);  
    AudioClassDescription descs[count];  
    status = AudioFormatGetProperty(kAudioFormatProperty_Encoders, sizeof(encoderSpecifier), &encoderSpecifier, &size, descs);  
    for (uint32_t i = 0; i < count; i++)  
    {  
        if ((type == descs[i].mSubType) && (manufacturer == descs[i].mManufacturer))  
        {  
            memcpy(&audioDesc, &descs[i], sizeof(audioDesc));  
            break;  
        }  
    }  
    return &audioDesc;  
}  
OSStatus inputDataProc(AudioConverterRef inConverter, UInt32 *ioNumberDataPackets, AudioBufferList *ioData,AudioStreamPacketDescription **outDataPacketDescription, voidvoid *inUserData) { //<span style="font-family: Arial, Helvetica, sans-serif;">AudioConverterFillComplexBuffer 编码过程中,会要求这个函数来填充输入数据,也就是原始PCM数据</span>  
    AudioBufferList bufferList = *(AudioBufferList*)inUserData;  
    ioData->mBuffers[0].mNumberChannels = 1;  
    ioData->mBuffers[0].mData           = bufferList.mBuffers[0].mData;  
    ioData->mBuffers[0].mDataByteSize   = bufferList.mBuffers[0].mDataByteSize;  
    return noErr;  
}  
#endif 

好了,世界是那么美好,一个函数即可所有的事情搞定了。当你需要进行AAC编码时,调用encoderAAC这个函数就可以了(在上面有完整的代码)

    char szBuf[4096];  
    int  nSize = sizeof(szBuf);  
    if ([self encoderAAC:sampleBuffer aacData:szBuf aacLen:&nSize] == YES)  
    {  
        // do something   
    }  
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,362评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,330评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,247评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,560评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,580评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,569评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,929评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,587评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,840评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,596评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,678评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,366评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,945评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,929评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,165评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,271评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,403评论 2 342

推荐阅读更多精彩内容