编写远程 I/O 渲染回调函数时遇到问题
Posted
技术标签:
【中文标题】编写远程 I/O 渲染回调函数时遇到问题【英文标题】:Trouble writing a remote I/O render callback function 【发布时间】:2012-08-30 23:10:17 【问题描述】:我正在编写一个 ios 应用程序,它从麦克风获取输入,通过高通滤波器音频单元运行它,然后通过扬声器播放它。通过使用 AUGraph API,我已经能够成功地做到这一点。在其中,我放置了两个节点:一个远程 I/O 单元和一个效果音频单元(kAudioUnitType_Effect
,kAudioUnitSubType_HighPassFilter
),并将 io 单元的输入元素的输出范围连接到效果单元的输入,以及效果节点的输出到 io 单元的输出元素的输入范围。但是现在我需要根据处理后的音频样本做一些分析,所以我需要直接访问缓冲区。这意味着(如果我错了,请纠正我)我不能再使用AUGraphConnectNodeInput
在效果节点的输出和 io 单元的输出元素之间建立连接,并且必须为 io 单元的输出附加一个渲染回调函数元素,这样我就可以在扬声器需要新样本时访问缓冲区。
我已经这样做了,但是当我在渲染回调中调用AudioUnitRender
函数时出现-50 错误。我相信我有两个音频单元之间的 ASBD 不匹配的情况,因为我在渲染回调中没有对此做任何事情(并且 AUGraph 之前已经处理过它)。
代码如下:
AudioController.h:
@interface AudioController : NSObject
AUGraph mGraph;
AudioUnit mEffects;
AudioUnit ioUnit;
@property (readonly, nonatomic) AudioUnit mEffects;
@property (readonly, nonatomic) AudioUnit ioUnit;
-(void)initializeAUGraph;
-(void)startAUGraph;
-(void)stopAUGraph;
@end
AudioController.mm:
@implementation AudioController
…
static OSStatus renderInput(void *inRefCon, AudioUnitRenderActionFlags *ioActionFlags, const AudioTimeStamp *inTimeStamp, UInt32 inBusNumber, UInt32 inNumberFrames, AudioBufferList *ioData)
AudioController *THIS = (__bridge AudioController*)inRefCon;
AudioBuffer buffer;
AudioStreamBasicDescription fxOutputASBD;
UInt32 fxOutputASBDSize = sizeof(fxOutputASBD);
AudioUnitGetProperty([THIS mEffects], kAudioUnitProperty_StreamFormat, kAudioUnitScope_Output, 0, &fxOutputASBD, &fxOutputASBDSize);
buffer.mDataByteSize = inNumberFrames * fxOutputASBD.mBytesPerFrame;
buffer.mNumberChannels = fxOutputASBD.mChannelsPerFrame;
buffer.mData = malloc(buffer.mDataByteSize);
AudioBufferList bufferList;
bufferList.mNumberBuffers = 1;
bufferList.mBuffers[0] = buffer;
//TODO prender ARM y solucionar problema de memoria
OSStatus result = AudioUnitRender([THIS mEffects], ioActionFlags, inTimeStamp, inBusNumber, inNumberFrames, &bufferList);
[THIS hasError:result:__FILE__:__LINE__];
memcpy(ioData, buffer.mData, buffer.mDataByteSize);
return noErr;
- (void)initializeAUGraph
OSStatus result = noErr;
// create a new AUGraph
result = NewAUGraph(&mGraph);
AUNode outputNode;
AUNode effectsNode;
AudioComponentDescription effects_desc;
effects_desc.componentType = kAudioUnitType_Effect;
effects_desc.componentSubType = kAudioUnitSubType_LowPassFilter;
effects_desc.componentFlags = 0;
effects_desc.componentFlagsMask = 0;
effects_desc.componentManufacturer = kAudioUnitManufacturer_Apple;
AudioComponentDescription output_desc;
output_desc.componentType = kAudioUnitType_Output;
output_desc.componentSubType = kAudioUnitSubType_RemoteIO;
output_desc.componentFlags = 0;
output_desc.componentFlagsMask = 0;
output_desc.componentManufacturer = kAudioUnitManufacturer_Apple;
// Add nodes to the graph to hold the AudioUnits
result = AUGraphAddNode(mGraph, &output_desc, &outputNode);
[self hasError:result:__FILE__:__LINE__];
result = AUGraphAddNode(mGraph, &effects_desc, &effectsNode );
[self hasError:result:__FILE__:__LINE__];
// Connect the effect node's output to the output node's input
// This is no longer the case, as I need to access the buffer
// result = AUGraphConnectNodeInput(mGraph, effectsNode, 0, outputNode, 0);
[self hasError:result:__FILE__:__LINE__];
// Connect the output node's input scope's output to the effectsNode input
result = AUGraphConnectNodeInput(mGraph, outputNode, 1, effectsNode, 0);
[self hasError:result:__FILE__:__LINE__];
// open the graph AudioUnits
result = AUGraphOpen(mGraph);
[self hasError:result:__FILE__:__LINE__];
// Get a link to the effect AU
result = AUGraphNodeInfo(mGraph, effectsNode, NULL, &mEffects);
[self hasError:result:__FILE__:__LINE__];
// Same for io unit
result = AUGraphNodeInfo(mGraph, outputNode, NULL, &ioUnit);
[self hasError:result:__FILE__:__LINE__];
// Enable input on io unit
UInt32 flag = 1;
result = AudioUnitSetProperty(ioUnit, kAudioOutputUnitProperty_EnableIO, kAudioUnitScope_Input, 1, &flag, sizeof(flag));
[self hasError:result:__FILE__:__LINE__];
// Setup render callback struct
AURenderCallbackStruct renderCallbackStruct;
renderCallbackStruct.inputProc = &renderInput;
renderCallbackStruct.inputProcRefCon = (__bridge void*)self;
// Set a callback for the specified node's specified input
result = AUGraphSetNodeInputCallback(mGraph, outputNode, 0, &renderCallbackStruct);
[self hasError:result:__FILE__:__LINE__];
// Get fx unit's input current stream format...
AudioStreamBasicDescription fxInputASBD;
UInt32 sizeOfASBD = sizeof(AudioStreamBasicDescription);
result = AudioUnitGetProperty(mEffects, kAudioUnitProperty_StreamFormat, kAudioUnitScope_Input, 0, &fxInputASBD, &sizeOfASBD);
[self hasError:result:__FILE__:__LINE__];
// ...and set it on the io unit's input scope's output
result = AudioUnitSetProperty(ioUnit,
kAudioUnitProperty_StreamFormat,
kAudioUnitScope_Output,
1,
&fxInputASBD,
sizeof(fxInputASBD));
[self hasError:result:__FILE__:__LINE__];
// Set fx unit's output sample rate, just in case
Float64 sampleRate = 44100.0;
result = AudioUnitSetProperty(mEffects,
kAudioUnitProperty_SampleRate,
kAudioUnitScope_Output,
0,
&sampleRate,
sizeof(sampleRate));
[self hasError:result:__FILE__:__LINE__];
// Once everything is set up call initialize to validate connections
result = AUGraphInitialize(mGraph);
[self hasError:result:__FILE__:__LINE__];
@end
正如我之前所说,我在调用 AudioUnitRender
时遇到了 -50 错误,而且我几乎找不到关于它的文档。
任何帮助将不胜感激。
感谢 Tim Bolstad (http://timbolstad.com/2010/03/14/core-audio-getting-started/) 提供了出色的入门教程。
【问题讨论】:
【参考方案1】:有使用 RemoteIO 来播放音频缓冲区的更简单的工作示例。也许先从其中一个开始,而不是从图表开始。
【讨论】:
【参考方案2】:检查以确保您确实进行了所有必要的连接。您似乎正在初始化几乎所有必要的东西,但如果您只是想传递音频,则不需要渲染回调函数。
现在,如果您想做过滤器,您可能需要一个,但即便如此,请确保您实际上将组件正确连接在一起。
这是我正在开发的应用程序的 sn-p:
AUGraphConnectNodeInput(graph, outputNode, kInputBus, mixerNode, kInputBus);
AUGraphConnectNodeInput(graph, mixerNode, kOutputBus, outputNode, kOutputBus);
这会将 RemoteIO 单元的输入连接到多声道混音器单元,然后将混音器的输出连接到 RemoteIO 的输出到扬声器。
【讨论】:
【参考方案3】:在我看来,您将错误的音频单元传递给 AudioUnitRender
。我认为您需要传入ioUnit
而不是mEffects
。无论如何,请仔细检查您传递给AudioUnitRender
的所有参数。当我看到 -50 返回时,那是因为我搞砸了其中一个。
【讨论】:
以上是关于编写远程 I/O 渲染回调函数时遇到问题的主要内容,如果未能解决你的问题,请参考以下文章