如何在 iPhone/Mac 上使用 CoreAudio 合成声音

Posted

技术标签:

【中文标题】如何在 iPhone/Mac 上使用 CoreAudio 合成声音【英文标题】:How do I synthesize sounds with CoreAudio on iPhone/Mac 【发布时间】:2010-11-24 13:44:23 【问题描述】:

我想在 iPhone 中播放合成声音。我不想使用预先录制的声音并使用 SystemSoundID 播放现有的二进制文件,而是想合成它。部分原因是我希望能够连续播放声音(例如,当用户的手指在屏幕上时)而不是一次性的声音样本。

如果我想合成一个中间 A+1 (A4) (440Hz),我可以使用 sin() 计算一个正弦波;我不知道的是如何将这些位排列成一个数据包,然后 CoreAudio 可以播放。网络上的大多数教程都只是简单地播放现有的二进制文件。

谁能帮我制作一个简单的 440Hz 合成正弦声波?

【问题讨论】:

【参考方案1】:

许多音频技术允许传入数据而不是声音文件。例如,AVAudioPlayer 有:

-initWithData:error:
Initializes and returns an audio player for playing a designated memory buffer.

- (id)initWithData:(NSData *)data error:(NSError **)outError

但是,我不确定您将如何传入数据 ptr、启动声音,然后通过传入其他数据 ptr 或重复相同的操作等来保持声音循环。

【讨论】:

【参考方案2】:

你想要做的可能是设置一个 AudioQueue。它允许您在回调中用合成的音频数据填充缓冲区。您可以将 AudeioQueue 设置为在新线程中运行:

#define BUFFER_SIZE 16384
#define BUFFER_COUNT 3
static AudioQueueRef audioQueue;
void SetupAudioQueue() 
    OSStatus err = noErr;
    // Setup the audio device.
    AudiostreamBasicDescription deviceFormat;
    deviceFormat.mSampleRate = 44100;
    deviceFormat.mFormatID = kAudioFormatLinearPCM;
    deviceFormat.mFormatFlags = kLinearPCMFormatFlagIsSignedInteger;
    deviceFormat.mBytesPerPacket = 4;
    deviceFormat.mFramesPerPacket = 1;
    deviceFormat.mBytesPerFrame = 4;
    deviceFormat.mChannelsPerFrame = 2;
    deviceFormat.mBitsPerChannel = 16;
    deviceFormat.mReserved = 0;
    // Create a new output AudioQueue for the device.
    err = AudioQueueNewOutput(&deviceFormat, AudioQueueCallback, NULL,
                              CFRunLoopGetCurrent(), kCFRunLoopCommonModes,
                              0, &audioQueue);
    // Allocate buffers for the AudioQueue, and pre-fill them.
    for (int i = 0; i < BUFFER_COUNT; ++i) 
        AudioQueueBufferRef mBuffer;
        err = AudioQueueAllocateBuffer(audioQueue, BUFFER_SIZE, mBuffer);
        if (err != noErr) break;
        AudioQueueCallback(NULL, audioQueue, mBuffer);
    
    if (err == noErr) err = AudioQueueStart(audioQueue, NULL);
    if (err == noErr) CFRunLoopRun();
  

然后,只要 AudioQueue 需要更多数据,就会调用您的回调方法 AudioQueueCallback。用类似的东西实现:

void AudioQueueCallback(void* inUserData, AudioQueueRef inAQ,
                        AudioQueueBufferRef inBuffer) 
    void* pBuffer = inBuffer->mAudioData;
    UInt32 bytes = inBuffer->mAudioDataBytesCapacity;
    // Write max <bytes> bytes of audio to <pBuffer>
    outBuffer->mAudioDataByteSize = actualNumberOfBytesWritten
    err = AudioQueueEnqueueBuffer(audioQueue, inBuffer, 0, NULL);

【讨论】:

这是不正确的。您不应该在分配循环中调用 AudioQueueCallback。我也不相信描述设置正确。另外,您应该调用 AudioQueueStart(audioQueue, nil) 而不是这种奇怪的方式。请查看 AudioUnit 框架。 @thefaj:我相信你是不正确的人。这个例子取自我的应用程序 SC68 Player (itunes.apple.com/se/app/sc68-player/id295290413?mt=8),我最初是从 Apple 的示例 iPhone 应用程序 SpeakHere (developer.apple.com/iphone/library/samplecode/SpeakHere) 中获取音频回放的代码,查看 AQPlayer.mm 文件。 SC68 Player 的完整源代码可用 (peylow.se/sc68player.html)。 您的示例缺少 AudioQueueStart(),这是应该调用 AudioQueueCallback 的方式。 上帝...我很遗憾我采用了实际代码并试图缩小它的大小以获得答案...我可能应该只编写一些伪代码并添加指向 Apple 文档的链接。 我认为看到代码得到更正很有用。我并不是说马虎,但完美的代码有时可以隐藏实际使用某些框架的复杂性。通过这种方式,我们可以了解事情会如何出错以及如何解决它们。【参考方案3】:

Davide Vosti 指向 http://lists.apple.com/archives/coreaudio-api/2008/Dec/msg00173.html 的链接不再有效,因为 Apple 列表似乎没有响应。这是 Google 的完整缓存。

//
//  AudioUnitTestAppDelegate.m
//  AudioUnitTest
//
//  Created by Marc Vaillant on 11/25/08.
//  Copyright __MyCompanyName__ 2008. All rights reserved.
//

#import "AudioUnitTestAppDelegate.h"
#include <AudioUnit/AudioUnit.h>
//#include "MachTimer.hpp"
#include <vector>
#include <iostream>

using namespace std;

#define kOutputBus 0
#define kInputBus 1
#define SAMPLE_RATE 44100

vector<int> _pcm;
int _index;

@implementation AudioUnitTestAppDelegate

@synthesize window;

void generateTone(
                vector<int>& pcm, 
                int freq, 
                double lengthMS, 
                int sampleRate, 
                double riseTimeMS, 
                double gain)

  int numSamples = ((double) sampleRate) * lengthMS / 1000.;
  int riseTimeSamples = ((double) sampleRate) * riseTimeMS / 1000.;

  if(gain > 1.)
    gain = 1.;
  if(gain < 0.)
    gain = 0.;

  pcm.resize(numSamples);

  for(int i = 0; i < numSamples; ++i)
  
    double value = sin(2. * M_PI * freq * i / sampleRate);
    if(i < riseTimeSamples)
      value *= sin(i * M_PI / (2.0 * riseTimeSamples));
    if(i > numSamples - riseTimeSamples - 1)
      value *= sin(2. * M_PI * (i - (numSamples - riseTimeSamples) + riseTimeSamples)/ (4. * riseTimeSamples));

    pcm[i] = (int) (value * 32500.0 * gain);
    pcm[i] += (pcm[i]<<16);
  



static OSStatus playbackCallback(void *inRefCon, 
                                  AudioUnitRenderActionFlags *ioActionFlags, 
                                  const AudioTimeStamp *inTimeStamp, 
                                  UInt32 inBusNumber, 
                                  UInt32 inNumberFrames, 
                                  AudioBufferList *ioData) 
    
    cout<<"index = "<<_index<<endl;
    cout<<"numBuffers = "<<ioData->mNumberBuffers<<endl;

    int totalNumberOfSamples = _pcm.size();
    for(UInt32 i = 0; i < ioData->mNumberBuffers; ++i)
    
      int samplesLeft = totalNumberOfSamples - _index;
      int numSamples = ioData->mBuffers[i].mDataByteSize / 4;
      if(samplesLeft > 0)
      
        if(samplesLeft < numSamples)
        
          memcpy(ioData->mBuffers[i].mData, &_pcm[_index], samplesLeft * 4);
          _index += samplesLeft;
          memset((char*) ioData->mBuffers[i].mData + samplesLeft * 4, 0, (numSamples - samplesLeft) * 4) ;
        
        else
        
          memcpy(ioData->mBuffers[i].mData, &_pcm[_index], numSamples * 4) ;
          _index += numSamples;
        
      
      else
        memset(ioData->mBuffers[i].mData, 0, ioData->mBuffers[i].mDataByteSize);
    

    return noErr;


- (void)applicationDidFinishLaunching:(UIApplication *)application 
    
  //generate pcm tone  freq = 800, duration = 1s, rise/fall time = 5ms

  generateTone(_pcm, 800, 1000, SAMPLE_RATE, 5, 0.8);
  _index = 0;

  OSStatus status;
  AudioComponentInstance audioUnit;

  // Describe audio component
  AudioComponentDescription desc;
  desc.componentType = kAudioUnitType_Output;
  desc.componentSubType = kAudioUnitSubType_RemoteIO;
  desc.componentFlags = 0;
  desc.componentFlagsMask = 0;
  desc.componentManufacturer = kAudioUnitManufacturer_Apple;

  // Get component
  AudioComponent inputComponent = AudioComponentFindNext(NULL, &desc);

  // Get audio units
  status = AudioComponentInstanceNew(inputComponent, &audioUnit);
  //checkStatus(status);

  UInt32 flag = 1;
  // Enable IO for playback
  status = AudioUnitSetProperty(audioUnit, 
                  kAudioOutputUnitProperty_EnableIO, 
                  kAudioUnitScope_Output, 
                  kOutputBus,
                  &flag, 
                  sizeof(flag));
  //checkStatus(status);

  // Describe format

  AudioStreamBasicDescription audioFormat;
  audioFormat.mSampleRate = SAMPLE_RATE;
  audioFormat.mFormatID = kAudioFormatLinearPCM;
  audioFormat.mFormatFlags = kAudioFormatFlagIsSignedInteger | kAudioFormatFlagIsPacked;
  audioFormat.mFramesPerPacket = 1;
  audioFormat.mChannelsPerFrame = 2;
  audioFormat.mBitsPerChannel = 16;
  audioFormat.mBytesPerPacket = 4;
  audioFormat.mBytesPerFrame = 4;

  // Apply format

  status = AudioUnitSetProperty(audioUnit, 
                  kAudioUnitProperty_StreamFormat, 
                  kAudioUnitScope_Input, 
                  kOutputBus, 
                  &audioFormat, 
                  sizeof(audioFormat));
//  checkStatus(status);

  // Set output callback
  AURenderCallbackStruct callbackStruct;
  callbackStruct.inputProc = playbackCallback;
  callbackStruct.inputProcRefCon = self;
  status = AudioUnitSetProperty(audioUnit, 
                  kAudioUnitProperty_SetRenderCallback, 
                  kAudioUnitScope_Global, 
                  kOutputBus,
                  &callbackStruct, 
                  sizeof(callbackStruct));

  // Initialize
  status = AudioUnitInitialize(audioUnit);

  // Start playing

  status = AudioOutputUnitStart(audioUnit);

  [window makeKeyAndVisible];



- (void)dealloc 
    [window release];
    [super dealloc];



@end

【讨论】:

我会添加它作为对 Davide 问题的评论,但 cmets 有 600 个字符的限制。

以上是关于如何在 iPhone/Mac 上使用 CoreAudio 合成声音的主要内容,如果未能解决你的问题,请参考以下文章

Xcode介绍-创建新项目

Mac OS 电脑播放 iPhone音乐

Mac电脑怎么可以蹭网,有啥软件

smb, 局域网共享

如何在 iOSAndroidmacOSWindows 之间快速文件互传?

一文看懂2021苹果全球开发者大会