我知道这是一个非常广泛的话题,但是我一直在尝试演示和测试,不确定自己是否正确地解决了问题。因此,如果您有任何关于应该从哪里开始的线索,将不胜感激。
目标是让应用程序根据用户的设置生成一些合成声音。(这不是唯一的应用功能,我不是在重新创建Korg,但合成器是其中的一部分。)用户会设置典型的合成器设置,例如波形、混响等等,然后会选择什么时候播放音符,可能还会有音高和力度调节。
我已经稍微尝试过Audio Unit和RemoteIO,但只是了解得很浅。在我太深入这个领域之前,我想知道我是否正在正确的轨道上。我知道音频合成会很底层,但我希望也许有一些更高级别的库可以使用。
如果您有任何指针告诉我应该从哪里开始以及我应该更多地阅读哪些iOS技术,请告诉我。
谢谢!
编辑:我来更好地总结一下问题。
是否已经为iOS构建了任何合成器库?(商业或开源 - 我进行了很多搜索,但可能我错过了。)
是否有更高级别的API可以帮助更轻松地生成缓冲区?
假设我已经可以生成缓冲区,是否存在比RemoteIO Audio Unit更好/更容易的方式将这些缓冲区提交给iOS音频设备?