我正在进行我的毕业设计,尝试实时识别狗/鸟叫声(通过录制音频片段)。 我正在使用MFCC作为音频特征。 最初,我使用jAudio库从音频片段中提取了12个MFCC向量。
现在,我正在尝试训练一个机器学习算法(目前我还没有决定算法,但最有可能是SVM)。 音频片段大小大约为3秒。 我需要澄清一些关于这个过程的信息。 它们是:
我是否必须使用基于帧的MFCC(每帧12个)或整个剪辑基于MFCC(每个音频片段12个)来训练此算法?
为了训练算法,我是否必须将所有12个MFCC视为12个不同的属性,还是必须将这些12个MFCC视为一个属性?
这些MFCC是剪辑的总体MFCC,如下所示:
-9.598802712290967 -21.644963856237265 -7.405551798816725 -11.638107212413201 -19.441831623156144 -2.780967392843105 -0.5792847321137902 -13.14237288849559 -4.920408873192934 -2.7111507999281925 -7.336670942457227 2.4687330348335212
希望能提供任何帮助以解决这些问题。 我在Google上找不到好的帮助。 :)