语音处理/语音识别基础- 语音的端点检测(EPD/VAD)

Posted davidullua

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了语音处理/语音识别基础- 语音的端点检测(EPD/VAD)相关的知识,希望对你有一定的参考价值。

端点检测(End-point Detection,简称 EPD)的目标,是要找到音频信号(音讯)的开始和结束的位置,所以又可以称为 Speech Detection 或是 VAD (Voice Activity Detection)。端点检测在语音处理与识别中,扮演重要的角色,可以基于时域,或者基于频域来做 EPD。

本文尝试解答如下问题:

1).为什么使用基于频域的方法来做音频的分析?

2).什么是语谱图,语谱图有什么作用?

3).语谱图中,如何区分出来清音、噪音和浊音?

4).如何衡量数据的多样性?

5).音频帧的熵值如何计算?

读完此文以及前面的系列文章,你应当可以解答这些问题。

常见的端点检测方法与相关的特征参数,可以分成两大类:

时域(Time Domain)的方法

计算量比较小,因此比较容易移植到计算能力较差的计算机平台。

1).音量:只使用音量来进行端点侦测,是最简单的方法,但是会对气音造成误判。不同的音量计算方式也会造成端点侦测结果的不同,至于是哪一种计算方式比较好,并无定论,需要靠大量的资料来测试得知。
2).音量和过零率:以音量为主,过零率为辅,可以对气音进行较精密的检测。


频域(Frequency Domain)的方法:

计算量比较大,因此比较难移植到计算能力较差的计算机平台。
频谱的 Variance(spectral variances):浊音的频谱变化较规律,Variance 较低,可作为判断端点的基准。
频谱的Entropy:浊音的规则的频谱幅度会产生低的熵值,因此我们可以使用使用 Entropy 来做为 EPD 检测的一个条件。

简单地说,若只是对声音波形做一些较简单的运算,就是属于时域的方法。另一方面,凡是要用到傅立叶转换(Fourier Transform)来产生声音的频谱,就是属于频谱的方法。这种分法常被用来对音讯处的方法进行分类,但有时候有一些模糊地带。

频域的分析有效果,对于声音信号,实际上是因为人对于频域的敏感性远超时域特征的敏感度。 可以认为人耳就是一个频谱分析仪,还是一台非常准确的频谱分析仪(只能说是准确,不能说精确,因为单纯人耳不能精确地量化声音信号)。

一、基于时域(Time Domain) 的 EPD 检测

1).基于音量的端点检测

第一种方法,是直接使用音量来进行端点侦测的方法。

这是一种最简单的方法,只要音量小于某个门槛值,我们就认定是静音或是杂讯,至于这个门槛值如何决定,除了靠人的直觉外,比较客观的方法,还是靠大量的测试资料来决定最佳值。

在计算音量时,请务必记得要先经过零点校正(参考前面一篇  声音的音量,过零率,音高的计算 中的“零调整”)。否则噪音的影响非常大。

选择一个 Vth 作为静音的音量标记,一帧的音量小于 Vth 认为是静音,大于 Vth 是有声音的片段。如图绿线的标记为声音的开头,紫色线是结尾,图中共有 5 段声音。

如何确定门槛值 Vth, 简单的方法, 可以使用如下三个音量中的一个作为门槛值,来进行端点侦测:

A.音量最大值的 0.1:此方法在音量忽大忽小时或杂讯太强时,会发生错误。
B.音量最小值的 5 倍:此方法在杂讯太强时,会发生错误。
C.第一个音帧的音量的 4 倍:此方法假设一开始是静音,但若一开始就有声音,或是录音器材一开始有偏移,此做法就很容易发生错误。

D.也可以使用加权平均的方法来找一个合适的参数: 

volTh=(volMax-volMin)*epdPrm.volRatio+volMin;

volTh=(volMax-volMin)*epdPrm.volRatio+volMin;

where epdPrm.volRatio is 0.1, and volMin and volMax are 3% and 97% percentiles of the volumes in an utterance, respectively.

前面几种方法的具体代码略过。 可以参考:

http://mirlab.org/jang/books/audiosignalprocessing/example/epdByVolTh01.m

若是声音很干净,噪音不大,那么使用音量来侦测端点可得到不错的效果。但是如果碰到下列问题,这个简单的方法就行不通:

1).噪音比较强
2).清音比较多
3).同一句话的音量变化太大


此时单一音量门槛值的选取就比较不容易,端点侦测的正确率也会下降。
另外,对一般端点侦测而言,若希望求得高准确度的端点,我们可以让音框和音框之间的重叠部分加大,但是相对而言,计算量也会跟着变大。


第二种常用的方法,则是用到了音量和过零率

简述如下:
1).以高音量门槛值(tu)为标准,决定端点,作为初始短点(如下图 tu 与能量曲线的交点)。
2).将端点前后延伸到低音量门槛值(tl)处(如下图 N1, N2 点)。
3).再将端点前后延伸到过零率门槛(tzc)处,以包含语音中的清音部分。


此方法用到三个参数(tu、tl、tzc),若电脑计算能力够强,可用各种搜索法来调整这三个参数,否则,就只有靠观察法及经验值。  结合音量/能量(Volume/Energy)和过零率(ZCR)来做端点检测的过程图示:

图中 tl 的范围是完全包含了 tu 的范围。为什么还需要第一步,因为仅仅用第2步的话,噪音的部分会被计算进来,有噪音的时候,tl 的范围中, 会有一部分完全在 tu 的范围之外(跟 tu 没有连接的交集)。所以从 tl 的范围开始扩展、延伸信号的帧长。

端点检测是一个检测SUV 的过程。 声音的每一帧被分为 SUV 三个类别。

回顾一下过零率的定义: 一帧音频信号中,采样值穿过0点的次数。

结合过零率找到 SUV 来做端点检测,基于如下的特征:

浊音 ZCR < 静音 ZCR < 清音 ZCR,SUV 三种帧的过零率排序:Voiced < Silence < Unvoiced

对于清音过零率是最高的。下面的图中可以看到, 标注为 u 的是清音,过零率高,同时信号幅度(能量)小,Singapore Is A Fine Place 这句话中有4段清音。

% 相关类库: http://mirlab.org/jang/books/audiosignalprocessing/example.rar
% 结合过零率的端点检测 epdByVolZcr01.m
waveFile='singaporeIsAFinePlace.wav';
au=myAudioRead(waveFile);
opt=endPointDetect('defaultOpt');
opt.method='volZcr';
showPlot=1;
endPoint=endPointDetect(au, opt, showPlot);

代码运行得到下图(图中第二个图的2条红线,分别是使用 tu, tl 识别到的声音范围, 图3中的蓝线的起始点是用 ZCR 检测到的起始点,如图 Start/End 的标记)

第3种方法:结合音量的高阶差分(High Order Difference)

使用基于音量的端点检测,第3种常用的方法,是结合音量和高阶差分(High Order Difference) 来检测, 找到清音(Unvoiced Sound)的部分。

High Order Diffrence: 计算多次差分(diff)。差分就是用后一个信号减去前一个信号的值。

差分的计算方法, 对于 (-1 1 -1 1 -1 1 -1 1) 这一帧信号(这是一帧清音信号)来说,

一阶差分 diff(s)  = (2 -2 2 -2 2 -2 2) ,  

二阶差分 diff(diff(s)) = (-4 4 -4 4 -4 4)

三阶差分 diff(diff(diff(s))) = (8 -8 8 -8 8)

如下图的计算过程。 通过 Volume + SOD 来识别清音(U)的部分,使用高阶差分,计算出来清音的值很高。这样就能跟静音区分开来。

  

实现的 matlab 代码如下

%  highOrderDiff01.m
waveFile='singaporeIsAFinePlace.wav';
au=myAudioRead(waveFile); y=au.signal; fs=au.fs;
frameSize = 256;
overlap = 128;

y=y-mean(y);				% zero-mean substraction
frameMat=buffer2(y, frameSize, overlap);	% frame blocking
frameNum=size(frameMat, 2);			% no. of frames
volume=frame2volume(frameMat);
sumAbsDiff1=sum(abs(diff(frameMat)));
sumAbsDiff2=sum(abs(diff(diff(frameMat))));
sumAbsDiff3=sum(abs(diff(diff(diff(frameMat)))));
sumAbsDiff4=sum(abs(diff(diff(diff(diff(frameMat))))));

subplot(2,1,1);
time=(1:length(y))/fs;
plot(time, y); ylabel('Amplitude'); title('Waveform');
subplot(2,1,2);
frameTime=frame2sampleIndex(1:frameNum, frameSize, overlap)/fs;
plot(frameTime', [volume; sumAbsDiff1; sumAbsDiff2; sumAbsDiff3; sumAbsDiff4]', '.-');
legend('Volume', 'Order-1 diff', 'Order-2 diff', 'Order-3 diff', 'Order-4 diff');
xlabel('Time (sec)');

显示图如下 (图中红色的清音信号 通过 HOD 被大幅加强,跟静音完全区分开来了)

在上图中,随着我们对 frameMat 的一再差分,清的音量就会越来越明显,因此可用来侦测清音的存在。

 一个可能的组合计算音量 volume 和 HOD 来做端点检测的方法如下:

1).计算音量 (VOL)和 n阶差分(HOD) 的绝对值和。

2).在 [0, 1] 内选择一个加权因子 w 以计算新曲线 VH = w*VOL + (1-w)*HOD。

3).找到一个比率 r 来计算 VH 的阈值 t 以确定端点。 阈值等于 VHmin+(VHmax-VHmin)*r。

上述方法涉及三个待确定的参数:n、w、r。 这些参数的典型值为 n = 1、w = 0.76 和 r = 0.012。 但是,这些值因数据集而异。 始终建议使用目标数据集来调整这些值以获得更稳健的结果。

使用音量和 HOD 的更完整的 EPD 检测版本是 SAP 工具箱中的 epdByVolHod.m。

http://mirlab.org/jang/matlab/toolbox/sap.zip

epdByVolHod.m 使用音量和 HOD 来进行端点侦测,参考下例。

% epdByVolHod.m
waveFile='singaporeIsAFinePlace.wav';
au=myAudioRead(waveFile);
opt=endPointDetect('defaultOpt');
opt.method='volHod';
showPlot=1;
endPoint=endPointDetect(au, opt, showPlot);

检测出来的声音起点,终点:

当有噪音的时候, HOD 也不管用了。 噪音的 HOD 也很高,跟清音区分不开来。这个时候需要用到频域的信号分析。

二、基于频域(Frequency Domain) 的 EPD 检测

为什么要使用基于频域做 EPD 检测。 因为以下几个原因:

1.如上面的计算和验证过程, 使用时域的信号,不能有效地处理各种情况,特别是噪音的场景。

2.声音在频域里面,特征更加明显。

3.人耳实际上是一个频谱分析仪,对于频域信号的感知强烈。

有声的语音信号在频谱上会有重复的谐波结构(harmonic structures),因此我们也可以使用频谱的 Variance 或是 Entropy 来进行端点侦测。此外,能量分布将主要偏向低频段。 因此,我们可以在 EPD 的光谱上应用简单的数学函数。 对于能量的含义,参考前面的分享文章。

什么是频谱图: 以时间为横轴, 频率为纵轴,同时用不能颜色标记能量值的语音信号图。 如下图示例,颜色中,红色表示高能量的部分,蓝色是低能量的部分。 

FFT 变换之后,可以显示频谱图。

对于清音,高频的能量高于低频的能量。 基于这个特性可以区分出清音的部分。 

频谱的展示

% epdShowSpec01.m

waveFile='SingaporeIsAFinePlace.wav';
au=myAudioRead(waveFile);
time=(1:length(au.signal))/au.fs;
subplot(211);
plot(time, au.signal); axis([min(time), max(time), -1, 1]);
ylabel('Amplitude'); title(waveFile);
subplot(212);
frameSize=256;
overlap=frameSize/2;
[S,F,T]=spectrogram(au.signal, frameSize, overlap, 4*frameSize, au.fs);
magSpec=abs(S);
specgram=log(magSpec);
imagesc(T, F, specgram); axis xy
xlabel('Time (sec)'); ylabel('Freq (Hz)');
audioPlayButton(au);
colormap jet;

幅度图和频谱图 展示图如下 ,

图中3段清音的部分, 如下图左图的标记, 对于清音部分高频的能量远高于低频区域的能量

以下是对于有背景噪音的一段音频的分析

% epdShowSpec02.m
waveFile='noisy4epd.wav';

au=myAudioRead(waveFile);
time=(1:length(au.signal))/au.fs;
subplot(211);
plot(time, au.signal); axis([min(time), max(time), -1, 1]);
ylabel('Amplitude');  title(waveFile);

subplot(212);
frameSize=256;
overlap=frameSize/2;
[S,F,T]=spectrogram(au.signal, frameSize, overlap, 4*frameSize, au.fs);
magSpec=abs(S);
specgram=log(magSpec);
imagesc(T, F, specgram); axis xy
xlabel('Time (sec)'); ylabel('Freq (Hz)');
audioPlayButton(au);
colormap jet;

包含噪音语音的幅度图、频谱图,展示如下

图中因为有噪音, 看得到在低频的部分,始终有能量。 因此需要找到更好的特征来区分噪音的部分。

如何聚合频谱,得到一个单一的特征,使得频谱的能量分布分散时值更大?可以使用如下两种方法:

1). 熵函数

2). 几何平均/算术平均 

熵函数的定义 (下图中的 p 是在 i 点的概率分布,总共 n 个点,整体的熵函数如下)

一帧频谱的熵值计算

图中 s(fi) 表示 i 点的频率上的信号值。p 是一个概率分布。同时为了更好的效果,做一个规范化,对于 fi < 250 Hz, fi > 6000 Hz 的情况,都把 s(fi) 当做 0 处理。 同时当 pi 过大或者过小时也当做0 来处理。

对于语音的每一帧,做熵值的计算,计算出来的值会呈现如下的规律:

清音的熵值大(可以理解成混乱度高,熵值越大有序性阅读),静音、浊音的分散度小。

原因是因为清音的频率能量分散度大,P 的分散大,而静音,浊音的分散度小。(参考前面的图)

几何平均与算术平均的计算:

熵值,几何均值/算法均值,都可以用来衡量多样化,从而可以用来区分清音和浊音/静音。

语音识别基于语音分帧+端点检测+pitch提取+DTW算法歌曲识别matlab源码

一、简介

Dynamic Time Warping(DTW)诞生有一定的历史了(日本学者Itakura提出),它出现的目的也比较单纯,是一种衡量两个长度不同的时间序列的相似度的方法。应用也比较广,主要是在模板匹配中,比如说用在孤立词语音识别(识别两段语音是否表示同一个单词),手势识别,数据挖掘和信息检索等中。

1 概述

在大部分的学科中,时间序列是数据的一种常见表示形式。对于时间序列处理来说,一个普遍的任务就是比较两个序列的相似性。
在时间序列中,需要比较相似性的两段时间序列的长度可能并不相等,在语音识别领域表现为不同人的语速不同。因为语音信号具有相当大的随机性,即使同一个人在不同时刻发同一个音,也不可能具有完全的时间长度。而且同一个单词内的不同音素的发音速度也不同,比如有的人会把“A”这个音拖得很长,或者把“i”发的很短。在这些复杂情况下,使用传统的欧几里得距离无法有效地求的两个时间序列之间的距离(或者相似性)。
2 DTW方法原理

在时间序列中,需要比较相似性的两段时间序列的长度可能并不相等,在语音识别领域表现为不同人的语速不同。而且同一个单词内的不同音素的发音速度也不同,比如有的人会把“A”这个音拖得很长,或者把“i”发的很短。另外,不同时间序列可能仅仅存在时间轴上的位移,亦即在还原位移的情况下,两个时间序列是一致的。在这些复杂情况下,使用传统的欧几里得距离无法有效地求的两个时间序列之间的距离(或者相似性)。

DTW通过把时间序列进行延伸和缩短,来计算两个时间序列性之间的相似性:
在这里插入图片描述
如上图所示,上下两条实线代表两个时间序列,时间序列之间的虚线代表两个时间序列之间的相似的点。DTW使用所有这些相似点之间的距离的和,称之为归整路径距离(Warp Path Distance)来衡量两个时间序列之间的相似性。

2 DTW计算方法:

令要计算相似度的两个时间序列为X和Y,长度分别为|X|和|Y|。
归整路径(Warp Path)
归整路径的形式为W=w1,w2,…,wK,其中Max(|X|,|Y|)<=K<=|X|+|Y|。
wk的形式为(i,j),其中i表示的是X中的i坐标,j表示的是Y中的j坐标。
归整路径W必须从w1=(1,1)开始,到wK=(|X|,|Y|)结尾,以保证X和Y中的每个坐标都在W中出现。
另外,W中w(i,j)的i和j必须是单调增加的,以保证图1中的虚线不会相交,所谓单调增加是指:
在这里插入图片描述
在这里插入图片描述
上图为代价矩阵(Cost Matrix) D,D(i,j)表示长度为i和j的两个时间序列之间的归整路径距离。

二、源代码

clc;
clear;
close all;
waveFile = sprintf('同桌的你.wav');%   同桌的你  女儿情   回梦游仙    滴答    彩虹
% 读取波形---端点检测---切音框
    waveFile='同桌的你.wav';
    pivFile = sprintf('同桌的你.piv');
    pivFile=['mfcc' pivFile];
    [y,fs]=audioread(waveFile);  %读取原文件
    figure
    subplot(221)
    plot(y);
    title('原图形');
    
    frame = PointDetect(waveFile);  %端点检测
    subplot(222)
    plot(frame);
    title('端点检测');
    
    subplot(223)
    pitch=wave2pitch(frame,fs);   %计算音高
    plot(pitch);
    title('音高');
function [pitch, pdf, frameEstimated, excitation]=frame2pitch(frame, opt, showPlot)
% frame2acf: PDF (periodicity detection function) of a given frame (primarily for pitch tracking)
%
%	Usage:
%		out=frame2pdf(frame, opt, showPlot);
%			frame: Given frame
%			opt: Options for PDF computation
%				opt.pdf: PDF function to be used
%					'acf' for ACF
%					'amdf' for AMDF
%					'nsdf' for NSDF
%					'acfOverAmdf' for ACF divided by AMDF
%					'hps' for harmonics product sum
%					'ceps' for cepstrum
%				opt.maxShift: no. of shift operations, which is equal to the length of the output vector
%				opt.method: 1 for using the whole frame for shifting
%					2 for using the whole frame for shifting, but normalize the sum by it's overlap area
%					3 for using frame(1:frameSize-maxShift) for shifting
%				opt.siftOrder: order of SIFT (0 for not using SIFT)
%			showPlot: 0 for no plot, 1 for plotting the frame and ACF output
%			out: the returned PDF vector
%
%	Example:
%		waveFile='soo.wav';
%		au=myAudioRead(waveFile);
%		frameSize=256;
%		frameMat=enframe(au.signal, frameSize);
%		frame=frameMat(:, 292);
%		opt=ptOptSet(au.fs, au.nbits, 1);
%		opt.alpha=0;
%		pitch=frame2pitch(frame, opt, 1);
%
%	See also frame2acf, frame2amdf, frame2nsdf.

%	Roger Jang 20020404, 20041013, 20060313

if nargin<1, selfdemo; return; end
if nargin<2||isempty(opt), opt=ptOptSet(8000, 16, 1); end
if nargin<3, showPlot=0; end

%% ====== Preprocessing
%save frame frame
frame=frameZeroMean(frame, opt.zeroMeanPolyOrder);
%frame=frameZeroMean(frame, 0);

frameEstimated=[];
excitation=[];
if opt.siftOrder>0
	[frameEstimated, excitation, coef]=sift(frame, opt.siftOrder);	% Simple inverse filtering tracking
	frame=excitation;
end
frameSize=length(frame);
maxShift=min(frameSize, opt.maxShift);

switch lower(opt.pdf)
	case 'acf'
	%	pdf=frame2acf(frame, maxShift, opt.method);
		pdf=frame2acfMex(frame, maxShift, opt.method);
	%	if opt.method==1
	%		pdfWeight=1+linspace(0, opt.alpha, length(pdf))';
	%		pdf=pdf.*pdfWeight;	% To avoid double pitch error (esp for violin). 20110416
	%	end
	%	if opt.method==2
	%		pdfWeight=1-linspace(0, opt.alpha, length(pdf))';	% alpha is less than 1.
	%		pdf=pdf.*pdfWeight;	% To avoid double pitch error (esp for violin). 20110416
	%	end
		pdfLen=length(pdf);
		pdfWeight=opt.alpha+pdfLen*(1-opt.alpha)./(pdfLen-(0:pdfLen-1)');
		pdf=pdf.*pdfWeight;	% alpha=0==>normalized ACF, alpha=1==>tapering ACF
	case 'amdf'
	%	amdf=frame2amdf(frame, maxShift, opt.method);
		amdf=frame2amdfMex(frame, maxShift, opt.method);
		pdf=max(amdf)*(1-linspace(0,1,length(amdf))')-amdf;
	case 'nsdf'
	%	pdf=frame2nsdf(frame, maxShift, opt.method);
		pdf=frame2nsdfMex(frame, maxShift, opt.method);
	case 'acfoveramdf'
		opt.pdf='acf';
		[acfPitch, acf] =feval(mfilename, frame, opt);
		opt.pdf='amdf';
		[amdfPitch, amdf]=feval(mfilename, frame, opt);
		pdf=0*acf;
		pdf(2:end)=acf(2:end)./amdf(2:end);
	case 'hps'
		[pdf, freq]=frame2hps(frame, opt.fs, opt.zeroPaddedFactor);
	case 'ceps'
		pdf=frame2ceps(frame, opt.fs, opt.zeroPaddedFactor);
	otherwise
		error('Unknown PDF=%s!', opt.pdf);
end

switch lower(opt.pdf)
	case {'acf', 'amdf', 'nsdf', 'amdf4pt', 'acfoveramdf', 'ceps'}
		n1=floor(opt.fs/opt.freqRange(2));		% pdf(1:n1) will not be used
		n2= ceil(opt.fs/opt.freqRange(1));		% pdf(n2:end) will not be used
		if n2>length(pdf), n2=length(pdf); end
		% Update n1 such that pdf(n1)<=pdf(n1+1)
		while n1<n2 & pdf(n1)>pdf(n1+1), n1=n1+1; end
		% Update n2 such that pdf(n2)<=pdf(n2-1)
		while n2>n1 & pdf(n2)>pdf(n2-1), n2=n2-1; end
		pdf2=pdf;
		pdf2(1:n1)=-inf;
		pdf2(n2:end)=-inf;
		[maxValue, maxIndex]=max(pdf2);
		if isinf(maxValue) || maxIndex==n1+1 || maxIndex==n2-1
			pitch=0; maxIndex=nan; maxValue=nan;
		elseif opt.useParabolicFit
			deviation=optimViaParabolicFit(pdf(maxIndex-1:maxIndex+1));
			maxIndex=maxIndex+deviation;
			pitch=freq2pitch(opt.fs/(maxIndex-1));
		else
			pitch=freq2pitch(opt.fs/(maxIndex-1));
		end
	case {'hps'}
		pdf2=pdf;
		pdf2(freq<opt.freqRange(1)|freq>opt.freqRange(2))=-inf;
		[maxValue, maxIndex]=max(pdf2);
	%	if opt.useParabolicFit
	%		deviation=optimViaParabolicFit(pdf(maxIndex-1:maxIndex+1));
	%		maxIndex=maxIndex+deviation;
	%	end
		pitch=freq2pitch(freq(maxIndex));
	otherwise
		error('Unknown PDF=%s!', opt.pdf);
end

if showPlot
	subplot(2,1,1);
	plot(frame, '.-');
	set(gca, 'xlim', [-inf inf]);
	title('Input frame');
	subplot(2,1,2);
	plot(1:length(pdf), pdf, '.-', 1:length(pdf2), pdf2, '.r');
	line(maxIndex, maxValue, 'marker', '^', 'color', 'k');
	set(gca, 'xlim', [-inf inf]);
	title(sprintf('%s vector (opt.method = %d)', opt.pdf, opt.method));
end

% ====== Self demo
function selfdemo
mObj=mFileParse(which(mfilename));
strEval(mObj.example);

三、运行结果

在这里插入图片描述

四、备注

代码下载https://www.cnblogs.com/ttmatlab/p/14882966.html

以上是关于语音处理/语音识别基础- 语音的端点检测(EPD/VAD)的主要内容,如果未能解决你的问题,请参考以下文章

什么是静音切除?

语音识别基于语音分帧+端点检测+pitch提取+DTW算法歌曲识别matlab源码

语音识别基于语音分帧+端点检测+pitch提取+DTW算法歌曲识别matlab源码

语音识别基于matlab GUI MFCC+VAD端点检测智能语音门禁系统含Matlab源码 451期

求高人指点matlab语音端点检测程序

语音识别基于matlab语音分帧+端点检测+pitch提取+DTW算法歌曲识别含Matlab源码 1057期