语音 AI 技术简介
Posted MoussaTintin
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了语音 AI 技术简介相关的知识,希望对你有一定的参考价值。
语音 AI 技术(e.g. 语音识别、语音合成)是人工智能重要的研究和应用方向。但是,不同于 CV、NLP 等“显学”,语音相关的从业人员(学界和业界)相对较少,语音领域的学术会议和期刊影响力也比较有限。
语音 AI 是一个多学科交叉的技术方向,涉及到信号处理、语言学、语音学(e.g. 发音规律)、心理学(e.g. 听觉感知)、传统机器学习以及深度学习等。近几年,随着深度学习的快速发展,语音也大量借鉴 CV、NLP 等领域的方法和成果。
鉴于此,我们简要梳理了语音 AI 的主要技术及应用场景。一方面,希望能够吸引更多不同专业背景的同侪投身语音AI领域;另一方面,希望能对有志于学习语音技术的同学提供一些帮助。欢迎有兴趣的同行或同学私信交流。
1. 技术方向
语音 AI 包括了一系统相关的技术,下面对其中的若干重要方向进行简要介绍。(一篇旧文,介绍了语音算法在智能音箱中的应用,感兴趣的读者也可以参考。)
1.1 语音识别
1.1.1 ASR
语音识别(Automatic Speech Recognition, ASR)是将语音信号转换成对应文本的 AI 技术。大词汇连续语音识别(LVCSR)的技术突破开始于 20 世纪 80 年代,此时隐马尔可夫模型(HMM)被用于建模语音信号。早期使用高斯混合模型(GMM)对发音分布进行建模,这种方案称为 GMM-HMM 系统。
基于 HMM-GMM 的技术方案在 20 多年前已经发展成熟,其中 HTK 为集大成者。Kaldi 后来居上,基本终结了这方面的学术研究和工程开发(欧洲、日本有团队使用其他类似但比较小众的工具)。
基于人工神经网络(ANN)的 ASR 研究几乎与 GMM 方案同时开展,但由于早期各方面条件不成熟,没有能够成功应用。2009 年前后,深度神经网络(DNN)被重新引入声学建模,并取得了突破性的进展。相关成果在 12 年被 Google、微软等 5 家主流研究机构共同报告,ASR 进入深度学习时代。使用深度神经网络做为声学模型的方案称为 DNN-HMM 系统,通常也称为 hybrid 系统(建模过程中混合使用了 GMM-HMM 相关技术)。
GMM-HMM 和 DNN-HMM 都属于传统的语音识别系统(conventional ASR),它们由若干独立模块组成:前端模块、声学模型、发音辞典、语言模型和解码器。端到端(End-to-End)语音识别方案则希望将各个模块统一起来,由单独的神经网络进行联合建模与优化。
端到端建模是也深度学习领域的圣杯。目前主流 CV 和 NLP 任务,以及声纹认证、声学场景分析等较简单的语音任务目前基本都是以端到端方案为主。语音识别、语音合成、语音信号处理由于问题本身的复杂性,目前还处于传统方案和端到端并存的阶段。虽然端到端未来能否完全取代传统方案,目前仍存在较大的争议,但一个基本的实事是,端到端是当下研究的主流,在很多场景也展现了显著的性能优势。
早在 2014 年之前,学界和业界就开始了端到端 ASR 方案的探索。从识别效果上, 18 年前后离线端到端系统基本达到可用水平。19 年后,端到端成为学术研究的主流。目前学术会议上已经很少能看到传统语音识别的相关工作了。
目前,端到端 ASR 有三种主要的实现方案——CTC、Transducer 和 AED(Attention-base Encoder-Decoder)。
1.1.2 关键词检索
关键词检索(keyword search),可以看作是语音识别的特例。不同的是,在检索任务中,我们关注特定的关键词的检出效果,因此在技术手段上和语音识别有比较显著的差异。
随着智能音箱以及手机语音助理的普通,语音唤醒(wakup)技术日渐为人熟知。唤醒在有些文献中也称了 keyword spot 或 hotword spot。对设备呼喊相应的唤醒(如百度音箱的“小度小度”),设备即能被激活并响应用户的需求。
因此,识别相关技术的应用中,通常都会需要 VAD(Voice Activity Detection)模块进行配合。VAD 也称静音检测,其作用是检测出音频中的非语音片断并进行过滤。一方面可以减少后续识别等模块的计算量,另一方面也可以减少引入大量非语音而造成的误识别。
1.2 语音合成
语音合成,即 TTS(Text-To-Speech),是语音识别的反向任务。TTS 将给定的文本转换成相应的音频,以供播放。
1.2.1 基本技术
TTS 主要有三类方法:参数、拼接以有端到端。
参数方法合成的语音自然度比较低,机械感明显。但参数方案的资源占用可以做到非常小,因此,在设备端依然存在大量的需求。
拼接方法顾名思义,是将音库中的语音片断拼接起来,生成目标语音。基于拼接可以合成高质量的语音,但缺点是开发流程复杂,对音库质量要求较高。目前拼接方法基本被端到端方法所取代。
端到端方法是将 TTS 传统的前端(TN、时长模型、声学模型)和后端(声码器)分别用神经网络建模。
前端主流的方案包括 tacotron 系统 和 fastspeech 系统等。后端(神经声码器)觉的方法用 WavNet、WavRNN、LPCNet、MelGAN、HifiGAN 等。
1.2.2 应用方向
随着技术的发展,TTS 已经不限于简单的播放语音,而是有了越来越多样的场景需求。
例如,在电子书阅读、虚拟助手等场景,对合成语音的情感表达愈发重视。
另外,用户对于个性化语音合成的需求也越来越强烈。这就涉及如何利用小样本、低音质的数据进行模型建模的技术问题。
此外,歌曲合成也是语音合成的一个应用方向。
1.3 声纹技术
笼统而言,声纹技术(voiceprint)是一门分析语音/音频中特定属性的技术。
1.3.1 说话人识别
说话人识别是一项最常用的声纹技术。在说话人识别任务中,算法需要对比录入语音与注册的语音的相似度,从而判断说话人的身份。典型的应用是微信的数据声纹锁。
1.3.2 声纹检索
声纹检索是说话人识别的扩展。上述说话人识别是 1:1 的认证任务,即只需要判断目标语音是否是给定的注册语音属于相同的说话人。而声纹检索是 1:N 的认证任务,即需要从大小为 N 的注册声纹库中挑选出最相似的说话人或都判断不在声纹库中(即集外)。
声纹检索可以应用在刑侦领域,用于大规模的嫌犯筛查。
1.3.3 属性识别
语音中往往包含了说话人的一些生理属性,如性别、年龄等。这些属于可以通过声纹技术来进行识别。
1.3.4 声学场景分析
对于非纯语音的音频内容(例如短视频),有时需要对涉及的具体场景进行分析,以便分门别类进行处理(例如,语音片断转发给 ASR 进行转写;涉黄内容进行屏蔽)。这就涉及声学场景分析(acoustic scene ananlysis)。简单而言,通过声学场景分析,我们需要确认在何时发生了何种声学事件。
1.4 语音前端处理(语音信号处理)
人们的工作和生活都是处于极其复杂的声学环境中,人与人之间的交流以及人与机器之间的交互都会受到噪声、干扰等多种因素的影响。语音作为各种语音类应用的入口,通过各种算法对音频信号进行处理,消除录音设备和环境等带来的影响,使得处理后的信号更能反映语音的本质特征,为语音类应用的效率和用户体验提供保证。
1.4.1 主要问题
语音前端处理面临的问题,大致可以分为四类:
(1)回声:扬声器播放的声音又被麦克风拾取了。相应的处理方法有回声消除、回声抑制和回声控制等。
(2)混响:声音除了从声源直线传播到麦克风之外,还会经过各种反射到达麦克风。响应的处理方法有混响消除和混响抑制等。
(3)干扰:通常指非目标的其他人声。相应的处理方法有波束形成、盲源分离和声源定位等。
(4)噪声:除回声/混响/干扰之外的非目标声音,多数情况下指代的是各种各样的环境噪声。相应的方法有降噪/增强、噪声控制和有源噪声控制等。
1.4.2 应用场景
实时音频通话
包括传统电话、视频通话、电话会议等。在音频通话场景,信号处理主要是用于提升语音的可懂度和听感。音频通话相关的语音前端,最重要的要数经典的3A算法,即:
AEC——声学回声消除,解决通话过程中扬声器播放的声音又被麦克风采集到,导致远端说话人听到自己声音的问题;
ANS——自适应噪声抑制,解决通话过程中声音被环境噪声所污染的问题;
AGC——自适应增益控制,解决声音忽大忽小的问题。
语音交互
包括语音助手、智能客服和各种类型的语音控制系统等,主要服务于语音识别/唤醒/说话人识别/情感识别等。相对于通话,语音交互通常会面临更为复杂的声学环境,为了提升语音质量,很多产品采用麦克风阵列作为音频输入硬件,相应的就需要有麦克风阵列相关的语音前端处理算法,典型的有波束形成/盲源分离/声源定位等。
录音
包括集中式的会议录音器、分布式会议系统、录音笔、监控系统的录音部分、以及一些特制的录音器件等,这部分应用一般是后期对语音做处理分析,所以对实时性要求比较低,甚至一部分可以做纯离线的处理
其他
对实时性要求绝高的场景,像助听器的信号处理,对处理延迟的要求极高,需要达到10毫秒或者更小。扩音系统的音频前端处理,需要处理啸叫等问题。多模态处理,包括音视频结合、麦克风+骨传导传感器、声学麦克风+光学麦克风等。
2. 专业技能
下面介绍语音算法研发过程的用到的一些专业技能。虽然列了很多点,但依然不太全面。具体到某个特定方面(如说话人识别),可以并不需要所有这些技能,而且不同技能的熟悉度要求也不尽相同(有些可能仅仅要求能看懂)。
2.0 CS 基础
基础知识:计算机组成(体系结构)、算法设计与分析、设计模式
编程语言:c/c++、python、cuda、perl(目前用的非常少了)
Linux 系统基础操作:shell、vim 以及 awk、sed 等
基础工具:gcc、cmake(bazel)、git
2.1 机器学习相关
基本的机器学习知识,详见下面的阅读清单。
训练框架:pytorch、tensorflow
推理库:libtorch、onnx-runtime、tf-serving、tensorrt、mkl、mkl-dnn(one-dnn)
2.2 语音相关
语音信号处理:特征提取(fbank、mfcc、LPC)、3A 算法,以及下面的阅读清单。
工具:kaldi、openfst、srilm、sox、ffmpeg
2.3 工程相关
深度学习的发展,端到端方法在语音 AI 的各个方向都成为不可忽略的力量,在特定方向上甚至完全取代了传统的方法。方法的革新必然带来研发范式的变化。
高效的训练工具是处理海量语音数据的基础,因此大规模分布式系统(CPU 集群、GPU 集群)的使用,训练速度的优化(分布式优化、算子实现优化,乃至算法和硬件的协同设计 ),是工业界语音 AI 开发的前提条件。而高效的部署(模型压缩、计算图优化、跨平台支持)对于实际落地也非常重要。
因此,强悍的工程能力是未来在语音 AI 取得成功的越来越重要的因素。
3. 阅读清单
3.1 领域会议
3.1.1 旗舰会议
- ICASSP (International Conference on Acoustics, Speech and Signal Processing) 是 IEEE Signal Processing Society 组织的年度盛会。今年的会议于 21 年 6 月在加拿大多伦多举办(因疫情改为线上)。值得注意的是,ICASSP 有相当数据的论文是与语音无关的。
- INTERSPEECH()是由 International Speech Communication Association(ISCA) 组织的年度学术会议。21 年的会议将在 8 月底在 捷克布尔诺举行。
语音相关的重要进展也散见通用的 AI 会议(e.g. ICML、NeuriPS)。另外,语音能从研究更加活跃的 CV、NLP 领域汲取宝贵经验,因此,这些领域的重要会议也可以积极关注。
3.1.2 其他会议
- ASRU (Automatic Speech Recognition and Understanding Workshop) 是 IEEE Speech and Language Processing Technical Committee 组织的研讨会,每两年一次(和 SLT 交替举办)。最近一次会议会将在 21 年 12 月哥伦比亚卡塔赫纳市举办。
- SLT (Spoken Language Technology Workshop) 是 IEEE Speech and Language Processing Technical Committee 组织的研讨会,每两年一次(和 ASRU 交替举办)。最近一次是 21 年 1 月(举办地为深圳,因疫情改为线上)。
3.2 旗舰期刊
- TASLP (IEEE/ACM Transactions on Audio, Speech, and Language Processing)
和大多数 AI 领域一样,期刊由于时效性不高,因此相对而言参考性不是太大。
3.3 书籍
3.3.1 ML基础
- Andrew Ng. Machine Learning (公开课).
- 李航(12). 统计学习方法(第一版).
- 李航(19). 统计学习方法(第二版).
- 周志华(16). 机器学习.
- Chris Bishop. (06). Pattern Recognition and Machine Learning.
- Goodfellow et al. (16). Deep Learning.
- Simon Haykin et al. (09) Neural Network and Learning Machine.
3.3.2 语音相关
- Dan Jurafsky & James H. Martin (07, 17). Speech and Language Processing.
- 陈果果 et al. (20). Kaldi语音识别实战.
- Young et al. (06). HTK Handbook.
- Kaldi Tutorial.
- 俞栋 & 邓力. (16). 解析深度学习:语音识别实践.
- Huang et al. (01). Spoken Language Processing: A Guide to Theory, Algorithm and System Development.
- 王泉. (20). 声纹技术.
- Benesty et al. Microphone Array Signal Processing.
- Benesty et al. Design of Circular Differential Microphone Arrays.
- Naylor et al. (Eds.) Speech Dereverberation.
- Hänsler et al. (Eds.) Topics in Acoustic Echo and Noise Control.
以上是关于语音 AI 技术简介的主要内容,如果未能解决你的问题,请参考以下文章