<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          語音識別技術(shù)概述

          共 5383字,需瀏覽 11分鐘

           ·

          2020-10-06 18:58

          ?深度學習數(shù)據(jù)集

          Author:louwill

          From:深度學習筆記


          語音識別(Speech Recognition)是以語音為研究對象,通過語音信號處理和模式識別讓機器自動識別和理解人類的語音。除了傳統(tǒng)語音識別技術(shù)之外,基于深度學習的語音識別技術(shù)也逐漸發(fā)展起來。本文對廣義的自然語言處理應用領(lǐng)域之一的語音識別進行一次簡單的技術(shù)綜述。
          ?

          概述

          自動語音識別(Automatic Speech Recognition, ASR),也可以簡稱為語音識別。語音識別可以作為一種廣義的自然語言處理技術(shù),是用于人與人、人與機器進行更順暢的交流的技術(shù)。語音識別目前已使用在生活的各個方面:手機端的語音識別技術(shù),例如,蘋果的siri;智能音箱助手,例如,阿里的天貓精靈,還有諸如科大訊飛一系列的智能語音產(chǎn)品等等。

          為了能夠更加清晰的定義語音識別的任務,先來看一下語音識別的輸入和輸出都是什么。大家都知道,聲音從本質(zhì)是一種波,也就是聲波,這種波可以作為一種信號來進行處理,所以語音識別的輸入實際上就是一段隨時間播放的信號序列,而輸出則是一段文本序列。語音識別的輸入與輸出如圖1所示。

          圖1 語音識別的輸入與輸出
          ?
          將語音片段輸入轉(zhuǎn)化為文本輸出的過程就是語音識別。一個完整的語音識別系統(tǒng)通常包括信息處理和特征提取、聲學模型、語言模型和解碼搜索四個模塊。一個典型的語音識別系統(tǒng)如圖2所示。

          圖2 語音識別系統(tǒng)
          ?
          信號處理和特征提取可以視作音頻數(shù)據(jù)的預處理部分,一般來說,一段高保真、無噪聲的語言是非常難得的,實際研究中用到的語音片段或多或少都有噪聲存在,所以在正式進入聲學模型之前,我們需要通過消除噪聲和信道增強等預處理技術(shù),將信號從時域轉(zhuǎn)化到頻域,然后為之后的聲學模型提取有效的特征向量。接下來聲學模型會將預處理部分得到的特征向量轉(zhuǎn)化為聲學模型得分,與此同時,語言模型,也就是我們前面在自然語言處理中談到的類似N-Gram和RNN等模型,會得到一個語言模型得分,最后解碼搜索階段會針對聲學模型得分和語言模型得分進行綜合,將得分最高的詞序列作為最后的識別結(jié)構(gòu)。這便是語音識別的一般原理。圖3是隱馬爾可夫模型中的著名數(shù)學家安德雷·馬爾可夫。

          圖3 安德雷·馬爾可夫
          ?
          因為語音識別相較于一般的自然語言處理任務特殊之處就在于聲學模型,所以語言識別的關(guān)鍵也就是信號處理預處理技術(shù)和聲學模型部分。在深度學習興起應用到語言識別領(lǐng)域之前,聲學模型已經(jīng)有了非常成熟的模型體系,并且也有了被成功應用到實際系統(tǒng)中的案例。例如,經(jīng)典的高斯混合模型(GMM)和隱馬爾可夫模型(HMM)等。神經(jīng)網(wǎng)絡和深度學習興起以后,循環(huán)神經(jīng)網(wǎng)絡、LSTM、編碼-解碼框架、注意力機制等基于深度學習的聲學模型將此前各項基于傳統(tǒng)聲學模型的識別案例錯誤率降低了一個層次,所以基于深度學習的語音識別技術(shù)也正在逐漸成為語音識別領(lǐng)域的核心技術(shù)。

          語音識別發(fā)展到如今,無論是基于傳統(tǒng)聲學模型的語音識別系統(tǒng)還是基于深度學習的識別系統(tǒng),語音識別的各個模塊都是分開優(yōu)化的。但是語音識別本質(zhì)上是一個序列識別問題,如果模型中的所有組件都能夠聯(lián)合優(yōu)化,很可能會獲取更好的識別準確度,因而端到端的自動語音識別是未來語音識別的一個最重要的發(fā)展方向。

          所以,本文主要內(nèi)容的介紹順序就是先給大家介紹聲波信號處理和特征提取等預處理技術(shù),然后介紹GMM和HMM等傳統(tǒng)的聲學模型,其中重點解釋語音識別的技術(shù)原理,之后后對基于深度學習的聲學模型進行一個技術(shù)概覽,對當前深度學習在語音識別領(lǐng)域的主要技術(shù)進行簡單了解,最后對未來語音識別的發(fā)展方向——端到端的語音識別系統(tǒng)進行了解。
          ?

          信號處理與特征提取

          因為聲波是一種信號,具體我們可以將其稱為音頻信號。原始的音頻信號通常由于人類發(fā)聲器官或者語音采集設備所帶來的靜音片段、混疊、噪聲、高次諧波失真等因素,一定程度上會對語音信號質(zhì)量產(chǎn)生影響。所以在正式使用聲學模型進行語音識別之前,我們必須對音頻信號進行預處理和特征提取。

          最初始的預處理工作就是靜音切除,也叫語音激活檢測(Voice Activity Detection,VAD)或者語音邊界檢測。目的是從音頻信號流里識別和消除長時間的靜音片段,在截取出來的有效片段上進行后續(xù)處理會很大程度上降低靜音片段帶來的干擾。除此之外,還有許多其他的音頻預處理技術(shù),這里不展開多說。其次就是特征提取工作,音頻信號中通常包含著非常豐富的特征參數(shù),不同的特征向量表征著不同的聲學意義,從音頻信號中選擇有效的音頻表征的過程就是語音特征提取。常用的語音特征包括線性預測倒譜系數(shù)(LPCC)和梅爾頻率倒譜系數(shù)(MFCC),其中LPCC特征是根據(jù)聲管模型建立的特征參數(shù),是對聲道響應的特征表征。而MFCC特征是基于人的聽覺特征提取出來的特征參數(shù),是對人耳聽覺的特征表征。所以,在對音頻信號進行特征提取時通常使用MFCC特征。

          MFCC主要由預加重、分幀、加窗、快速傅里葉變換(FFT)、梅爾濾波器組、離散余弦變換幾部分組成,其中FFT與梅爾濾波器組是MFCC最重要的部分。圖4是傅里葉變換的簡單示意圖,通過傅里葉變換將時域切換到頻域。一個完整的MFCC算法包括如下幾個步驟。

          (1)快速傅里葉變換(FFT)。
          (2)梅爾頻率尺度轉(zhuǎn)換。
          (3)配置三角形濾波器組并計算每一個三角形濾波器對信號幅度譜濾波后的輸出。
          (4)對所有濾波器輸出作對數(shù)運算,再進一步做離散余弦變換(DTC),即可得到MFCC。

          圖4 傅里葉變換
          ?
          在實際的語音研究工作中,也不需要我們再從頭構(gòu)造一個MFCC特征提取方法,Python 為我們提供了pyaudio和librosa等語音處理工作庫,可以直接調(diào)用MFCC 算法的相關(guān)模塊快速實現(xiàn)音頻預處理工作。圖5所示是一段音頻的MFCC分析。

          圖5 MFCC
          ?
          過去在語音識別上所取得成果證明MFCC是一種行之有效的特征提取方法。但隨著深度學習的發(fā)展,受限的玻爾茲曼機(RBM)、卷積神經(jīng)網(wǎng)絡(CNN)、CNN-LSTM-DNN(CLDNN)等深度神經(jīng)網(wǎng)絡模型作為一個直接學習濾波器代替梅爾濾波器組被用于自動學習的語音特征提取中,并取得良好的效果。??
          ?

          傳統(tǒng)聲學模型

          在經(jīng)過語音特征提取之后,我們就可以將這些音頻特征進行進一步的處理,處理的目的是找到語音來自于某個聲學符號(音素)的概率。這種通過音頻特征找概率的模型就稱之為聲學模型。在深度學習興起之前,混合高斯模型(GMM)和隱馬爾可夫模型(HMM)一直作為非常有效的聲學模型而被廣泛使用,當然即使是在深度學習高速發(fā)展的今天,這些傳統(tǒng)的聲學模型在語音識別領(lǐng)域仍然有著一席之地。所以,作為傳統(tǒng)聲學模型的代表,我們就簡單介紹下GMM和HMM模型。

          所謂高斯混合模型(Gaussian Mixture Model,GMM),就是用混合的高斯隨機變量的分布來擬合訓練數(shù)據(jù)(音頻特征)時形成的模型。原始的音頻數(shù)據(jù)經(jīng)過短時傅里葉變換或者取倒譜后會變成特征序列,在忽略時序信息的條件下,這種序列非常適用于使用GMM進行建模。混合高斯分布的圖像如圖6所示。

          圖6 高斯混合分布
          ?
          如果一個連續(xù)隨機變量服從混合高斯分布,其概率密度函數(shù)形式為:

          GMM訓練通常采用EM算法來進行迭代優(yōu)化,以求取GMM中的加權(quán)系數(shù)及各個高斯函數(shù)的均值與方差等參數(shù)。GMM作為一種基于傅里葉頻譜語音特征的統(tǒng)計模型,在傳統(tǒng)語音識別系統(tǒng)的聲學模型中發(fā)揮了重要的作用。其劣勢在于不能考慮語音順序信息,高斯混合分布也難以擬合非線性或近似非線性的數(shù)據(jù)特征。所以,當狀態(tài)這個概念引入到聲學模型的時候,就有了一種新的聲學模型——隱馬爾可夫模型(Hidden Markov model,HMM)。在隨機過程領(lǐng)域,馬爾可夫過程和馬爾可夫鏈向來有著一席之地。當一個馬爾可夫過程含有隱含未知參數(shù)時,這樣的模型就稱之為隱馬爾可夫模型。HMM的核心概念是狀態(tài),狀態(tài)本身作為一個離散隨機變量,馬爾可夫鏈的每一個狀態(tài)上都增加了不確定性或者統(tǒng)計分布使得 HMM成為了一種雙隨機過程。HMM的一個時間演變結(jié)構(gòu)如圖7所示。
          ?

          圖7 隱馬爾可夫模型
          ?
          HMM的主要內(nèi)容包括參數(shù)特征、仿真方法、參數(shù)的極大似然估計、EM估計算法以及維特比狀態(tài)解碼算法等細節(jié)知識,本將作為簡單綜述這里不做詳細的展開。
          ?

          基于深度學習的聲學模型

          一提到神經(jīng)網(wǎng)絡和深度學習在語音識別領(lǐng)域的應用,可能我們的第一反應就是循環(huán)神經(jīng)網(wǎng)絡RNN模型以及長短期記憶網(wǎng)絡LSTM等。實際上,在語音識別發(fā)展的前期,就有很多將神經(jīng)網(wǎng)絡應用于語音識別和聲學模型的應用了。

          最早用于聲學建模的神經(jīng)網(wǎng)絡就是最普通的深度神經(jīng)網(wǎng)絡(DNN),GMM等傳統(tǒng)的聲學模型存在音頻信號表征的低效問題,但DNN可以在一定程度上解決這種低效表征。但在實際建模時,由于音頻信號是時序連續(xù)信號,DNN則是需要固定大小的輸入,所以早期使用 DNN來搭建聲學模型時需要一種能夠處理語音信號長度變化的方法。一種將HMM模型與 DNN模型結(jié)合起來的DNN-HMM混合系統(tǒng)頗具有效性。

          圖8 DNN-HMM框架
          ?
          如圖8所示,HMM用來描述語音信號的動態(tài)變化,DNN則是用來估計觀察特征的概率。在給定聲學觀察特征的條件下,我們可以用DNN的每個輸出節(jié)點來估計HMM某個狀態(tài)的后驗概率。由于DNN-HMM訓練成本不高而且相對較高的識別概率,所以即使是到現(xiàn)在在語音識別領(lǐng)域仍然是較為常用的聲學模型。

          除了DNN之外,經(jīng)常用于計算機視覺的CNN也可以拿來構(gòu)建語音聲學模型。當然,CNN也是經(jīng)常會與其他模型結(jié)合使用。CNN用于聲學模型方面主要包括TDNN、CNN-DNN 框架、DFCNN、CNN-LSTM-DNN(CLDNN)框架、CNN-DNN-LSTM(CDL)框架、逐層語境擴展和注意CNN框架(LACE)等。這么多基于CNN的混合模型框架都在聲學模型上取得了很多成果,這里小編僅挑兩個進行簡單闡述。

          TDNN是最早基于CNN的語音識別方法,TDNN會沿頻率軸和時間軸同時進行卷積,因此能夠利用可變長度的語境信息。TDNN用于語音識別分為兩種情況,第一種情況下:只有TDNN,很難用于大詞匯量連續(xù)性語音識別(LVCSR),原因在于可變長度的表述(utterance)與可變長度的語境信息是兩回事,在LVCSR中需要處理可變長度表述問題,而TDNN 只能處理可變長度語境信息;第二種情況:TDNN-HMM 混合模型,由于HMM能夠處理可變長度表述問題,因而該模型能夠有效地處理LVCSR問題。

          DFCNN的全稱叫作全序列卷積神經(jīng)網(wǎng)絡(Deep Fully Convolutional Neural Network),是由國內(nèi)語音識別領(lǐng)域領(lǐng)頭羊科大訊飛于2016年提出的一種語音識別框架。DFCNN先對時域的語音信號進行傅里葉變換得到語音的語譜圖,DFCNN直接將一句語音轉(zhuǎn)化成一張圖像作為輸入,輸出單元則直接與最終的識別結(jié)果(例如,音節(jié)或者漢字)相對應。DFCNN的結(jié)構(gòu)中把時間和頻率作為圖像的兩個維度,通過較多的卷積層和池化(pooling)層的組合,實現(xiàn)對整句語音的建模。DFCNN的原理是把語譜圖看作帶有特定模式的圖像,而有經(jīng)驗的語音學專家能夠從中看出里面說的內(nèi)容。DFCNN結(jié)構(gòu)如圖9所示。

          圖9 DFCNN模型
          ?
          最后就是循環(huán)神經(jīng)網(wǎng)絡RNN,其中更多是LSTM網(wǎng)絡。音頻信號具有明顯的協(xié)同發(fā)音現(xiàn)象,因此必須考慮長時相關(guān)性。由于循環(huán)神經(jīng)網(wǎng)絡RNN具有更強的長時建模能力,使得 RNN也逐漸替代DNN和CNN成為語音識別主流的建模方案。例如,常見的基于seq2seq 的編碼-解碼框架就是一種基于 RNN 的模型。

          長期的研究和實踐證明:基于深度學習的聲學模型要比傳統(tǒng)的基于淺層模型的聲學模型更適合語音處理任務。語音識別的應用環(huán)境常常比較復雜,選擇能夠應對各種情況的模型建模聲學模型是工業(yè)界及學術(shù)界常用的建模方式。但單一模型都有局限性。HMM能夠處理可變長度的表述,CNN能夠處理可變聲道,RNN/CNN能夠處理可變語境信息。聲學模型建模中,混合模型由于能夠結(jié)合各個模型的優(yōu)勢,是目前乃至今后一段時間內(nèi)聲學建模的主流方式。
          ?

          端到端的語音識別系統(tǒng)簡介

          無論是GMM和HMM這樣的傳統(tǒng)聲學模型,還是基于深度學習的聲學模型,它們對于整個語音識別系統(tǒng)都是分開優(yōu)化的,但是語音識別本質(zhì)上是一個序列識別問題,如果模型中的所有組件都能夠聯(lián)合優(yōu)化,很可能會獲取更好的識別準確度,所以我們需要一種端到端(End2End)的語音識別處理系統(tǒng)。

          基于深度學習的自動語音識別流程如圖10所示。主要包特征提取、DNN/RNN模型、解碼器等過程。端到端的語音識別系統(tǒng)就是將上述組件流程進行聯(lián)合優(yōu)化。

          圖10 基于深度學習的ASR過程
          ?
          基于組件聯(lián)合優(yōu)化后的端到端語音識別系統(tǒng)如圖11所示。

          圖11 端到端語音識別系統(tǒng)構(gòu)成

          往期精彩:

          【原創(chuàng)首發(fā)】機器學習公式推導與代碼實現(xiàn)30講.pdf

          【原創(chuàng)首發(fā)】深度學習語義分割理論與實戰(zhàn)指南.pdf


          喜歡您就點個在看!

          瀏覽 148
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  国产探花第一页 | 操美女骚逼逼影是 | 日本AAAA片毛片免费观蜜桃 | 思思热在线视频免费观看 | 欧美日韩一级黄色大片 |