又大又长粗又爽又黄少妇毛片,亚洲欧美日韩综合一区在线观看,伊人久久精品,一区二区三区精品,亚洲综合色自拍一区,一本一道久久久a久久久精品91

首頁 > 機器人資訊 > 為了讓機器聽懂你的聲音,深度學習是如何發(fā)揮作用的?

為了讓機器聽懂你的聲音,深度學習是如何發(fā)揮作用的?

日期:2019-03-06   人氣:  來源:互聯(lián)網(wǎng)
簡介:為了讓機器聽懂你的聲音,深度學習是如何發(fā)揮作用的? 深度學習在2006年嶄露頭角后,近幾年取得了快速發(fā)展,在學術(shù)界和工業(yè)界均呈現(xiàn)出指數(shù)級增長的趨勢;伴隨著這項技術(shù)的不斷成熟,深度學習在智能語音領(lǐng)域率先發(fā)力,取得一系列成功的應(yīng)用。本文將重點分享……

為了讓機器聽懂你的聲音,深度學習是如何發(fā)揮作用的?

深度學習在2006年嶄露頭角后,近幾年取得了快速發(fā)展,在學術(shù)界和工業(yè)界均呈現(xiàn)出指數(shù)級增長的趨勢;伴隨著這項技術(shù)的不斷成熟,深度學習在智能語音領(lǐng)域率先發(fā)力,取得一系列成功的應(yīng)用。本文將重點分享近年來深度學習在語音生成問題中的新方法,圍繞語音合成和語音增強兩個典型問題展開介紹。

一、深度學習在語音合成中的應(yīng)用

語音合成主要采用波形拼接合成和統(tǒng)計參數(shù)合成兩種方式。波形拼接語音合成需要有足夠的高質(zhì)量發(fā)音人錄音才能夠合成高質(zhì)量的語音,它在工業(yè)界中得到了廣泛使用。統(tǒng)計參數(shù)語音合成雖然整體合成質(zhì)量略低,但是在發(fā)音人語料規(guī)模有限的條件下,優(yōu)勢更為明顯。在上一期我們重點介紹了深度學習在統(tǒng)計參數(shù)語音合成中的應(yīng)用,本期將和大家分享基于波形拼接的語音合成系統(tǒng),圍繞Siri近期推出的語音合成系統(tǒng)展開介紹,它是一種混合語音合成系統(tǒng),選音方法類似于傳統(tǒng)的波形拼接方法,它利用參數(shù)合成方法來指導選音,本質(zhì)上是一種波形拼接語音合成系統(tǒng)。

單元選擇是波形拼接語音合成系統(tǒng)的基本難題,需要在沒有明顯錯誤的條件下將合適的基元組合在一起。語音合成系統(tǒng)通常分為前端和后端兩個部分,前端模塊對于提高語音合成系統(tǒng)的表現(xiàn)力起到非常重要的作用。前端模塊將包含數(shù)字、縮寫等在內(nèi)的原始文本正則化,并對各個詞預測讀音,解析來自文本的句法、節(jié)奏、重音等信息。因此,前端模塊高度依賴于語言學信息。后端通過語言學特征預測聲學參數(shù),模型的輸入是數(shù)值化的語言學特征。模型的輸出是聲學特征,例如頻譜、基頻、時長等。在合成階段,利用訓練好的統(tǒng)計模型把輸入文本特征映射到聲學特征,然后用來指導選音。在選音過程中需要重點考慮以下兩個準則:(1)候選基元和目標基元的特征必須接近;(2)相鄰兩個基元的邊界處必須自然過渡?梢酝ㄟ^計算目標代價和拼接代價評估這兩個準則;然后通過維特比算法計算最優(yōu)路徑確定最終的候選基元;最后通過波形相似重疊相加算法找出最佳拼接時刻,因此生成平滑且連續(xù)合成語音。

Siri的TTS系統(tǒng)的目標是訓練一個基于深度學習的統(tǒng)一模型,該模型能自動準確地預測數(shù)據(jù)庫中單元的目標成本和拼接成本。因此該方法使用深度混合密度模型來預測特征值的分布。這種網(wǎng)絡(luò)結(jié)構(gòu)結(jié)合了常規(guī)的深度神經(jīng)網(wǎng)絡(luò)和高斯混合模型的優(yōu)勢,即通過DNN對輸入和輸出之間的復雜關(guān)系進行建模,并且以概率分布作為輸出。系統(tǒng)使用了基于MDN統(tǒng)一的目標和拼接模型,該模型能預測語音目標特征(譜、基頻、時長)和拼接成本分布,并引導基元的搜索。對于元音,有時語音特征相對穩(wěn)定,而有些時候變化又非常迅速,針對這一問題,模型需要能夠根據(jù)這種變化性對參數(shù)作出調(diào)整,因此在模型中使用嵌入方差解決這一問題。系統(tǒng)在運行速度、內(nèi)存使用上具有一定優(yōu)勢,使用快速預選機制、單元剪枝和計算并行化優(yōu)化了它的性能,可以在移動設(shè)備上運行。

二、深度學習在語音增強中的應(yīng)用

通過語音增強可以有效抑制各種干擾信號,增強目標語音信號;有效的語音增強算法一方面可以提高語音可懂度和話音質(zhì)量,另一方面有助于提高語音識別和聲紋識別的魯棒性。經(jīng)典的語音增強方法包括譜減法、維納濾波法、最小均方誤差法,上述方法基于一些數(shù)學假設(shè),在真實環(huán)境下難以有效抑制非平穩(wěn)噪聲的干擾;诿し蛛x的非負矩陣分解方法也得到了一定關(guān)注,但是這類方法計算復雜度相對較高;近年來,基于深度學習的語音增強方法得到了越來越多的關(guān)注,接下來重點介紹幾種典型的基于深度學習的語音增強方法。

1.預測幅值譜信息

這類方法通過深層神經(jīng)網(wǎng)絡(luò)模型建立帶噪語音和干凈語音譜參數(shù)之間的映射關(guān)系,模型的輸入是帶噪語音的幅值譜相關(guān)特征,模型的輸出是干凈語音的幅值譜相關(guān)特征,通過深層神經(jīng)網(wǎng)絡(luò)強大的非線性建模能力重構(gòu)安靜語音的幅值譜相關(guān)特征;神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)可以是DNN/BLSTM-RNN/CNN等;相比于譜減、最小均方誤差、維納濾波等傳統(tǒng)方法,這類方法可以更為有效的利用上下文相關(guān)信息,對于處理非平穩(wěn)噪聲具有明顯的優(yōu)勢。

2.預測屏蔽值信息

采用這類方法建模時模型的輸入可以是聽覺域相關(guān)特征,模型的輸出是二值型屏蔽值或浮點型屏蔽值,最常用的聽覺域特征是Gamma濾波器相關(guān)特征,這種方法根據(jù)聽覺感知特性將音頻信號分成不同子帶提取特征參數(shù);對于二值型屏蔽值,如果某個時頻單元能量是語音主導,則保留該時頻單元能量,如果某個時頻單元能量是噪聲主導,則將該時頻單元能量置零;采用這種方法的優(yōu)勢是,共振峰位置處的能量得到了很好的保留,而相鄰共振峰之間波谷處的能量雖然失真誤差較大,但是人耳對這類失真并不敏感;因此通過這種方法增強后的語音具有較高的可懂度;浮點值屏蔽是在二值型屏蔽基礎(chǔ)上進一步改進,目標函數(shù)反映了對各個時頻單元的抑制程度,進一步提高增強后語音的話音質(zhì)量和可懂度。

3.預測復數(shù)譜信息

目前主流的語音增強方法更多的關(guān)注于對幅值譜相關(guān)特征的增強而保留原始語音的相位譜,隨著信噪比的降低相位譜失真對聽感的影響明顯增強,在低信噪比條件下,有效的相位重構(gòu)方法可以有助于提高語音可懂度;一種典型的相位重構(gòu)方法是利用基音周期線索對濁音段的相位進行有效修復,但是這類方法無法有效估計清音段的相位信息;復數(shù)神經(jīng)網(wǎng)絡(luò)模型可以對復數(shù)值進行非線性變換,而語音幀的復數(shù)譜能夠同時包含幅值譜信息和相位譜信息,可以通過復數(shù)神經(jīng)網(wǎng)絡(luò)建立帶噪語音復數(shù)譜和干凈語音復數(shù)譜的映射關(guān)系,實現(xiàn)同時對幅值信息和相位信息的增強。

4.PIT說話人分離

通過說話人分離技術(shù)可以將混疊語音中不同的說話人信息有效分離出來,已有的基于深度學習的說話人分離模型受限于說話人,只能分離出特定說話人的聲音;采用具有置換不變性的訓練方法得到的說話人分離模型不再受限于特定說話人;這種方法通過自動尋找分離出的信號和標注的聲源之間的最佳匹配來優(yōu)化語音增強目標函數(shù);模型的輸入是混疊語音的譜參數(shù)特征,模型的輸出包含多個任務(wù),每個任務(wù)對應(yīng)一個說話人;在訓練過程中,對于訓練集中一個樣本內(nèi),每個任務(wù)固定對應(yīng)某個說話人;可以采用BLSTM-RNN模型結(jié)構(gòu)建模。

5.DeepClustering說話人分離

基于深度聚類的說話人分離方法是另一種說話人無關(guān)的分離模型,這種方法通過把混疊語音中的每個時頻單元結(jié)合它的上下文信息映射到一個新的空間,并在這個空間上進行聚類,工業(yè)機器人維修,使得在這一空間中屬于同一說話人的時頻單元距離較小可以聚類到一起;將時頻單元映射到新的空間跟詞矢量抽取的思想有些類似,可以通過k均值聚類的方法對時頻單元分組,然后計算二值型屏蔽值分離出不同說話人的語音,也可以通過模糊聚類的方法描述不同的時頻單元,工業(yè)機器人維修,然后計算浮點型屏蔽值后分離混疊語音。基于深層聚類的方法和基于PIT的方法有著各自的優(yōu)勢,為了更有效的解決問題,可能需要將兩種方法有效的結(jié)合。

6.基于對抗網(wǎng)絡(luò)的語音增強

免責聲明:本網(wǎng)部分文章和信息來源于互聯(lián)網(wǎng),本網(wǎng)轉(zhuǎn)載出于傳遞更多信息和學習之目的。如轉(zhuǎn)載稿涉及版權(quán)等問題,請立即聯(lián)系網(wǎng)站所有人,我們會予以更改或刪除相關(guān)文章,保證您的權(quán)利。