又大又长粗又爽又黄少妇毛片,亚洲欧美日韩综合一区在线观看,伊人久久精品,一区二区三区精品,亚洲综合色自拍一区,一本一道久久久a久久久精品91

機(jī)器人資訊
  1. 中國(guó)制造2025前瞻:無(wú)人機(jī)的未來(lái)(二)
  2. 【重磅】人工智能書(shū)寫(xiě)醫(yī)療健康產(chǎn)業(yè)新篇章(下)
  3. 人工智能書(shū)寫(xiě)醫(yī)療機(jī)器人產(chǎn)業(yè)新篇章
  4. 牛!市一院參與研發(fā)“國(guó)之重器”骨科手術(shù)機(jī)器人
  5. 機(jī)器人胰腺手術(shù)全球直播
技術(shù)教程
示教器維修
伺服電機(jī)維修
首頁(yè) > 機(jī)器人資訊 > 為了合成讓人類聽(tīng)懂的語(yǔ)音,機(jī)器做了哪些“深度學(xué)習(xí)”?

為了合成讓人類聽(tīng)懂的語(yǔ)音,機(jī)器做了哪些“深度學(xué)習(xí)”?

日期:2019-03-06   人氣:  來(lái)源:互聯(lián)網(wǎng)
簡(jiǎn)介:為了合成讓人類聽(tīng)懂的語(yǔ)音,機(jī)器做了哪些“深度學(xué)習(xí)”? 深度學(xué)習(xí)在2006年開(kāi)始嶄露頭腳后,近幾年取得了飛速的發(fā)展,無(wú)論是學(xué)術(shù)研究還是企業(yè)應(yīng)用均呈現(xiàn)出指數(shù)級(jí)增長(zhǎng)的趨勢(shì);伴隨著這項(xiàng)技術(shù)的不斷成熟,深度學(xué)習(xí)在智能語(yǔ)音領(lǐng)域率先發(fā)力,取得一系列成功的應(yīng)……

為了合成讓人類聽(tīng)懂的語(yǔ)音,機(jī)器做了哪些“深度學(xué)習(xí)”?

深度學(xué)習(xí)在2006年開(kāi)始嶄露頭腳后,近幾年取得了飛速的發(fā)展,無(wú)論是學(xué)術(shù)研究還是企業(yè)應(yīng)用均呈現(xiàn)出指數(shù)級(jí)增長(zhǎng)的趨勢(shì);伴隨著這項(xiàng)技術(shù)的不斷成熟,深度學(xué)習(xí)在智能語(yǔ)音領(lǐng)域率先發(fā)力,取得一系列成功的應(yīng)用。

例如,一。音色的定制化,需要跟蹤錄大量的音庫(kù),重新訓(xùn)練一個(gè)模型;二。個(gè)性化表示方法的定制化,KUKA機(jī)器人示教器維修,可以錄一些數(shù)據(jù),通過(guò)深度學(xué)習(xí)訓(xùn)練模型,自適應(yīng)的方法來(lái)實(shí)現(xiàn)。

深度學(xué)習(xí)在統(tǒng)計(jì)參數(shù)語(yǔ)音合成中的應(yīng)用

語(yǔ)音合成主要采用波形拼接合成和統(tǒng)計(jì)參數(shù)合成兩種方式。波形拼接語(yǔ)音合成需要有足夠的高質(zhì)量發(fā)音人錄音才能夠合成高質(zhì)量的語(yǔ)音,它是商業(yè)產(chǎn)品中最常用的語(yǔ)音合成技術(shù)。統(tǒng)計(jì)參數(shù)語(yǔ)音合成雖然整體合成質(zhì)量略低,但是在小規(guī)模語(yǔ)料、低占用資源的情況下,優(yōu)勢(shì)更為明顯。此外,混合語(yǔ)音合成聯(lián)合了波形拼接合成和統(tǒng)計(jì)參數(shù)合成的優(yōu)勢(shì),選音方法類似于傳統(tǒng)的波形拼接方法,它利用參數(shù)合成方法來(lái)指導(dǎo)選音;接下來(lái)重點(diǎn)介紹目前廣泛使用的語(yǔ)音合成方法:

(1)傳統(tǒng)的基于DNN/LSTM的合成

傳統(tǒng)的基于HMM統(tǒng)計(jì)參數(shù)的語(yǔ)音合成是在訓(xùn)練過(guò)程中建立文本參數(shù)與聲學(xué)參數(shù)之間的映射模型,通過(guò)高斯混合模型描述每個(gè)建模單元。在建模過(guò)程中有三個(gè)環(huán)節(jié)會(huì)導(dǎo)致語(yǔ)音音質(zhì)下降,第一是決策樹(shù)的聚類,第二是聲碼器,第三是參數(shù)生成算法。針對(duì)決策樹(shù)聚類問(wèn)題,可以通過(guò)深層神經(jīng)網(wǎng)絡(luò)建立文本特征和聲學(xué)特征之間的映射關(guān)系,替代傳統(tǒng)的淺層模型,提高模型精度;比較典型的深層神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)包括深層置信神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短時(shí)記憶遞歸神經(jīng)網(wǎng)絡(luò);后者具有更強(qiáng)的序列學(xué)習(xí)能力,采用BLSTM-RNN建模時(shí),還可以跳過(guò)參數(shù)生成算法直接預(yù)測(cè)語(yǔ)音參數(shù),最后通過(guò)聲碼器就可以合成語(yǔ)音;總的來(lái)說(shuō),利用深層神經(jīng)網(wǎng)絡(luò)強(qiáng)大的非線性建模能力,在一定程度上提升了語(yǔ)音合成系統(tǒng)的性能,但是并沒(méi)有跳出原有的語(yǔ)音合成系統(tǒng)框架。

(2)基于WaveNet的合成

在已有的研究中,很少有人會(huì)直接在時(shí)域上對(duì)已有音頻建模。從直覺(jué)上分析,構(gòu)建一個(gè)自回歸模型,能夠預(yù)測(cè)每一個(gè)samples是如何被前面所有的samples所影響的,是一個(gè)相當(dāng)艱巨的任務(wù)。谷歌提出的基于WaveNets的語(yǔ)音合成方法,跳出了傳統(tǒng)語(yǔ)音合成框架,繞開(kāi)聲碼器模塊,直接對(duì)采樣點(diǎn)進(jìn)行預(yù)測(cè),面對(duì)這個(gè)充滿挑戰(zhàn)的問(wèn)題,取得了突破。

WaveNet語(yǔ)音合成系統(tǒng)的輸入包括文本特征以及先前時(shí)段的音頻采樣點(diǎn)。其中文本特征的有效表述起到非常重要的作用。如果在沒(méi)有文本序列的情況下來(lái)訓(xùn)練網(wǎng)絡(luò),仍然可以生成語(yǔ)音,但是無(wú)法聽(tīng)懂輸出音頻的內(nèi)容。WaveNet語(yǔ)音合成系統(tǒng)存在的問(wèn)題是模型每次輸出單個(gè)采樣點(diǎn),計(jì)算效率難以滿足實(shí)用要求?梢砸胍恍┳赃m應(yīng)的方法對(duì)已有模型進(jìn)行優(yōu)化,使其能夠適用于不同發(fā)音人。也可以在模型的輸入端提供更多的信息,例如情感或口音,這樣使得生成的語(yǔ)音可以更多樣化,www.whsntf.cn,更具表現(xiàn)力。

(3)基于DeepVoice的合成

百度提出了DeepVoice語(yǔ)音合成系統(tǒng),它將里面的很多模塊用深度神經(jīng)網(wǎng)絡(luò)去實(shí)現(xiàn),KUKA機(jī)器人示教器維修,通過(guò)類似于WaveNet的合成器來(lái)合成,效果也是比較理想的。已有的語(yǔ)音合成系統(tǒng)會(huì)在某些環(huán)節(jié)上采用深度學(xué)習(xí),但在DeepVoice之前,沒(méi)有團(tuán)隊(duì)采用全深度學(xué)習(xí)的框架。傳統(tǒng)語(yǔ)音合成需要進(jìn)行大量的特征處理和特征構(gòu)建,但百度通過(guò)使用深度學(xué)習(xí)避免了這些問(wèn)題。這使得DeepVoice的應(yīng)用范圍更加廣泛,使用起來(lái)也更加方便。如果需要應(yīng)用于新的數(shù)據(jù)集,傳統(tǒng)的語(yǔ)音合成系統(tǒng)完成重新訓(xùn)練需數(shù)天到數(shù)周的時(shí)間進(jìn)行調(diào)節(jié),而對(duì)DeepVoice進(jìn)行手動(dòng)操作和訓(xùn)練模型所需的時(shí)間只要幾個(gè)小時(shí)就足夠。相比于WaveNet語(yǔ)音合成系統(tǒng),現(xiàn)在這個(gè)系統(tǒng)的有效速度提升了400倍。

(4)兩個(gè)端對(duì)端的語(yǔ)音合成

第一個(gè)是Char2Wav,這個(gè)模型是直接對(duì)輸入的文本進(jìn)行編碼,采用encoder-decoder模型。對(duì)輸入特征進(jìn)行編碼,然后生成的中間編碼信息放到解碼器里進(jìn)行最后的合成,合成采用SimpleRNN的合成器來(lái)合成語(yǔ)音,效果也是比較理想的,而且是典型的End-To-End的語(yǔ)音合成模型。

再一個(gè)是谷歌提出的端對(duì)端的語(yǔ)音合成系統(tǒng),它跟Char2Wav比較類似,輸入的也是Embeddings,合成的效果也比較理性。

免責(zé)聲明:本網(wǎng)部分文章和信息來(lái)源于互聯(lián)網(wǎng),本網(wǎng)轉(zhuǎn)載出于傳遞更多信息和學(xué)習(xí)之目的。如轉(zhuǎn)載稿涉及版權(quán)等問(wèn)題,請(qǐng)立即聯(lián)系網(wǎng)站所有人,我們會(huì)予以更改或刪除相關(guān)文章,保證您的權(quán)利。