-
题名基于BERT的端到端语音合成方法
被引量:10
- 1
-
-
作者
安鑫
代子彪
李阳
孙晓
任福继
-
机构
合肥工业大学计算机与信息学院
合肥工业大学情感计算与先进智能机器安徽省重点实验室
-
出处
《计算机科学》
CSCD
北大核心
2022年第4期221-226,共6页
-
基金
国家自然科学基金联合资助项目(U1613217)
安徽省重点研究与开发计划项目(202004d07020004)
中央高校基本科研业务专项资金(JZ2020YYPY0092)。
-
文摘
针对基于RNN的神经网络语音合成模型训练和预测效率低下以及长距离信息丢失的问题,提出了一种基于BERT的端到端语音合成方法,在语音合成的Seq2Seq架构中使用自注意力机制(Self-Attention Mechanism)取代RNN作为编码器。该方法使用预训练好的BERT作为模型的编码器(Encoder)从输入的文本内容中提取上下文信息,解码器(Decoder)采用与语音合成模型Tacotron2相同的架构输出梅尔频谱,最后使用训练好的WaveGlow网络将梅尔频谱转化为最终的音频结果。该方法在预训练BERT的基础上通过微调适配下游任务来大幅度减少训练参数和训练时间。同时,借助其自注意力(Self-Attention)机制还可以并行计算编码器中的隐藏状态,从而充分利用GPU的并行计算能力以提高训练效率,并能有效缓解远程依赖问题。与Tacotron2模型的对比实验表明,文中提出的模型能够在得到与Tacotron2模型相近效果的基础上,把训练速度提升1倍左右。
-
关键词
语音合成
循环神经网络
Seq2Seq
waveglow
注意力机制
-
Keywords
Speech synthesis
Recurrent neural network(RNN)
Seq2Seq
waveglow
Attention mechanism
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名一种基于改进注意力机制的实时鲁棒语音合成方法
被引量:1
- 2
-
-
作者
唐君
张连海
李嘉欣
-
机构
中国人民解放军战略支援部队信息工程大学信息系统工程学院
-
出处
《信号处理》
CSCD
北大核心
2022年第3期527-535,共9页
-
基金
国家自然科学基金资助项目(61673395)。
-
文摘
针对现有的语音合成系统Tacotron 2中存在的注意力模型学习慢、合成语音不够鲁棒以及合成语音速度较慢等问题,提出了三点改进措施:1.采用音素嵌入作为输入,以减少一些错误发音问题;2.引入一种注意力损失来指导注意力模型的学习,以实现其快速、准确的学习能力;3.采用WaveGlow模型作为声码器,以加快语音生成的速度。在LJSpeech数据集上的实验表明,改进后的网络提高了注意力学习的速度和精度,合成语音的错误率相比基线降低了33.4%;同时,整个网络合成语音的速度相比之下提升约523倍,实时因子(Real Time Factor,RTF)为0.96,满足实时性的要求;此外,在语音质量方面,合成语音的平均主观意见分(Mean Opinion Score,MOS)达到3.88。
-
关键词
语音合成
注意力损失机制
Tacotron
2
waveglow
序列到序列
-
Keywords
speech synthesis
attention loss mechanism
Tacotron 2
waveglow
sequence to sequence
-
分类号
TN912.33
[电子电信—通信与信息系统]
-