期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
易混淆语音特征提取方法的研究
1
作者 武玉峰 张玲华 颜永红 《南京邮电大学学报(自然科学版)》 2010年第2期85-88,共4页
在语音识别系统中,易混淆语音是导致系统识别率下降的重要原因。汉语音节是由声母和韵母组成的,在易混淆语音中,其韵母部分的混淆度很大。针对易混淆语音的韵母部分,通过改进特征提取的方法来提高易混韵母之间的区分度,提出了一种基于... 在语音识别系统中,易混淆语音是导致系统识别率下降的重要原因。汉语音节是由声母和韵母组成的,在易混淆语音中,其韵母部分的混淆度很大。针对易混淆语音的韵母部分,通过改进特征提取的方法来提高易混韵母之间的区分度,提出了一种基于小波分解和线性预测(WLPC)的特征提取方法,并用局部保持映射(Locality Preserving Projections)算法对提取的特征进行了特征变换。实验结果显示,与传统的MFCC特征相比,该特征能更好的区分不同的韵母。 展开更多
关键词 小波变换 局部保持映射 混淆语音
下载PDF
汉语数码语音识别:发展现状、难点分析与方法比较 被引量:12
2
作者 顾良 刘润生 《电路与系统学报》 CSCD 1997年第4期32-39,共8页
本文简述了汉语数码语音识别的发展与现状,分析了汉语数码语音识别的混淆度现象及其它困难,比较了各种实现方法,介绍了作者在实验基础上确定的一些基本参数,指出了若干改进方向。
关键词 汉语 数码语音识别 特征提取 语音混淆
下载PDF
中文双音节词视觉识别与短时记忆保持量 被引量:5
3
作者 张武田 冯玲 《心理学报》 CSSCI CSCD 北大核心 1990年第4期49-56,共8页
两个实验探讨了汉语双音节词的使用度、笔画复杂性与发音长短对短时记忆保持量的影响。结果表明发音长度显著不同的词在记忆保持量上无显著差别;使用度和笔画复杂性对短时记忆保持量有显著影响;笔画复杂性不同的词识别时间与其记忆保持... 两个实验探讨了汉语双音节词的使用度、笔画复杂性与发音长短对短时记忆保持量的影响。结果表明发音长度显著不同的词在记忆保持量上无显著差别;使用度和笔画复杂性对短时记忆保持量有显著影响;笔画复杂性不同的词识别时间与其记忆保持量有显著负相关。最后讨论了笔画复杂性的短时记忆量与词的识别阶段的可能关系。 展开更多
关键词 笔画复杂性 短时记忆容量 记忆保持 记忆量 显著差异 变异数分析 显著影响 负相关 使用度 语音混淆
下载PDF
基于HMM/SVM两级结构的汉语易混淆语音识别 被引量:4
4
作者 王欢良 韩纪庆 +1 位作者 李海峰 郑铁然 《模式识别与人工智能》 EI CSCD 北大核心 2006年第5期578-584,共7页
基于 HMM 的汉语语音识别中,易混淆语音的识别率仍然不高.在分析 HMM 固有缺陷的基础上,本文提出一种使用 SVM 在 HMM 系统上进行二次识别来提高易混淆语音识别率的方法.通过引入置信度估计环节,提高系统性能和效率.通过充分利用 Viter... 基于 HMM 的汉语语音识别中,易混淆语音的识别率仍然不高.在分析 HMM 固有缺陷的基础上,本文提出一种使用 SVM 在 HMM 系统上进行二次识别来提高易混淆语音识别率的方法.通过引入置信度估计环节,提高系统性能和效率.通过充分利用 Viterbi 解码获得的信息来构造新的分类特征,从而解决标准 SVM 难以处理可变长数据的问题.详细探讨这种两级识别结构中置信度估计、分类特征提取和 SVM 识别器构造等问题.语音识别实验的结果显示,与采用 HMM/SVM 混合结构的模型相比,本文方法在对识别速度影响很小的情况下可以使识别率有明显提高.这表明所提出的具有置信估计环节的 HMM/SVM 两级结构用于易混淆语音识别是可行的. 展开更多
关键词 语音识别 混淆语音 隐马尔可夫模型(HMM) 支持向量机
原文传递
COMPARISON OFEMA-SYNCHRONIZED AND STAND-ALONE SPEECH BASED ON SPEECH RECOGNITION
5
作者 FANG Qiang 《中国语音学报》 2023年第2期167-176,共10页
Synchronized acoustic-articulatory data is the basis of various applications,such as exploring the fundamental mechanisms of speech production,acoustic to articulatory inversion(AAI),and articulatory to acoustic mappi... Synchronized acoustic-articulatory data is the basis of various applications,such as exploring the fundamental mechanisms of speech production,acoustic to articulatory inversion(AAI),and articulatory to acoustic mapping(AAM).Numerous studies have been conducted based on the synchronized ElectroMagnetic Articulograhy(EMA)data and acoustic data.Hence,it is necessary to make clear whether the EMA-synchronized speech and stand-alone speech are different,and if so,how it affects the performance of the applications that are based on synchronized acoustic-articulatory data.In this study,we compare the differences between EMA-synchronized speech and stand-alone speech from the aspect of speech recognition based on the data of a male speaker.It is found that:i)the general error rate of EMA-synchronized speech is much higher than that of stand-alone speech;ii)apical vowels and apical/blade consonants are more significantly affected by the presence of EMA coils;iii)parts of vowel and consonant tokens are confused with the sounds who use the same articulator or the articulators nearby,such as confusion among apical vowels and confusion among apical and blade consonants;iv)the confusion of labial tokens demonstrates a diverse pattern. 展开更多
关键词 EMA-synchronized speech Stand-alone speech Speech recognition Confusion matrix
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部