-
题名汉语文本-可视语音转换的研究
被引量:9
- 1
-
-
作者
王志明
蔡莲红
吴志勇
陶建华
-
机构
清华大学计算机科学与技术系
-
出处
《小型微型计算机系统》
CSCD
北大核心
2002年第4期474-477,共4页
-
基金
高校博士点基金 ( 2 0 0 10 0 0 30 49)资助项目
-
文摘
本文通过对发音者可见器官动作的研究 ,从视觉方面抽取汉语发音的 2 6个基本口形 ,并利用 MPEG- 4所规定的面部动画参数 (FAP)来描述这些口形 ,从而获得了符合国际标准的描述汉语发音的视觉参数 .另外 ,我们研究了这些参数在连续语流中的变化及协同发音对口形的影响 ,基于已有的汉语文语转换系统 (Sonic)和二维网格人脸模型(Plane Face)实现了一个汉语文本 -可视语音转换系统 (TTVS)
-
关键词
视觉语音
汉语文本-可视语音转换系统
协同发音
汉字信息处理
-
Keywords
visual speech
facial animation parameter(FAP)
text-to-speech(TTS)
text-to -audioVisual speech(ttvs)
coarticulation
-
分类号
TP391.12
[自动化与计算机技术—计算机应用技术]
-
-
题名文本-视觉语音合成综述
被引量:5
- 2
-
-
作者
王志明
陶建华
-
机构
北京科技大学计算机科学与技术系
中国科学院自动化研究所模式识别国家重点实验室
-
出处
《计算机研究与发展》
EI
CSCD
北大核心
2006年第1期145-152,共8页
-
基金
北京科技大学校科研基金项目(20040509190)
中国科学院自动化研究所模式识别国家重点实验室开放课题基金项目
-
文摘
视觉信息对于理解语音的内容非常重要·不只是听力有障碍的人,普通人在交谈过程中也存在着一定程度的唇读,尤其是在语音质量受损的噪声环境下·正如文语转换系统可以使计算机像人一样讲话,文本-视觉语音合成系统可以使计算机模拟人类语音的双模态性,让计算机界面变得更为友好·回顾了文本-视觉语音合成的发展·文本驱动的视觉语音合成的实现方法可以分为两类:基于参数控制的方法和基于数据驱动的方法·详细介绍了参数控制类中的几个关键问题和数据驱动类中的几种不同实现方法,比较了这两类方法的优缺点及不同的适用环境·
-
关键词
文本-视觉语音合成(ttvs)
视位
协同发音
人脸模型
人脸动画
-
Keywords
text-to-visual speech (ttvs)
viseme
co-articulation
face model
facial animation
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名基于剧本驱动的双主体可视语音研究
- 3
-
-
作者
姚军
杨志晓
-
机构
河南工业大学信息科学与工程学院
-
出处
《计算机与数字工程》
2009年第2期76-78,148,共4页
-
文摘
提出了基于剧本驱动的双主体可视语音的概念。传统的文本信息很难表达文本所包含的全部信息。将普通的文本转换为剧本,同时将文字语音化,把隐含在文字中的非语言信息,通过虚拟机器人以适当的肢体语言表达出来。虚拟机器人是剧本信息提供者的主体。通过提供者的主体,以剧本为驱动能更好的传达隐含在文本中的非语言信息,提高文本传输的效率。
-
关键词
剧本
化身
虚拟机器人
非语言信息
可视语音
-
Keywords
script, avatar, virtual robot, nonverbal information, text-to-visual speech (ttvs)
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-