您的位置: 专家智库 > >

周祥增

作品数:5 被引量:2H指数:1
供职机构:西北工业大学计算机学院陕西省语音与图像信息处理重点实验室更多>>
发文基金:陕西省自然科学基金陕西省科学技术研究发展计划项目国家自然科学基金更多>>
相关领域:电子电信自动化与计算机技术更多>>

文献类型

  • 4篇会议论文
  • 1篇期刊文章

领域

  • 4篇电子电信
  • 1篇自动化与计算...

主题

  • 5篇语音
  • 3篇语音合成
  • 3篇语音驱动
  • 3篇可视语音
  • 3篇可视语音合成
  • 2篇语音识别

机构

  • 5篇西北工业大学

作者

  • 5篇张艳宁
  • 5篇谢磊
  • 5篇周祥增
  • 3篇付中华
  • 3篇李冰锋

传媒

  • 1篇清华大学学报...

年份

  • 5篇2011
5 条 记 录,以下是 1-5
排序方式:
基于多置信特征融合语音识别拒识算法的设计与实现
牛建伟谢磊路晓明周祥增张艳宁
关键词:语音识别
基于多置信特征融合语音识别拒识算法的设计与实现
牛建伟谢磊路晓明周祥增张艳宁
关键词:语音识别
实时语音驱动的虚拟说话人被引量:2
2011年
该文实现了一个实时语音驱动的虚拟说话人面部动画方案。随着语音信号的输入,同步生成对应的面部动画。这种实时语音驱动的虚拟说话人在可视电话、虚拟会议、音视频聊天等即时通讯与娱乐媒体领域具有巨大的应用潜力。由于音素是最小的可分发音单元,因此构建音素识别器,对输入语音信号进行实时音素识别。为提高语音与口型的同步效果,改进了音素识别与输出算法。考虑协同发音影响,利用动态视素生成算法,将识别得到的音素转化为对应的面部动画参数序列。最后用参数序列驱动按照MPEG-4面部动画标准参数化的3-D头部模型,实现面部动画的同步生成。主观MOS评测结果表明:本文所实现的实时语音驱动虚拟说话人在的同步性和逼真度上的MOS评分分别达到了3.42和3.50。
李冰锋谢磊周祥增付中华张艳宁
关键词:可视语音合成
实时语音驱动的虚拟说话人
该文实现了一个实时语音驱动的虚拟说话人面部动画方案。随着语音信号的输入,同步生成对应的面部动画。这种实时语音驱动的虚拟说话人在可视电话、虚拟会议、音视频聊天等即时通讯与娱乐媒体领域具有巨大的应用潜力。由于音素是最小的可分...
李冰锋谢磊周祥增付中华张艳宁
关键词:可视语音合成
文献传递
实时语音驱动的虚拟说话人
李冰锋谢磊周祥增付中华张艳宁
关键词:可视语音合成
共1页<1>
聚类工具0