您的位置: 专家智库 > >

林煜熙

作品数:5 被引量:25H指数:2
供职机构:苏州大学计算机科学与技术学院更多>>
发文基金:江苏省高校自然科学研究项目江苏省自然科学基金更多>>
相关领域:自动化与计算机技术语言文字更多>>

文献类型

  • 2篇期刊文章
  • 2篇会议论文

领域

  • 3篇自动化与计算...
  • 1篇语言文字

主题

  • 2篇登录
  • 2篇统计信息
  • 2篇中文
  • 2篇未登录词
  • 2篇未登录词识别
  • 1篇信息处理
  • 1篇译评
  • 1篇语言模型
  • 1篇中文文档
  • 1篇中文信息
  • 1篇中文信息处理
  • 1篇文档
  • 1篇介数
  • 1篇计算机
  • 1篇计算机应用
  • 1篇翻译
  • 1篇翻译评价
  • 1篇N-GRAM

机构

  • 4篇苏州大学
  • 1篇江苏省现代企...

作者

  • 4篇姚建民
  • 4篇林煜熙
  • 3篇韩艳
  • 1篇梁颖红
  • 1篇潘璐
  • 1篇张永刚

传媒

  • 1篇微电子学与计...
  • 1篇中文信息学报

年份

  • 2篇2009
  • 1篇2008
  • 1篇2007
5 条 记 录,以下是 1-4
排序方式:
基于统计信息的未登录词的扩展识别方法被引量:18
2009年
该文提出一种基于网络资源的未登录词的扩展识别方法。该方法以左右邻信息判断未登录词边界为基础对已识别出的二元候选未登录词种子进行扩展,从而得到不限长度的语义更完整的未登录词。实验证明该文方法可行有效。
韩艳林煜熙姚建民
关键词:计算机应用中文信息处理未登录词识别
基于统计信息的未登录词的扩展识别方法
本文提出一种基于网络资源的未登录词的扩展识别方法。该方法以左右邻信息判断未登录词边界为基础对已识别出的二元候选未登录词种子进行扩展,从而得到不限长度的语义更完整的未登录词。实验证明本文方法可行有效。
韩艳林煜熙姚建民
关键词:未登录词识别
文献传递
基于加权复杂网络的中文文档关键短语抽取被引量:6
2009年
提出了基于加权复杂网络的中文文档关键短语抽取方法.在识别完整短语后,将单个文档构建成一个语义复杂网络,同时加以共现信息对网络予以权重.之后进行网络分离,计算主体网络节点的加权点度中心度,同时提出基于边界节点的介数,解决了介数计算量大的问题.最后结合加权点度中心度和基于边界节点的介数抽取出关键短语,表现出良好的抽取效果,对利用复杂网络抽取关键短语有很好的指导作用.
林煜熙梁颖红韩艳张永刚姚建民
关键词:介数
基于语言模型自动评价翻译质量方法
机器翻译质量的评价研究是近年自然语言处理研究的热点之一, 对翻译系统的开发有重要的方向指导意义。本文以基于实例的翻译质量评价为目标,根据问题的特殊性提出了基于 N 元语言模型的方法。实验表明该方法具有较高的评价精确度。
潘璐林煜熙姚建民
关键词:翻译评价语言模型
文献传递
共1页<1>
聚类工具0