期刊文献+

基于最大间隔马尔可夫网模型的汉语分词方法 被引量:8

Maximum Margin Markov Networks-Based Chinese Word Segmentation Method
下载PDF
导出
摘要 分词是汉语自然语言处理研究中非常重要的一个环节,在早先的研究中,最大熵模型和条件随机场(CRF)模型已经广泛运用到汉语自动分词的工作中。最大间隔马尔可夫网(M3N)模型是近年来由B.Taskar等[1]人提出的一种新型结构学习模型。该文尝试将这一模型用于汉语分词建模并进行实验,实验结果显示,基于给定的训练语料与测试语料,分词精度可以达到95%,表明基于最大间隔马尔科夫网的汉语分词方法可以取得较高的分词精度,是一种有效的汉语分词方法。 Chinese Word Segmentation is a crucial step in the study of Chinese Natural Language Processing (NLP). In previous researches, the Maximum Entropy model and Conditional Random Field(CRF) model have been widely used in the study of Chinese Word Segmentation. ]n this paper, we will apply the M3N(Max Margin Markov Networks) model, a structural model introduced by B. Taskar, to Chinese Word Segmentation. Experiments based on certain training and testing corpus show that the M3N is a very useful Chinese Word Segmentation Method with a fairly high precision of 95 %.
出处 《中文信息学报》 CSCD 北大核心 2010年第1期8-14,共7页 Journal of Chinese Information Processing
基金 国家自然科学基金资助项目(60975054 60303003) 国家社会科学基金资助项目(06BYY048)
关键词 计算机应用 中文信息处理 最大间隔马尔可夫网模型 汉语分词 机器学习 computer application Chinese information processing maximum margin Markov networks(M3N) Chinese Word Segmentation(CWS) machine learning
  • 相关文献

参考文献7

二级参考文献27

共引文献298

同被引文献49

引证文献8

二级引证文献72

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部