期刊文献+

基于Lucene的中文字典分词模块的设计与实现 被引量:27

Design and Implementation of Chinese Words Dictionary Segmentation Module Based on Lucene
下载PDF
导出
摘要 在分析Lucene语言分析器结构的基础上,采用基于中文字典的正向最大匹配分词算法,设计实现能够在基于Lucene的搜索引擎中处理中文信息的中文分词模块。 This paper introduces the construction of language analyzer in Lucene, designs and implements Chinese words segmentation module which uses forwards maximum match algorithm (FMM). This module can disposes Chinese information well and efficiently in the search engine based on Lucene.
出处 《现代图书情报技术》 CSSCI 北大核心 2006年第8期46-50,共5页 New Technology of Library and Information Service
关键词 搜索引擎 LUCENE 中文分词 正向最大匹配算法 Search engine Lucene Chinese words segmentation Forwards maximum match algorithm
  • 相关文献

参考文献5

二级参考文献36

共引文献242

同被引文献153

引证文献27

二级引证文献123

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部