期刊文献+
共找到1,187篇文章
< 1 2 60 >
每页显示 20 50 100
中文工艺规范文本分词语料的构建与研究
1
作者 王裴岩 张莹欣 +3 位作者 付小强 陈佳欣 徐楠 蔡东风 《计算机科学》 CSCD 北大核心 2023年第S02期63-68,共6页
中文分词是处理工艺规范文本的一项基本任务,并且在工艺知识图谱与智能问答等下游任务中发挥着重要作用。工艺规范文本分词面临的一个挑战是缺乏高质量标注的语料,特别是面向术语、名词短语、工艺参数、数量词等特殊语言现象的分词规范... 中文分词是处理工艺规范文本的一项基本任务,并且在工艺知识图谱与智能问答等下游任务中发挥着重要作用。工艺规范文本分词面临的一个挑战是缺乏高质量标注的语料,特别是面向术语、名词短语、工艺参数、数量词等特殊语言现象的分词规范。文中面向工艺规范文本制定了专用分词规范,收集并标注了一个中文工艺规范文本分词语料(WS-MPST),含11900个句子与255160个词,4名标注者分词标注一致性达95.25%。在WS-MPST语料上对著名的BiLSTM-CRF与BERT-CRF模型进行了对比实验,F1值分别达到92.61%与93.69%。实验结果表明,构建专用的工艺规范分词语料是必要的。对实验结果的深入分析揭示了未登录词与中文非中文字符混合构成的词是工艺规范文本分词的难点,也为今后工艺规范文本及相关领域的分词研究提供了一定的指导。 展开更多
关键词 中文分词 工艺规范文本 分词规范 分词语料 分词模型
下载PDF
中文分词技术研究进展综述 被引量:7
2
作者 钟昕妤 李燕 《软件导刊》 2023年第2期225-230,共6页
中文分词作为实现机器处理中文的一项基础任务,是近几年的研究热点之一。其结果对后续处理任务具有深远影响,具备充分的研究意义。通过对近5年分词技术研究文献的综合分析,明晰后续研究将以基于神经网络模型的融合方法为主导,进一步追... 中文分词作为实现机器处理中文的一项基础任务,是近几年的研究热点之一。其结果对后续处理任务具有深远影响,具备充分的研究意义。通过对近5年分词技术研究文献的综合分析,明晰后续研究将以基于神经网络模型的融合方法为主导,进一步追求更精准高效的分词表现。而在分词技术的发展与普及应用中,亦存在着制约其性能的各项瓶颈。除传统的歧义和未登录词问题外,分词还面临着语料规模质量依赖和多领域分词等新难题,针对这些新问题的突破研究将成为后续研究的重点之一。 展开更多
关键词 中文分词 深度学习 语料依赖 多领域分词
下载PDF
基于BiLSTM-CRF的中文分词和词性标注联合方法 被引量:2
3
作者 袁里驰 《中南大学学报(自然科学版)》 EI CAS CSCD 北大核心 2023年第8期3145-3153,共9页
针对中文分词、词性标注等序列标注任务,提出结合双向长短时记忆模型、条件随机场模型和马尔可夫族模型或树形概率构建的中文分词和词性标注联合方法。隐马尔可夫词性标注方法忽略了词本身到词性的发射概率。在基于马尔可夫族模型或树... 针对中文分词、词性标注等序列标注任务,提出结合双向长短时记忆模型、条件随机场模型和马尔可夫族模型或树形概率构建的中文分词和词性标注联合方法。隐马尔可夫词性标注方法忽略了词本身到词性的发射概率。在基于马尔可夫族模型或树形概率的词性标注中,当前词的词性不但与前面词的词性有关,而且与当前词本身有关。使用联合方法有助于使用词性标注信息实现分词,有机地将两者结合起来有利于消除歧义和提高分词、词性标注任务的准确率。实验结果表明:本文使用的中文分词和词性标注联合方法相比于通常的双向长短时记忆模型−条件随机场分词模型能够大幅度提高分词的准确率,并且相比于传统的隐马尔可夫词性标注方法能够大幅度提高词性标注的准确率。 展开更多
关键词 双向长短时记忆模型 中文分词 词性标注 马尔可夫族模型 树形概率
下载PDF
基于BERT-BiLSTM-CRF的中文分词和词性标注联合方法 被引量:2
4
作者 袁里驰 《小型微型计算机系统》 CSCD 北大核心 2023年第9期1906-1911,共6页
针对中文分词、词性标注等序列标注任务,本文提出了结合BERT语言模型、BiLSTM(双向长短时记忆模型)、CRF(条件随机场模型)和马尔可夫族模型(MFM)或树形概率(TLP)构建的中文分词和词性标注联合方法.隐马尔可夫(HMM)词性标注方法忽略了词... 针对中文分词、词性标注等序列标注任务,本文提出了结合BERT语言模型、BiLSTM(双向长短时记忆模型)、CRF(条件随机场模型)和马尔可夫族模型(MFM)或树形概率(TLP)构建的中文分词和词性标注联合方法.隐马尔可夫(HMM)词性标注方法忽略了词本身到词性的发射概率,而在利用树形概率或马尔可夫族统计模型的词性标记中,一个词的词性不仅和该词前一个词的词性关联,且与该词自身关联.使用联合方法有助于使用词性信息帮助分词,将两者紧密结合能够帮助消除歧义和改进分词、词性标记的性能.实验结果表明本文使用的中文分词和词性标注联合方法与普通的BiLSTM-CRF分词算法相比,可以明显提升分词性能,而且相比于通常的隐马尔可夫词性标注方法能够大幅度提高词性标注的准确率. 展开更多
关键词 BERT 双向长短时记忆模型 中文分词 词性标注 马尔可夫族模型 树形概率
下载PDF
基于改进BERT的电力领域中文分词方法 被引量:1
5
作者 夏飞 陈帅琦 +1 位作者 华珉 蒋碧鸿 《计算机应用》 CSCD 北大核心 2023年第12期3711-3718,共8页
针对电力领域中文文本包含大量专有词时分词效果不佳的问题,提出一种基于改进BERT(Bidirectional Encoder Representation from Transformers)的电力领域中文分词(CWS)方法。首先,构建分别涵盖通用、领域词的词典,并设计双词典匹配融合... 针对电力领域中文文本包含大量专有词时分词效果不佳的问题,提出一种基于改进BERT(Bidirectional Encoder Representation from Transformers)的电力领域中文分词(CWS)方法。首先,构建分别涵盖通用、领域词的词典,并设计双词典匹配融合机制将词特征直接融入BERT模型,使模型更有效地利用外部知识;其次,通过引入DEEPNORM方法提高模型对于特征的提取能力,并使用贝叶斯信息准则(BIC)确定模型的最佳深度,使BERT模型稳定加深至40层;最后,采用ProbSparse自注意力机制层替换BERT模型中的经典自注意力机制层,并利用粒子群优化(PSO)算法确定采样因子的最优值,在降低模型复杂度的同时确保模型性能不变。在人工标注的电力领域专利文本数据集上进行了分词性能测试。实验结果表明,所提方法在该数据集分词任务中的F1值达到了92.87%,相较于隐马尔可夫模型(HMM)、多标准分词模型METASEG(pre-training model with META learning for Chinese word SEGmentation)与词典增强型BERT(LEBERT)模型分别提高了14.70、9.89与3.60个百分点,验证了所提方法有效提高了电力领域中文文本的分词质量。 展开更多
关键词 中文分词 领域分词 改进BERT 电力文本 深度学习 自然语言处理
下载PDF
基于中文分词的中国共产党人的精神谱系价值意蕴分析研究 被引量:1
6
作者 王金虹 《西部学刊》 2023年第6期5-8,共4页
基于大数据视角,运用中文分词技术对中国共产党人的精神谱系的核心要义和价值意蕴进行分析,通过定义停用词、需去除的标点符号、编码规则和新词的方法构建分析模型,进行数据采集、数据预处理和分词与可视化分析,得出中国共产党人的精神... 基于大数据视角,运用中文分词技术对中国共产党人的精神谱系的核心要义和价值意蕴进行分析,通过定义停用词、需去除的标点符号、编码规则和新词的方法构建分析模型,进行数据采集、数据预处理和分词与可视化分析,得出中国共产党人的精神谱系高频词频次表、词云图和各个历史时期高频词频次表、词云图,进一步揭示了中国共产党人的精神谱系具有内在稳定性、时代适用性的特征和育人价值。 展开更多
关键词 政治品格 建党精神 精神谱系 大数据 中文分词
下载PDF
基于注意力增强与特征融合的中文医学实体识别
7
作者 王晋涛 秦昂 +4 位作者 张元 陈一飞 王廷凤 谢承霖 邹刚 《计算机工程》 CAS CSCD 北大核心 2024年第7期324-332,共9页
针对基于字符表示的中文医学领域命名实体识别模型嵌入形式单一、边界识别困难、语义信息利用不充分等问题,一种非常有效的方法是在Bret底层注入词汇特征,在利用词粒度语义信息的同时降低分词错误带来的影响,然而在注入词汇信息的同时... 针对基于字符表示的中文医学领域命名实体识别模型嵌入形式单一、边界识别困难、语义信息利用不充分等问题,一种非常有效的方法是在Bret底层注入词汇特征,在利用词粒度语义信息的同时降低分词错误带来的影响,然而在注入词汇信息的同时也会引入一些低相关性的词汇和噪声,导致基于注意力机制的Bret模型出现注意力分散的情况。此外仅依靠字、词粒度难以充分挖掘中文字符深层次的语义信息。对此,提出基于注意力增强与特征融合的中文医学实体识别模型,对字词注意力分数矩阵进行稀疏处理,使模型的注意力集中在相关度高的词汇,能够有效减少上下文中的噪声词汇干扰。同时,对汉字发音和笔画通过卷积神经网络(CNN)提取特征,经过迭代注意力特征融合模块进行融合,然后与Bret模型的输出特征进行拼接输入给Bi LSTM模型,进一步挖掘字符所包含的深层次语义信息。通过爬虫等方式搜集大量相关医学语料,训练医学领域词向量库,并在CCKS2017和CCKS2019数据集上进行验证,实验结果表明,该模型F1值分别达到94.90%、89.37%,效果优于当前主流的实体识别模型,具有更好的识别效果。 展开更多
关键词 实体识别 中文分词 注意力稀疏 特征融合 医学词向量库
下载PDF
句法依存引导的自注意力机制的中文分词
8
作者 周保途 《计算机系统应用》 2023年第9期265-271,共7页
在前人工作的基础上,提出句法依存引导的自注意力机制以融合句法依存知识去提升中文分词的性能,使得自注意力机制只关注那些对当前字符的分词标签有句法依存影响的字符,学习它们对于当前字符的影响程度,另外,该文根据句法依存树对引导... 在前人工作的基础上,提出句法依存引导的自注意力机制以融合句法依存知识去提升中文分词的性能,使得自注意力机制只关注那些对当前字符的分词标签有句法依存影响的字符,学习它们对于当前字符的影响程度,另外,该文根据句法依存树对引导后的自注意力机制进行位置编码.实验结果表明,模型相较于baseline取得了性能上的提升,同时模型对未登录词的识别能力也有所提升. 展开更多
关键词 句法依存 位置编码 自注意力机制 中文分词
下载PDF
一种中文分词的预处理技术
9
作者 陈书雨 曹集翔 姚寒冰 《计算机时代》 2023年第5期123-126,共4页
分析基于词表的最大匹配分词算法,针对其缺陷设计了一个附近字表,内容为高频字在词表中出现的左边首字和右边首字。设计的算法根据高频词的特点,将句子尽可能多的分成段,然后将段进行最大匹配。当发现句子中高频词时,只取句子中高频词... 分析基于词表的最大匹配分词算法,针对其缺陷设计了一个附近字表,内容为高频字在词表中出现的左边首字和右边首字。设计的算法根据高频词的特点,将句子尽可能多的分成段,然后将段进行最大匹配。当发现句子中高频词时,只取句子中高频词的左边首字和右边首字在附近字表中查找;若未找到,则表示句子中此高频字单独成词,无需在词表中匹配,从而减少高频字单独成词时的匹配时间,进而减少整个分词过程的时间。通过实验证明此技术能提高中文分词的效率。 展开更多
关键词 高频词 预处理 中文分词
下载PDF
基于jieba中文分词的电力客户精准分类方法
10
作者 高攀 李飞 +2 位作者 彭远豪 张璨辉 彭海君 《湖南电力》 2023年第5期151-154,共4页
针对电力营销中基础数据中的客户细分,提出一种基于jieba中文分词实现大客户精准分类的方法。首先构建包含客户基本类别的自定义字典,利用jieba分词对文本数据完成分词;其次,基于分词结果中的高频词和关键词,分析统计部分分类规律、构... 针对电力营销中基础数据中的客户细分,提出一种基于jieba中文分词实现大客户精准分类的方法。首先构建包含客户基本类别的自定义字典,利用jieba分词对文本数据完成分词;其次,基于分词结果中的高频词和关键词,分析统计部分分类规律、构建分类特征库,将分类特征库作为神经网络预训练模型的输入,训练客户分类的神经网络模型,最终输出电力客户的精准分类结果。该方法解决电力系统数据库中用户类别不清晰或分类方法过于复杂的问题,为电力公司制定客户差异化服务提供基础。 展开更多
关键词 客户分类 中文分词 jieba 神经网络
下载PDF
中文分词技术在气象预警发布质量控制中的应用
11
作者 方楠 黄清瀚 +2 位作者 丁雨鑫 袁超 张少华 《浙江气象》 2023年第4期38-44,共7页
气象预警信号作为向社会公众和应急责任人发布的第一手气象风险资讯,受到社会各个方面广泛的关注与认可,其成为气象防灾减灾“发令枪”的作用愈发凸显。准确、及时地发布气象预警信号是预警发布工作的基本要求。目前浙江省气象预警信号... 气象预警信号作为向社会公众和应急责任人发布的第一手气象风险资讯,受到社会各个方面广泛的关注与认可,其成为气象防灾减灾“发令枪”的作用愈发凸显。准确、及时地发布气象预警信号是预警发布工作的基本要求。目前浙江省气象预警信号发布质量与筑牢气象防灾减灾“第一道防线”的要求仍存在一定差距,设计一套能够全面、智能监控预警发布质量的方法是预警发布业务急需解决的问题。选取浙江省2016-2021年历史气象预警信号作为研究样本,通过中文自然语言处理的分词技术将预警内容拆分成词汇单元,分地区、分灾种提取历史预警中的词频特征,设计预警常用词质控逻辑,实现对气象预警信号中的错误词汇、不完整词汇等质量问题的自动判别,进一步提升气象预警发布质量控制能力。 展开更多
关键词 中文分词 气象预警信号 质量控制 自然语言处理
下载PDF
基于二阶隐马尔可夫模型的中文分词在文本情感分析中的应用
12
作者 李沅静 叶仁玉 冷婷 《安庆师范大学学报(自然科学版)》 2023年第3期44-48,共5页
传统一阶隐马尔可夫分词模型只考虑相邻变量间的条件概率,其在获取上下文信息方面潜力有限。基于此,本文利用二阶隐马尔可夫模型来充分联系上下文语义信息并对文本进行精确分词,同时提出了一种基于二阶隐马尔可夫模型的情感分析方法,可... 传统一阶隐马尔可夫分词模型只考虑相邻变量间的条件概率,其在获取上下文信息方面潜力有限。基于此,本文利用二阶隐马尔可夫模型来充分联系上下文语义信息并对文本进行精确分词,同时提出了一种基于二阶隐马尔可夫模型的情感分析方法,可以利用Baum-Welch算法对参数模型进行有效估计。实证结果表明,该方法的情感分类准确率达到72.23%,比一阶隐马尔可夫模型方法高出0.95%。 展开更多
关键词 文本情感分析 中文分词 二阶隐马尔可夫模型 Baum-Welch算法
下载PDF
基于中文分词算法和众包协同的高校课程思政资源共享与互助系统
13
作者 张露 童颖佳 马华 《现代计算机》 2023年第14期91-95,共5页
近年来,广大高校教师积极参与“课程思政”教改实践,但却经常面临创新思路单一、参考资源查找效率低、教学资源制作的技能和精力不足等困扰。针对现有研究的不足,设计并实现了一个基于中文分词算法和众包协同的高校课程思政资源共享与... 近年来,广大高校教师积极参与“课程思政”教改实践,但却经常面临创新思路单一、参考资源查找效率低、教学资源制作的技能和精力不足等困扰。针对现有研究的不足,设计并实现了一个基于中文分词算法和众包协同的高校课程思政资源共享与互助系统。该系统使用TF⁃IDF算法和众包机制来整合互联网上的课程思政资源,联结了多方平台和参与者,使用Spring Boot和Vue框架进行开发。该系统由协同互助、课程思政、讨论区、资源检索、个人中心等模块组成,可为高校教师提供课程思政教学的辅助支持,具有良好的应用价值。 展开更多
关键词 课程思政教学 资源共享与互助 中文分词算法 众包协同
下载PDF
基于BERT的电力领域无监督分词方法
14
作者 陆斯悦 张禄 +3 位作者 李香龙 邢其敬 段大鹏 林华 《信息技术》 2024年第1期96-103,共8页
目前,已有一些分词工具实现了通用领域分词,而在电力领域中进行分词面临相关文本少,缺乏已标注数据且人工标注工作成本高等问题。为了克服这些困难,提出了一种基于BERT特征编码的无监督分词工具,采用遮蔽语言模型(MLM),基于BERT计算部... 目前,已有一些分词工具实现了通用领域分词,而在电力领域中进行分词面临相关文本少,缺乏已标注数据且人工标注工作成本高等问题。为了克服这些困难,提出了一种基于BERT特征编码的无监督分词工具,采用遮蔽语言模型(MLM),基于BERT计算部分被遮蔽的句子的特征编码来度量句子各部分相似度,并将相似度较低的部分进行拆分,再通过N-Gram对于拆分结果进行重新组合,实现电力领域的无监督分词。实验结果表明,文中方法在通用领域优于现有分词工具,尤其在电力领域的分词任务中取得了较好的效果。 展开更多
关键词 电力文本 中文分词 无监督 BERT 遮蔽语言模型
下载PDF
基于LSTM网络的序列标注中文分词法 被引量:69
15
作者 任智慧 徐浩煜 +2 位作者 封松林 周晗 施俊 《计算机应用研究》 CSCD 北大核心 2017年第5期1321-1324,1341,共5页
当前主流的中文分词方法是基于字标注的传统机器学习方法,但传统机器学习方法需要人为地从中文文本中配置并提取特征,存在词库维度高且利用CPU训练模型时间长的缺点。针对以上问题进行了研究,提出基于LSTM(long short-term memory)网络... 当前主流的中文分词方法是基于字标注的传统机器学习方法,但传统机器学习方法需要人为地从中文文本中配置并提取特征,存在词库维度高且利用CPU训练模型时间长的缺点。针对以上问题进行了研究,提出基于LSTM(long short-term memory)网络模型的改进方法,采用不同词位标注集并加入预先训练的字嵌入向量(character embedding)进行中文分词。在中文分词评测常用的语料上进行实验对比结果表明,基于LSTM网络模型的方法能得到比当前传统机器学习方法更好的性能;采用六词位标注并加入预先训练的字嵌入向量能够取得相对最好的分词性能;而且利用GPU可以大大缩短深度神经网络模型的训练时间;LSTM网络模型的方法也更容易推广并应用到其他自然语言处理中序列标注的任务。 展开更多
关键词 中文分词 LSTM 字嵌入 自然语言处理
下载PDF
字典与统计相结合的中文分词方法 被引量:41
16
作者 翟凤文 赫枫龄 左万利 《小型微型计算机系统》 CSCD 北大核心 2006年第9期1766-1771,共6页
提出了一种字典与统计相结合的中文分词方法,该方法首先利用基于字典的分词方法进行第一步处理,然后利用统计的方法处理第一步所产生的歧义问题和未登录词问题.本算法在基于字典的处理过程中,通过改进字典的存储结构,提高了字典匹配的速... 提出了一种字典与统计相结合的中文分词方法,该方法首先利用基于字典的分词方法进行第一步处理,然后利用统计的方法处理第一步所产生的歧义问题和未登录词问题.本算法在基于字典的处理过程中,通过改进字典的存储结构,提高了字典匹配的速度;在基于统计的处理过程中,通过统计和规则相结合的方法提高了交集型歧义切分的准确率,并且一定条件下解决了语境中高频未登录词问题,实验结果表明,由本文算法实现的分词系统DS fenc i的分全率达99.52%,准确率达98.52%. 展开更多
关键词 中文分词 基于字典的分词 基于统计的分词 交集型分词歧义
下载PDF
一种改进的中文分词正向最大匹配算法 被引量:41
17
作者 王瑞雷 栾静 +1 位作者 潘晓花 卢修配 《计算机应用与软件》 CSCD 2011年第3期195-197,共3页
正向最大匹配分词FMM(Forward Maximum Matching)算法存在设定的最大词长初始值固定不变的问题,带来长词丢失或匹配次数较多的弊端。针对此问题提出了根据中文分词词典中的词条长度动态确定截取待处理文本长度的思想,改进了FMM算法。与... 正向最大匹配分词FMM(Forward Maximum Matching)算法存在设定的最大词长初始值固定不变的问题,带来长词丢失或匹配次数较多的弊端。针对此问题提出了根据中文分词词典中的词条长度动态确定截取待处理文本长度的思想,改进了FMM算法。与此相配合,设计了一种词典结构,使之能够有效地支持改进的算法。改进的算法与一般正向最大匹配算法相比大大减少了匹配次数,分析表明中文分词的速度和效率有了很大提高。 展开更多
关键词 中文分词 分词词典 正向最大匹配算法
下载PDF
一种基于字词联合解码的中文分词方法 被引量:42
18
作者 宋彦 蔡东风 +1 位作者 张桂平 赵海 《软件学报》 EI CSCD 北大核心 2009年第9期2366-2375,共10页
近年来基于字的方法极大地提高了中文分词的性能,借助于优秀的学习算法,由字构词逐渐成为中文分词的主要技术路线.然而,基于字的方法虽然在发现未登录词方面有其优势,却往往在针对表内词的切分效果方面不及基于词的方法,而且还损失了一... 近年来基于字的方法极大地提高了中文分词的性能,借助于优秀的学习算法,由字构词逐渐成为中文分词的主要技术路线.然而,基于字的方法虽然在发现未登录词方面有其优势,却往往在针对表内词的切分效果方面不及基于词的方法,而且还损失了一些词与词之间的信息以及词本身的信息.在此基础上,提出了一种结合基于字的条件随机场模型与基于词的Bi-gram语言模型的切分策略,实现了字词联合解码的中文分词方法,较好地发挥了两个模型的长处,能够有效地改善单一模型的性能,并在SIGHAN Bakeoff3的评测集上得到了验证,充分说明了合理的字词结合方法将有效地提高分词系统的性能,可以更好地应用于中文信息处理的各个方面. 展开更多
关键词 中文分词 联合解码 语言模型 条件随机场模型
下载PDF
基于条件随机场的中文领域分词研究 被引量:14
19
作者 朱艳辉 刘璟 +2 位作者 徐叶强 田海龙 马进 《计算机工程与应用》 CSCD 北大核心 2016年第15期97-100,共4页
针对条件随机场分词不具有良好的领域自适应性,提出一种条件随机场与领域词典相结合的方法提高领域自适应性,并根据构词规则提出了固定词串消解,动词消解,词概率消解三种方法消除歧义。实验结果表明,该分词流程和方法,提高了分词的准确... 针对条件随机场分词不具有良好的领域自适应性,提出一种条件随机场与领域词典相结合的方法提高领域自适应性,并根据构词规则提出了固定词串消解,动词消解,词概率消解三种方法消除歧义。实验结果表明,该分词流程和方法,提高了分词的准确率和自适应性,在计算机领域和医学领域的分词结果 F值分别提升了7.6%和8.7%。 展开更多
关键词 中文分词 条件随机场 领域自适应 歧义消解 领域分词 逆向最大匹配算法
下载PDF
改进的基于词典的中文分词方法 被引量:40
20
作者 莫建文 郑阳 +1 位作者 首照宇 张顺岚 《计算机工程与设计》 CSCD 北大核心 2013年第5期1802-1807,共6页
为了能够快速、准确地进行中文分词,在传统分词词典构造及相应算法的基础上,提出了改进的基于词典中文分词方法。该方法结合双字哈希结构,并利用改进的正向最大匹配分词算法进行中文分词,既提高了分词速度,同时解决了传统最大匹配分词... 为了能够快速、准确地进行中文分词,在传统分词词典构造及相应算法的基础上,提出了改进的基于词典中文分词方法。该方法结合双字哈希结构,并利用改进的正向最大匹配分词算法进行中文分词,既提高了分词速度,同时解决了传统最大匹配分词算法中的歧义问题。实验结果表明,该方法在一定程度上提高了中文词语切分的准确率,同时大大缩短了分词时间。 展开更多
关键词 中文分词 词典 哈希结构 正向最大匹配算法 歧义
下载PDF
上一页 1 2 60 下一页 到第
使用帮助 返回顶部