智能中文文本分词与文档处理系统
对一个文件可以分词的系统,挺有用的哦-right can be a Word document system, quite the oh
本专区汇聚了各类基于 中文分词 开发的源码资源,共计 88 篇资源供开发者免费下载学习。
对一个文件可以分词的系统,挺有用的哦-right can be a Word document system, quite the oh
中文分词!基于最大概率分词的!欢迎下载~~欢迎下勒-Chinese Segmentation! Based on the maximum probability of sub-wo
据说是百度以前用的中文分词词典,希望对大家有一点帮助哈,快下快下-allegedly Baidu before the Chinese word dictionaries, we
中科院的分词动态连接库,不用我说了哈,在国内是大名顶顶哈-CAS-term dynamic link library, I do not have said Kazakhstan,
根据一个停用词表,输入一个词语。然后来 判断一个词语是否为停用词 -Stop words based on a table, enter a word. And then
基于遗传算法的分词论文 基于遗传算法的分词论文-Segmentation Based on Genetic Algorithms PapersSegmentation Based
哈工大LTP主要用于分词,词性标注,句法语义分析,不过它需要自己编译源码,生成动态链接库,这个过程很麻烦,这个是已经生成好的文件可以直接用
使用层叠隐马模型解决命名实体识别问题,含有训练语料及测试预料。-Implicit use of cascading Ma Named Entity Recognition Mode
小叮呼的分词模块 小叮呼的分词模块-small bite called the Word module called the small bite-term m odule
Corpus Creator is a tool for creating a corpus database. It contains some database drivers
复旦大学自然语言处理包,由复旦大学研究的中文自然语言处理包,内有全部源码及使用示例。对于搜索引擎、分词器研究和应用非常有用。
用hadoop的mapreduce模型做了一个自动识别行业词的程序, 从算法上降低了计算量,而且分布式的话会更加快. 我用一份从51job, 智联招聘, 中华英才网等290多家招聘