基于统计的ASP.NET中文分词系统
分词,针对汉语的分词,根据统计来实现的,可以直接使用目录即可,里面针对联合早报进行的测试,分次统计中可以包括任意目录(系统能承受得了就行),这是帮一个同学做的作业:)用asp。ne
本专区汇聚了各类基于 中文分词 开发的源码资源,共计 88 篇资源供开发者免费下载学习。
分词,针对汉语的分词,根据统计来实现的,可以直接使用目录即可,里面针对联合早报进行的测试,分次统计中可以包括任意目录(系统能承受得了就行),这是帮一个同学做的作业:)用asp。ne
模型创建,生产模型及模型训练,依照语料,分析文章类型,语料是从搜狗词库中下载的,也可以自己提供语料
调用海量智能分词研究版的dll获取分词的结果(C#) -Call massive intelligence Segmentation Research version of the
该软件的主要功能是可以帮助我们进行中文的分词和对一些词性的分析。-this software is used for Chinese sorted.
利用C#实现的ShootSearch 分词组件,内部有详细的使用说明,具有很好的分词效果。-C# implementation of the use of segmentation
中文分词的代码,是用vc++编的.文件名为3_31_1.zip-Chinese word code is used vc series. Documents called 3_31
DuDuPlus DuDuPlus is a tool package for Chinese word-segmentation, POS tagging and depen
SphinxV0.9.8.1source.zip VC++ 基于Lucene扩展的支持中文分词的开源搜索引擎 中文用户-Sphinx V0.9.8.1 source.zip VC+
C++正向最大匹配法分词源代码。分词是自然语言处理领域的重要领域,最大正向匹配法也是一种比较常见的分词方法。
mmseg中文分词工具,它可以帮助我们对自己收集到的文本进行分类,目前这是比较评价较好的分词工具,集成度较高。
近期在做的一个项目设计到中文的相似度计算,从网上找了很多例子,总结了一下比较有帮助的是:余弦相似度算法(余弦相似度(cosine similarity)是资讯检索中常用的相似度计算
中文分词程序,是用java语言编的.文件名为yangpengwei.zip-Chinese word segmentation procedure is the use of ja