中文分词 资源专区

本专区汇聚了各类基于 中文分词 开发的源码资源,共计 88 篇资源供开发者免费下载学习。

共找到 88 个资源
其他 1 积分

最大概率法中文分词数据结构与算法

最大概率法分词的数据结构与算法,用这样的方法分词可以提高分词中歧义词的辨别率,非常经典啊-greatest probability- term data structure and

中文分词 最大概率法 自然语言处理
0 0 查看详情
其他 1 积分

WordPress中文分词SEO插件

WordPress SEO 中文插件 就是利用中文分词给日志建议关键字,并利用关键字对你博客进行 SEO。 1.修正了无法访问分词服务器错误信息 2.修正了没有目录出现的错误信息

WordPress SEO 中文分词
0 0 查看详情
其他 1 积分

搜索引擎中的Web挖掘技术应用

Web挖掘技术在搜索引擎中的应用与实现 介绍了PageRange , 结构挖掘器 , 页面分析器,中文分词等技术-Web mining technology in search

Web挖掘 搜索引擎 PageRank
0 0 查看详情
PHP 1 积分

基于ICTCLAS的中文分词与用户词典管理工具

基于ICTCLAS的中文分词程序MyCLAS和用户词典管理程序MyDict 1. 介绍: 1) 中科院计算所开发的中文分词和词性标注程序*ICTCLAS,在性能和准确性上都

中文分词 ICTCLAS 词性标注
0 0 查看详情
PHP 1 积分

HTTPCWS:基于HTTP协议的中文分词系统

Introduction in English HTTPCWS is a open-source Chinese Word Segmentation System Based

中文分词 HTTP协议 ICTCLAS
0 0 查看详情
Java 1 积分

CWSS中文分词系统

CWSS是一个基于java语言开发的轻量级的开源中文分词器,并提供对lucene3.0的支持。 分词效果示例 原文 讨论群:75484225 分词后 讨论/讨论群/75484225

中文分词 开源工具 Java开发
0 0 查看详情
Java 1 积分

imdict智能词典中文分词模块

imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学

中文分词 隐马尔可夫模型 Lucene
0 0 查看详情
Python 1 积分

基于正向最大匹配法的中文分词Python实现

分词方法总体上分为两类,一是非基于词典的分词,相当于人工智能领域计算。一般用于机器学习,特定领域等方法,这种在特定领域的分词可以让计算机在现有的规则模型中,推理如何分词,精确度较

中文分词 正向最大匹配 Python
0 0 查看详情
Java 1 积分

NLPIR中文分词软件Java重写源码

NLPIR是中科院张华平博士开发的一个中文分词软件,是目前效果最好的中文分词软件,该源码是对NLPIR的Java重写,可用于中文分词学习研究

中文分词 NLPIR Java
0 0 查看详情
ASP 1 积分

ASP站内搜索引擎源码功能详解

软件功能:  1,智能中文分词:集成自主研发的面向站内搜索优化的细粒度中文分词充分兼顾搜准率和搜全率;  2,多数据库支持:目前支持应用最广泛的MS SQL SERVER ,A

ASP 站内搜索 中文分词
0 0 查看详情
C# 1 积分

Shootseg.dll 中文分词C#源代码资源说明

调用Shootseg.dll 的C#中文分词源代码,仅供参考,相互学习。-Shootseg.dll call the C# code of Chinese origin, are

中文分词 C# 源代码
0 0 查看详情
C# 1 积分

ICTCLAS.Net C++移植版

附件是c++版本的ICTCLAS向.net的移植,如果你要使用C#编写索引程序,这是个不错的选择-c annex to the version of the ICTCLAS. Ne

中文分词 ICTCLAS C#
0 0 查看详情