回复内容:
稍微体验过的,简单收录下
哈工大:语言云(语言技术平台云 LTP-Cloud) 东北大学NiuTrans统计机器翻译系统:东北大学自然语言处理实验室 中科院张华平博士ICTCLAS :NLPIR汉语分词系统 波森科技:首页 - BosonNLP
结巴:fxsjy/jieba · GitHub Ansj分词:中国自然语言开源组织 没有特别对比,2和3貌似没有API
楼上暴君说得很详细了,我就贴一个我觉得分词最准确的一个吧
http://bosonnlp.com/
总的来说很准确,当然也不是任何时候都管用...... 233333333
结巴分词。项目地址:fxsjy/jieba · GitHub
>>> seg_list = jieba . cut ( "他来到了网易杭研大厦" ) >>> print ", " . join ( seg_list ) 他 , 来到 , 了 , 网易 , 杭研 , 大厦pullword在线分词服务__API服务_API服务_API Store 除了jieba补充两个,一个是哈工大的语言云,另一个是波森科技的NLP API。不过我没有对这三者进行横向测评过。 我用过jieba效果还阔以,用的不多。 不过听说stanfordnlp也支持中文分词,容我崇洋媚外一把 也许stanford更牛逼一点 张华平博士的东西什么都好,就是要定期更新用户授权 我用过腾讯文智的API觉得还行,简单,分词效果不错。可以试一试 词云的制作方法 以前用的庖丁解牛分词器 ,不过是潜入到lucene里面用的。对中文分词 挺不错的
声明:本文来自网络,不代表【好得很程序员自学网】立场,转载请注明出处:http://haodehen.cn/did83262