python之jieba库的使用笔记


pythonjieba库的使用笔记

@TOC

一, 前言

这是一个解决中文问题的库,处理中文信息。将句子分成词语。处理中文字符。 一起康康吧!

二,jieba库的基本介绍

1,jieba库概述

jieba库是优秀的中文分词第三方库

中文文本需要通过分词获得单个的词语
既然是第三方库,需要额外安装
只需要了解其中一个函数就OK

2,jieba库的安装

pip install jieba

3,jieba库的分词原理

jieba分词依靠中文词库
利用一个中文词库,确定中文字符之间的关联概率
中文字符间概率大的组成词组,形成分词结果
除了分词,用户还可以添加自定义词组

三,jieba库的使用说明

1,jieba库分词的三种模式

精确模式:把文本精确的切分开,不存在冗余单词
全模式:把文本中可能出现的单词都扫描出来,有冗余
搜索引擎模式:在精确模式基础上,对长词再次切分

2,jieba库的使用函数

1,jieba.lcut(s)
精确模式,返回一个列表类型的分词结果

>>>jieba.lcut("中国的疫情一定会过去")
['中国', '的', '疫情', '一定', '会', '过去']

这是个列表类型[],

2,jieba.lcut(s,cut_all=True)
全模式,返回一个列表类型的分词结果,有冗余

>>>jieba.lcut("中国的疫情一定会过去",cut_all=True)
['中国', '的', '疫情', '一定', '定会', '过去']

看上去有多余的字词

3,jieba.lcut_for_search(s)
搜索引擎模式,返回一个 列表类型的分词结果,有冗余

>>>jieba.lcut_for_search("中华人民共和国是伟大的")
['中华', '华人', '人民', '共和', '共和国', '中华人民共和国', '是', '伟大', '的']

4,jieba.add_word(w)
向分词字典增加新词w

>>>jieba.add_word("蟒蛇语言")

四,总结

看到这里,就结束了。
百度了一下,jieba库用于分析文档比较方便,分析文档中出现最多的词汇,文档的大概内容。
如果这篇文章帮到你了,我很荣幸。

哈哈哈嗝


文章作者: 欢者本欢
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 欢者本欢 !
  目录