jieba
库是一款优秀的 Python 第三方中文分词库,
jieba
支持三种分词模式:精确模式、全模式和搜索引擎模式,下面是三种模式的特点。
精确模式:试图将语句最精确的切分,不存在冗余数据,适合做文本分析
全模式:将语句中所有可能是词的词语都切分出来,速度很快,但是存在冗余数据
搜索引擎模式:在精确模式的基础上,对长词再次进行切分
一、
jieba
库的安装
因为
jieba
是一个第三方库,所有需要我们在本地进行安装。
Windows 下使用命令安装:在联网状态下,在命令行下输入
pip install jieba
进行安装,安装完成后会提示安装成功
在 pyCharm 中安装:打开
settings
,搜索
Project Interpreter
,在右边的窗口选择
+
号,点击后在搜索框搜索
jieba
,点击安装即可
二、
jieba
三种模式的使用
import jieba
seg_str = "好好学习,天天向上。"
print("/".join(jieba.lcut(seg_str)))
print("/".join(jieba.lcut(seg_str, cut_all=True)))
print("/".join(jieba.lcut_for_search(seg_str)))
分词效果:
txt = open("三国演义.txt", "r", encoding='utf-8').read()
words = jieba.lcut(txt)
counts = {}
for word in words:
if len(word) == 1:
continue
else:
counts[word] = counts.get(word, 0) + 1
items = list(counts.items())
items.sort(key=lambda x: x[1], reverse=True)
for i in range(3):
word, count = items[i]
print("{0:<5}{1:>5}".format(word, count))
统计结果:
你可以随便找一个文本文档,也可以到
https://github.com/coderjas/python-quick
下载上面例子中的文档。
四、扩展:英文单词统计
上面的例子统计实现了中文文档中出现最多的词语,接着我们就来统计一下一个英文文档中出现次数最多的单词。原理同上
def get_text():
txt = open("1.txt", "r", encoding='UTF-8').read()
txt = txt.lower()
for ch in '!"#$%&()*+,-./:;<=>?@[\\]^_‘{|}~':
txt = txt.replace(ch, " ")
return txt
file_txt = get_text()
words = file_txt.split()
counts = {}
for word in words:
if len(word) == 1:
continue
else:
counts[word] = counts.get(word, 0) + 1
items = list(counts.items())
items.sort(key=lambda x: x[1], reverse=True)
for i in range(5):
word, count = items[i]
print("{0:<5}->{1:>5}".format(word, count))
统计结果:
文章最后发布于: 2018-05-17