pip install jieba
import jieba
jieba.__version__
函数 | 描述 |
---|---|
jieba.cut(s) | 精确模式,返回一个可迭代的数据类型 |
jieba.cut(s,cut_all=True) | 全模式,输出文本s中所有可能单词 |
jieba.cut_for_search(s) | 搜索引擎模式,适合搜索引擎建立索引的分词结果 |
jieba.lcut(s) | 精确模式,返回一个 列表类型,建议使用 |
jieba.lcut(s,cut_all=True) | 全模式,返回一个列表类型,建议使用 |
jieba.lcut_for_search(s) | 搜索引擎模式,返回一个列表类型,建议使用 |
jieba.add_word(w) | 向分词词典中增加新词W |
jieba.del_word(w) | 从分词词典中删除词汇W |
load_uaerdict(file_name)# 一词一行
ss = "你是想红寺湖但行好事时尚先生"
jieba.lcut(ss)
>>>['你', '是', '想', '红寺', '湖', '但行好事', '时尚', '先生']
jieba.load_userdict("F:\\dict.txt")
jieba.lcut(ss)
>>>['你是想红寺湖', '但行好事', '时尚先生']
sss = '成本价大白菜不饿厚度恶化打电话补偿金活动IC不能简单菜农ID那次军坡节噢紧凑级'
jieba.lcut(sss)
>>>['成本价',
'大白菜',
'不饿',
'厚度',
'恶化',
'打电话',
'补偿金',
'活动',
'IC',
'不能',
'简单',
'菜农',
'ID',
'那次',
'军坡节',
'噢',
'紧凑',
'级']
wordlist = jieba.lcut(sss)
newlist = [word for word in wordlist if word not in ['噢','级']]
print(newlist)
>>>['成本价', '大白菜', '不饿', '厚度', '恶化', '打电话', '补偿金', '活动', 'IC', '不能', '简单', '菜农', 'ID', '那次', '军坡节', '紧凑']
jieba.analyse.set_stop_words()
import jieba.analyse as ana
ana.set_stop_words('F:\\停用词.txt')
sentence="湖北经济学院大数据专业的同学棒棒哒!"
ana.extract_tags(sentence)
>>>['棒棒', '同学', '湖北', '学院', '专业', '数据', '经济']
sentence="必须is彼此的hi哦好的次哦红血丝红寺湖细搜呼吸声"
ana.extract_tags(sentence)
>>>['红血丝', '红寺', '湖细', '呼吸声']
标识 | 种类 |
---|---|
Ag | 形语素 |
a | 形容词 |
ad | 副形词 |
Dg | 副语素 |
d | 副词 |
m | 数词 |
Ng | 名语素 |
n | 名词 |
nr | 人名 |
Vg | 动语素 |
v | 动词 |
vn | 名动词 |
nce="必须is彼此的hi哦好的次哦红血丝红寺湖细搜呼吸声"
psg.lcut(sentence)
>>>[pair('必须', 'd'),
pair('is', 'eng'),
pair('彼此', 'r'),
pair('的', 'uj'),
pair('hi', 'eng'),
pair('哦', 'e'),
pair('好', 'a'),
pair('的', 'uj'),
pair('次', 'q'),
pair('哦', 'e'),
pair('红血丝', 'n'),
pair('红寺湖', 'nr'),
pair('细', 'a'),
pair('搜', 'v'),
pair('呼吸声', 'n')]