python学习笔记---中文词云

python学习笔记–中文词云

提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加
发现词云的展示还挺有意思的,比较多的应用场景是给用户打标签,社交软件应用较多。今天随便找了一些文字电影《肖申克的救赎》的一些评价,做了一个词云,其实还挺简单的。

Python的学习路上真的需要这样的小成功来激发更多学习的动力。

Come on!


提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • python学习笔记--中文词云
  • 前言
  • 一、词云统计常用的库?
  • 二、使用步骤
    • 1.引入库
    • 2.读入数据分词 +统计
  • 总结


前言

提示:这里可以添加本文要记录的大概内容:

词云统计挺好玩的,出来的效果也不错。


提示:以下是本篇文章正文内容,下面案例可供参考

一、词云统计常用的库?

import jieba #中文分词库 提供三种模式分词:精确 jieba.cut(s) 无冗余,全模式 jieba.lcut(s,cut_all =True) 有冗余, 探索模式 jieba.lcut_for_search(s) 有冗余
import collections #词频统计
import wordcloud #生成词云

二、使用步骤

1.引入库

引入相关的库:

import jieba #中文分词库 提供三种模式分词:精确  jieba.cut(s) 无冗余,全模式 jieba.lcut(s,cut_all =True) 有冗余, 探索模式 jieba.lcut_for_search(s) 有冗余
import collections #词频统计
import wordcloud #生成词云
import matpl

你可能感兴趣的:(数据分析学习,python,学习,开发语言)