(文末福利)
基本思路很简单:(1)使用requests、beautifsoup4提取网页内容;(2)jieba词频统计
代码如下:
import jieba
import jieba.analyse
from wordcloud import WordCloud, ImageColorGenerator
import matplotlib.pyplot as plt
import os
import PIL.Image as Image
import numpy as np
from collections import Counter
import requests
from bs4 import BeautifulSoup
import jieba.posseg as psg
import re
url = 'http://www.gov.cn/premier/2019-03/16/content_5374314.htm'
def word_num(txt):
'''
输入需要统计词频的文本
'''
seg_list = jieba.cut(txt)
c = Counter()
for x in seg_list:
if len(x)>1 and x != '\r\n':
c[x] += 1
print('常用词频度统计结果')
for (k,v) in c.most_common(100):
print('%s%s %s %d' % (' '*(5-len(k)), k, '*'*int(v/3), v))
def extract_html_text(url):
"""
url: 传入的网页地址
"""
page_source = requests.get(url).content
bs_source = BeautifulSoup(page_source,'lxml')
report_text = bs_source.find_all('p')#查找所有段落内容
text = ''
for p in report_text:
text += p.get_text()
text += '\n'
return text
text = extract_html_text(url)
# re.sub('\n','',text)
word_num(text)
运行结果如下
词频度统计结果
发展 ******************************************** 134
改革 ****************************** 92
加强 ******************** 62
推进 ******************* 59
建设 ****************** 56
企业 ***************** 51
经济 *************** 46
加快 ************** 43
完善 ************** 43
创新 ************* 41
支持 ************* 40
推动 ************* 40
政府 ************* 39
政策 ************ 38
全面 ************ 36
中国 ************ 36
促进 *********** 35
深化 *********** 34
坚持 *********** 33
如果需要Python网络爬虫相关书籍教程的话,可以微信扫描下面二维码关注公众号“向芽塔”,后台回复“python爬虫”获取哦!