这个例子是笔者今天在中国大学MOOC(嵩天 北京理工大学)上学习的时候写下来的。但是很快写完之后我就发现不对劲,首先课程给的例子是中国好大学网站的排名,但是现在这个网站已经重构了,原来的链接进去是软科的大学排名,所以之前的代码就需要做一些修改,在我不懈的努力下(各种瞎折腾,走了很多弯路),现在基本成功了,写这篇博客记录一下。
———————————————————————————————————————————————
(11.17更新,昨天晚上看到有小伙伴留言,说代码出了问题,我运行了一下发现确实有问题,看了下网站源代码,网站又进行了改动。于是我对代码也做了相应更改,主要就行将原来的string方法替换成了text方法,具体可以参考我的这篇博客
传送门: https://blog.csdn.net/weixin_44578172/article/details/109733042
链接:https://www.shanghairanking.cn/rankings/bcur/2020.
这一部分嵩天老师在课中给出了讲解,这里我整理分享给大家。
输入:大学排名URL链接
输出:大学排名信息的屏幕输出(排名,大学名称,总分)
技术路线:requests–bs4
定向爬虫:仅对输入URL进行爬取,不扩展爬取
注:requestts和bs4库的使用只能获取静态页面的信息,如何获取动态页面信息,我会在后边专门写篇文章详细说明
步骤一:从网络上获取大学排名网页内容:定义函数getHTMLText()
步骤二:提取网页内容中信息到合适的数据结构:定义函数fillUnivList()
步骤三:利用数据结构展示并输出结果:定义函数printUnivList()
在编写函数前,首先我们要先看一下网页的源代码
通过对网页源代码的观察,我们可以看到,所有大学信息被封装在一个表格中,这个表格的标签叫tbody,在tbody中,每个大学的信息被封装在一个标签中,这个标签叫tr,每个tr标签里又有一个td标签,每个大学的具体信息就被这个标签包围,但是大学的名字是被包在a标签中的,这里要做处理。
所以我们首先遍历tbody标签,获得所有大学信息,然后在tbody标签中找到tr标签,获得每个大学信息,最后在tr标签里找到td标签,把我们需要的相关数据写在我们的ulist列表中。
注:
1.由于大学名称被a标签包含,所以我们可以定义一个列表存放a标签内容(与td标签区别开)。
2.为了视觉方面更加美观,可采用中文字符的空格填充 chr(12288),其实就是为了对齐。
从网络上获取大学排名网页内容。
def getHTMLText(url):#获取URL信息,输出内容
try:
r = requests.get(url,timeout = 30)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
return""
提取网页内容中信息到合适的数据结构.
def fillUnivList(ulist,html):#将html页面放到ulist列表中(核心)
soup = BeautifulSoup(html,"html.parser")
for tr in soup.find('tbody').children:
if isinstance(tr,bs4.element.Tag):#如果tr标签的类型不是bs4库中定义的tag类型,则过滤掉
a = tr('a')#将所有的a标签存为一个列表类型
tds = tr('td')#将所有的td标签存为一个列表类型
ulist.append([tds[0].string.strip(),a[0].string.strip(),tds[4].string.strip()])
注:这里要注意的是,要注意使用strip()函数,它的作用是用于移除字符串头尾指定的字符(默认为空格或换行符)或字符序列。但该方法只能删除开头或是结尾的字符,不能删除中间部分的字符。用在此处可以使爬取的内容,在格式化输出时达到对齐的效果。
利用数据结构展示并输出结果:定义函数。
def printUnivList(ulist1,num):#打印出ulist列表的信息,num表示希望将列表中的多少个元素打印出来
#格式化输出
tplt = "{0:^10}\t{1:{3}^12}\t{2:^10}"
# 0、1、2为槽,{3}表示若宽度不够,使用format的3号位置处的chr(12288)(中文空格)进行填充
print(tplt.format("排名","学校名称","总分",chr(12288)))
for i in range(num):
u = ulist1[i]
print(tplt.format(u[0], u[1], u[2],chr(12288)))
print()
print("共有记录"+str(num)+"条")
'''
功能描述:
输入:大学排名URL
输出:大学排名信息的屏幕输出(排名,大学名称,总分)
技术路线:requests—bs4(只能获取静态页面信息)
定向爬虫:仅对输入URL进行爬取,不扩展爬取
程序的结构设计:
1.从网络上获取大学排名网页内容:定义函数getHTMLText()
2.提取网页内容中信息到合适的数据结构:定义函数fillUnivList()
3.利用数据结构展示并输出结果:定义函数printUnivList()
'''
import requests
from bs4 import BeautifulSoup
import bs4
ulist1=[]
def getHTMLText(url):#获取URL信息,输出内容
try:
r = requests.get(url,timeout = 30)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
return""
def fillUnivList(ulist,html):#将html页面放到ulist列表中(核心)
soup = BeautifulSoup(html,"html.parser")
for tr in soup.find('tbody').children:
if isinstance(tr,bs4.element.Tag):#如果tr标签的类型不是bs4库中定义的tag类型,则过滤掉
a = tr('a')
tds = tr('td')#将所有的td标签存为一个列表类型
ulist.append([tds[0].text.strip(), a[0].string.strip(), tds[4].text.strip()])#11.17更新后代码
#原来代码ulist.append([tds[0].string.strip(),a[0].string.strip(),tds[4].string.strip()])
def printUnivList(ulist1,num):#打印出ulist列表的信息,num表示希望将列表中的多少个元素打印出来
#格式化输出
tplt = "{0:^10}\t{1:{3}^12}\t{2:^10}"
# 0、1、2为槽,{3}表示若宽度不够,使用format的3号位置处的chr(12288)(中文空格)进行填充
print(tplt.format("排名","学校名称","总分",chr(12288)))
for i in range(num):
u = ulist1[i]
print(tplt.format(u[0], u[1], u[2],chr(12288)))
print()
print("共有记录"+str(num)+"条")
def main():
uinfo = [] #将大学信息放到列表中
url = "https://www.shanghairanking.cn/rankings/bcur/2020"
html = getHTMLText(url)
fillUnivList(uinfo,html)
printUnivList(uinfo,10)
main()
中国大学MOOC Python网络爬虫与信息提取
https://www.icourse163.org/course/BIT-1001870001