Python爬取多网页表格数据(非table)

背景:实习工作内容,对接业务人员因采购原材料,想要获取铝琔的历史价格

目标网址:江西保太集团-江西保太有色金属集团有限公司

目标字段:品名,日期,价格

目的:爬取ADC12-F的历史价格。

 1.调用相关库

import pymysql
import requests
from bs4 import BeautifulSoup

2.设置请求头

headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'
}

page = requests.get('http://m.baotaigroup.com.cn/index/offer/hoffer/id/9.html', headers = headers)
page.encoding = 'utf8'#保证不乱码
soup = BeautifulSoup(page.text, "html.parser")

3.解析网页,获取总页数

for num_page in soup.find_all("ul", class_="pagination"):#看下面图片框起来的内容
    a=num_page.get_text()
    print("a",a,type(a))#
    print(a.split()[1])#只取“123456789”部分
    len_page=len(a.split()[1])#页码数正好和上面字符串的长度一致
    print('len(a.split()[1])',len_page)

Python爬取多网页表格数据(非table)_第1张图片

 

4.解析网页,选取目标字段

num = -1
pageNum = 0

for index in range(len_page):#有9页数据,循环获取,
    pageNum = pageNum+1#更换网址
    print('http://m.baotaigroup.com.cn/index/offer/hoffer/id/9.html?page='+str(pageNum))
    pages = requests.get('http://m.baotaigroup.com.cn/index/offer/hoffer/id/9.html?page='+str(pageNum), headers=headers)
    
    pages.encoding = 'utf8'#网页编码,有些网页是gb2312 等
    soups = BeautifulSoup(pages.text, "html.parser")
    print('1')

    li_0=[] 
    i=1          
    for spw140 in soups.find_all("span", class_="w140"):
        i+=1
        w140=spw140.get_text()
        #print('w140_-',w140)
        #if w140 :
        if i%5==3:#通过观察索引发现目标字段“价格”的位置        
            li_0.append(w140)#7121722
    #print('li_0',li_0)  
    #li_0_new=pd.DataFrame(li_0)  #
    #print('li_0_new',li_0_new)      
        #print()
    li_1=[]
    for spw300 in soups.find_all("span", class_="w300"):
        w300=spw300.get_text()
        #print('w300_-',w300)
        li_1.append(w300)
        #print()
    #print('li_1',li_1)
    
    li_name=[] #增加品名列
    for j in range(len(li_0)-1):
        li_name.append('ADC12-F')#更换品名
    #将上述三列目标字段(列表形式)转换成数据框格式:
    data=pd.DataFrame({
        'ITEM_NAME':li_name[:],
        'DATE_1':li_1[1:],
        'TJPRICE':li_0[1:]
    })
    print('data',data)

Python爬取多网页表格数据(非table)_第2张图片

 

 

5.存储数据

第4步得到的数据为数据框格式,我预计存到数据库里,这里不再详述。

你可能感兴趣的:(python,爬虫,网络爬虫)