网络爬虫是一种自动化程序,可在网页上搜集信息,并将所获得的数据存储在本地计算机上。当人工搜集数据变得不切实际或不可行时,网络爬虫非常有用。在本篇文章中,我们将介绍如何用 Python 编写一个网络爬虫,以采集美团外卖的数据为例。
首先,需要安装 Python3 和相关第三方库:requests, BeautifulSoup4 和 pandas。其中 requests 库可用于进行网页上数据的下载,BeautifulSoup4 库用于解析 HTML,而 pandas 库则可用于将数据存储为 csv 文件。
pip install requests
pip install beautifulsoup4
pip install pandas
我们将模拟人类在网页上导航的过程来编写网络爬虫程序。首先,我们将获取美团外卖的菜单页面,然后进入每个店铺的页面,最后爬取每个店铺中的数据。
我们从获取美团外卖的菜单页面开始。使用 requests 库下载页面,并使用 BeautifulSoup4 库进行解析。要获取页面上所有的菜品信息,我们可以找到包含菜单信息的 HTML 元素并提取其文本。在HTML中,我们可以看到菜单信息位于 div 元素中,而每个菜品作为一个 li 元素呈现。
import requests
from bs4 import BeautifulSoup
def get_menu_from_web(url):
page = requests.get(url)
soup = BeautifulSoup(page.content, 'html.parser')
menu_div = soup.find('div', class_='menu-wrap')
menu_items = menu_div.find_all('li')
menu = []
for item in menu_items:
name = item.find('p', class_='name').get_text()
price = item.find('span', class_='price').get_text()
menu.append({'name': name, 'price': price})
return menu
接下来,我们编写函数来出爬取每个店铺的数据。对于每个菜单页面,我们会发现链接到店铺页面的链接,然后使用相同的方法下载和解析店铺页面。查找要提取的数据时,我们需要查看 HTML 元素的源代码并找到其标记。为了获取数据,我们使用相同的方法提取店铺名称、评分、地址等信息。对于每个菜品,我们仅需将其名称与价格添加到一个列表中。在完成对菜单的所有遍历后,我们通过创建一个数据框(dataframe)将数据存储为 csv 文件。
import pandas as pd
def scrape_restaurant_page(url):
page = requests.get(url)
soup = BeautifulSoup(page.content, 'html.parser')
name = soup.find('h1', class_='name').get_text().strip()
score = soup.find('span', class_='rating-stars')['style']
score = int(score[6:8]) / 10 if score else None
address = soup.find('p', class_='address ellipsis').get_text().strip()
menu_url = url + '/menu'
menu = get_menu_from_web(menu_url)
menu_df = pd.DataFrame(menu)
menu_df['restaurant'] = name
menu_df['score'] = score
menu_df['address'] = address
return menu_df
def main():
url = 'https://www.meituan.com/meishi/6138217/'
menu_df = scrape_restaurant_page(url)
menu_df.to_csv('menu.csv', index=False)
if __name__ == '__main__':
main()
采集美团外卖数据的过程其实非常简单。我们只需使用 Python 中的 requests、BeautifulSoup4 和 pandas 库来下载、解析以及存储数据。但是,要想最大程度地利用爬虫技术来采集大量数据,则需要管理好多个爬虫进程,以控制网络资源的使用并避免被封锁 IP。有专业的数据分析工具供爬虫技术的支持,如添闻数据公司,可为大公司提供更加强大的数据采集业务。
在这里给大家分享一些免费的课程供大家学习,下面是课程里面的截图,扫描最下方的二维码就能全部领取。
工欲善其事必先利其器。学习Python常用的开发软件都在这里了,给大家节省了很多时间。
实践是检验真理的唯一标准。这里的压缩包可以让你再闲暇之余帮你提升你的个人能力。
好啦今天的分享就到这里结束了,快乐的时光总是短暂呢,想学习更多课程的小伙伴不要着急,有更多惊喜哦~