老程序如何python代码爬取豆瓣热度Top100以内的电影信息

@本文来源于公众号:csdn2299,喜欢可以关注公众号 程序员学府

文章目录

    • 概述
    • 什么是网络爬虫
    • 分析爬虫需求
      • 确定目标
      • 分析目标
        • 1.借助工具分析目标网页
        • 2.然后对电影详情页进行分析
      • 思路分析
      • 具体实现
      • 效果
    • 总结

概述

这是一个简单的python爬虫程序,仅用作技术学习与交流,主要是通过一个简单的实际案例来对网络爬虫有个基础的认识。

什么是网络爬虫

简单的讲,网络爬虫就是模拟人访问web站点的行为来获取有价值的数据。专业的解释:百度百科

分析爬虫需求

确定目标

爬取豆瓣热度在Top100以内的电影的一些信息,包括电影的名称、豆瓣评分、导演、编剧、主演、类型、制片国家/地区、语言、上映日期、片长、IMDb链接等信息。

分析目标

1.借助工具分析目标网页

首先,我们打开豆瓣电影·热门电影,会发现页面总共20部电影,但当查看页面源代码当时候,在源代码中根本找不到这些电影当信息。这是为什么呢?原来豆瓣在这里是通过ajax技术获取电影信息,再动态的将数据加载到页面中的。这就需要借助Chrome的开发者工具,先找到获取电影信息的API。
老程序如何python代码爬取豆瓣热度Top100以内的电影信息_第1张图片

2.然后对电影详情页进行分析

老程序如何python代码爬取豆瓣热度Top100以内的电影信息_第2张图片

思路分析

老程序如何python代码爬取豆瓣热度Top100以内的电影信息_第3张图片

具体实现

开发环境

python3.6

pycharm

主要依赖库

urllib – 基础性的网络相关操作

lxml – 通过xpath语法解析HTML页面

json – 对通过API获取的JSON数据进行操作

re – 正则操作

代码实现

from urllib import request
from lxml import etree
import json
import re
import ssl
 
 
# 全局取消证书验证
ssl._create_default_https_context = ssl._create_unverified_context
 
 
def get_headers():
  """
  返回请求头信息
  :return:
  """
  headers = {
     
    'User-Agent': "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) "
           "AppleWebKit/537.36 (KHTML, like Gecko) "
           "Chrome/65.0.3325.181 Safari/537.36"
  }
  return headers
 
 
def get_url_content(url):
  """
  获取指定url的请求内容
  :param url:
  :return:
  """
  content = ''
  headers = get_headers()
  res = request.Request(url, headers=headers)
  try:
    resp = request.urlopen(res, timeout=10)
    content = resp.read().decode('utf-8')
  except Exception as e:
    print('exception: %s' % e)
  return content
 
 
def parse_content(content):
  """
  解析网页
  :param content:
  :return:
  """
  movie = {
     }
  html = etree.HTML(content)
  try:
    info = html.xpath("//div[@id='info']")[0]
    movie['director'] = info.xpath("./span[1]/span[2]/a/text()")[0]
    movie['screenwriter'] = info.xpath("./span[2]/span[2]/a/text()")[0]
    movie['actors'] = '/'.join(info.xpath("./span[3]/span[2]/a/text()"))
    movie['type'] = '/'.join(info.xpath("./span[@property='v:genre']/"
                      "text()"))
    movie['initialReleaseDate'] = '/'.\
      join(info.xpath(".//span[@property='v:initialReleaseDate']/text()"))
    movie['runtime'] = \
      info.xpath(".//span[@property='v:runtime']/text()")[0]
 
    def str_strip(s):
      return s.strip()
 
    def re_parse(key, regex):
      ret = re.search(regex, content)
      movie[key] = str_strip(ret[1]) if ret else ''
 
    re_parse('region', r'制片国家/地区:(.*?)
'
) re_parse('language', r'语言:(.*?)
'
) re_parse('imdb', r'IMDb链接: r'target="_blank" >') except Exception as e: print('解析异常: %s' % e) return movie def spider(): """ 爬取豆瓣前100部热门电影 :return: """ recommend_moives = [] movie_api = 'https://movie.douban.com/j/search_subjects?' \ 'type=movie&tag=%E7%83%AD%E9%97%A8&sort=recommend' \ '&page_limit=100&page_start=0' content = get_url_content(movie_api) json_dict = json.loads(content) subjects = json_dict['subjects'] for subject in subjects: content = get_url_content(subject['url']) movie = parse_content(content) movie['title'] = subject['title'] movie['rate'] = subject['rate'] recommend_moives.append(movie) print(len(recommend_moives)) print(recommend_moives) if __name__ == '__main__': spider()

效果

老程序如何python代码爬取豆瓣热度Top100以内的电影信息_第4张图片

总结

本文较详细的阐述了一个爬虫从需求->分析->实现的过程,并给出了具体的代码实现。通过对本文的学习,我们可以了解到网络爬虫的一些基本的知识,以及python的一些基本库的使用方法。接下来我会使用一些高级些的网络操作相关的库以及对抓取到的数据做个存储的方式,来更深层次的理解python网络爬虫。
非常感谢你的阅读
大学的时候选择了自学python,工作了发现吃了计算机基础不好的亏,学历不行这是没办法的事,只能后天弥补,于是在编码之外开启了自己的逆袭之路,不断的学习python核心知识,深入的研习计算机基础知识,整理好了,我放在我们的微信公众号《程序员学府》,如果你也不甘平庸,那就与我一起在编码之外,不断成长吧!

其实这里不仅有技术,更有那些技术之外的东西,比如,如何做一个精致的程序员,而不是“屌丝”,程序员本身就是高贵的一种存在啊,难道不是吗?[点击加入]
想做你自己想成为高尚人,加油!

你可能感兴趣的:(python,编程语言,python,数据分析)