百度地图POI数据爬取,突破百度地图API爬取数目“400条“的限制。

1.POI爬取方法说明

1.1AK申请

  登录百度账号,在百度地图开发者平台的API控制台申请一个服务端的ak,主要用到的是Place API.检校方式可设置成IP白名单,IP直接设置成了0.0.0.0/0比较方便。
  Place API 提供的接口用于返回查询某个区域的某类POI数据,且提供单个POI的详情查询服务,用户可以使用C#、C++、Java,Python等开发语言发送请求,接收json、xml的数据。关于Place API的具体使用可以参考:Place API Web服务API

1.2爬取方式

  百度地图将POI数据划分为多个类别,我想要爬取某个城市的所有类别的POI名称和经纬度信息。爬取时,先将类别存储在一个“POI总表.csv”文件中,再逐类别爬取POI数据。POI总表包含POI类别、POI类别对应的编码、各类POI记录条数。
  Place API提供了3种爬取区域POI信息的方式:(1)城市内检索 (2)矩形检索 (3)圆形区域检索。这里,POI信息的爬取主要使用城市内检索和矩形检索两种方式。
百度地图POI数据爬取,突破百度地图API爬取数目“400条“的限制。_第1张图片

1.2.1城市内检索

  城市内检索主要的请求参数是query查询的类别、region查询的城市名称。将查询得到json格式的数据,解码为utf-8编码方式后存储在content中。通过正则表达式可以得到POI的名称和经纬度信息。

reg = r'"name":"([\d\D]*?)",[\d\D]*?"lat":([\d\D]*?),[\d\D]*?"lng":([\d\D]*?)},'
pattern = re.compile(reg)
items = re.findall(pattern,content)

百度地图POI数据爬取,突破百度地图API爬取数目“400条“的限制。_第2张图片

1.2.2矩形检索

矩形检索的主要请求参数是query查询的类别、bounds查询区域的左下、右上经纬度。lat,lng(左下角坐标),lat,lng(右上角坐标)。查询得到的结果与城市范围内检索结果相似。
通过两种方式实现POI的区域检索都很便捷,但是当城市较大,某一类POI信息数量大时,由于百度API的限制,1.2.1城市内检索最多只能返回400条POI数据,会造成查不全的现象。这时,可以利用矩形检索,将区域的外包矩形划分为多个小网格,并确保每个网格中该类别POI数据的条数不会超过400条,这样逐个小网格进行矩形检索,最终得到城市区域某一类别POI的所有数据。
百度地图POI数据爬取,突破百度地图API爬取数目“400条“的限制。_第3张图片

2.Python代码实现

2.1 城市内检索

  城市区域内检索通过正则表达式re获取需要的信息,当该城市某一类POI数量大于400时,可使用划分为网格的矩形检索进行POI爬取,以保证爬取到完整的POI数据。

# -*- coding: utf-8 -*- 
import sys
import codecs
import urllib
import urllib2
import re
import pandas as pd

reload(sys)
sys.setdefaultencoding('utf-8')

user_agent = 'Mozilla/5.0 (Windows; U; Windows NT 5.2)'
headers = {'User-Agent':user_agent}

inpath = 'POI总表.csv'
path = unicode(inpath, 'utf-8')
poi_list = pd.read_csv(path)
api_key=""  #输入AK

for poi in range(len(poi_list)):
    outpath = '+str(poi)+'_'+poi_list.iloc[poi, 1] + '.csv'
    path = unicode(outpath, 'utf-8')
    with open(path, 'w') as f:
        f.write(codecs.BOM_UTF8)
        f.write('id,name,lat,lng\n')
        i=1
        j=1
        try:
            for i in range(int(poi_list.iloc[poi,4])/10+2):
                url = "http://api.map.baidu.com/place/v2/search?q="+poi_list.iloc[poi,3]+"&page_size=10&page_num="
                url = url+str(i-1) + "&scope=1®ion=%E6%AD%A6%E7%A9%B4&city_limit=true&coord_type=1&output=json&ak="
                +api_key # ak需输入申请的ak 
                request = urllib2.Request(url, headers=headers)
                response = urllib2.urlopen(request)
                content = response.read().decode("utf-8")
                # print content
                reg = r'"name":"([\d\D]*?)",[\d\D]*?"lat":([\d\D]*?),[\d\D]*?"lng":([\d\D]*?)},'
                pattern = re.compile(reg)
                items = re.findall(pattern,content)
                for item in items:
                     # print "name:",item[0]
                     # print "lat:",item[1]
                     # print "lng:",item[2]
                    savestr = str(j)+','+str(item[0])+','+str(item[1])+','+str(item[2])
                    j += 1
                    f.write(savestr)
        except urllib2.URLError, e:
            if hasattr(e, "code"):
                print e.code
            if hasattr(e, 'reason'):
                print e.reason
        finally:
            f.close()

2.2 矩形区域检索

  BaiduPOI通过url获取POI数据,LocaDiv划分网格,逐个网格爬取POI数据。

# -*- coding:utf-8 -*-
import json
import codecs
import os
import urllib2
import sys
import time

reload(sys)
sys.setdefaultencoding('utf8')


class BaiDuPOI(object):
    def __init__(self, itemy, loc):
        self.itemy = itemy
        self.loc = loc

    def urls(self):
        api_key = baidu_api
        urls = []
        for pages in range(0, 20):
            url = 'http://api.map.baidu.com/place/v2/search?query=' + self.itemy + '&bounds=' + self.loc + '&page_size=20&page_num=' + str(
                pages) + '&output=json&ak=' + api_key
            urls.append(url)
        return urls

    def baidu_search(self):
        json_sel = []
        for url in self.urls():
            json_obj = urllib2.urlopen(url)
            data = json.load(json_obj)
            for item in data['results']:
                jname = item["name"]
                jlat = item["location"]["lat"]
                jlng = item["location"]["lng"]
                js_sel = jname + ',' + str(jlat) + ',' + str(jlng)
                json_sel.append(js_sel)
        return json_sel


class LocaDiv(object):
    def __init__(self, loc_all):
        self.loc_all = loc_all

    def lat_all(self):
        lat_sw = float(self.loc_all.split(',')[0])
        lat_ne = float(self.loc_all.split(',')[2])
        lat_list = []
        for i in range(0, int((lat_ne - lat_sw + 0.0001) / 0.1)):  # 0.1为网格大小,可更改
            lat_list.append(lat_sw + 0.1 * i)  # 0.05
        lat_list.append(lat_ne)
        return lat_list

    def lng_all(self):
        lng_sw = float(self.loc_all.split(',')[1])
        lng_ne = float(self.loc_all.split(',')[3])
        lng_list = []
        for i in range(0, int((lng_ne - lng_sw + 0.0001) / 0.1)):  # 0.1为网格大小,可更改
            lng_list.append(lng_sw + 0.1 * i)  # 0.1为网格大小,可更改
        lng_list.append(lng_ne)
        return lng_list

    def ls_com(self):
        l1 = self.lat_all()
        l2 = self.lng_all()
        ab_list = []
        for i in range(0, len(l1)):
            a = str(l1[i])
            for i2 in range(0, len(l2)):
                b = str(l2[i2])
                ab = a + ',' + b
                ab_list.append(ab)
        return ab_list

    def ls_row(self):
        l1 = self.lat_all()
        l2 = self.lng_all()
        ls_com_v = self.ls_com()
        ls = []
        for n in range(0, len(l1) - 1):
            for i in range(0 + len(l1) * n, len(l2) + (len(l2)) * n - 1):
                a = ls_com_v[i]
                b = ls_com_v[i + len(l2) + 1]
                ab = a + ',' + b
                ls.append(ab)
        return ls


if __name__ == '__main__':
    # ak
    baidu_api =""   # 这里填入你的百度API的ak
    print "开始爬取数据,请稍等..."
    start_time = time.time()
    loc = LocaDiv('29.8255, 115.367400, 30.2194, 115.8287')
    locs_to_use = loc.ls_row()

    for loc_to_use in locs_to_use:
        par = BaiDuPOI(u'购物', loc_to_use)  # 请修改爬取的类别
        a = par.baidu_search()
        doc = open('zhengfujigou.csv', 'a+')
        doc.write(codecs.BOM_UTF8)
        for ax in a:
            doc.write(ax)
            doc.write('\n')
        doc.close()
    end_time = time.time()
    print "购物爬取完毕,用时%.2f秒" % (end_time - start_time)

2.3爬取结果示例

百度地图POI数据爬取,突破百度地图API爬取数目“400条“的限制。_第4张图片

你可能感兴趣的:(python爬虫,百度地图,python爬虫,python)