REST是一种用来创建现代web应用的一系列技术的集合。它最主要的优势就是它比SOAP或者其他一些专有的web服务机制要更加简单、更加地轻量级。软件设计者们观察到了在web服务经常提供的CRUD(Create,Read,Update,Delete)功能和基本的HTTP操作(GET,POST,PUT,DELETE)之间的相似性。他们也观察到了很多用于web服务的信息都可以被压缩到一个资源URL上。例如,http://api.mysite.com/customer/john
就是一个这样的资源URL,它标识了目标服务器(api.mysite.com)、想在服务器上进行与customer(表)相关的操作以及更具体地是和某个叫john(行——主键)的人相关的某件事。这些与其他的web概念结合起来,比如安全认证、无状态、缓存、用XML或者JSON作为有效载荷等等,就可以以一种功能强大但是很简单、熟悉并且毫不费力的跨平台的方式来提供或者使用web服务。
我们想在Scrapy Pipeline中使用的一些功能经常是以REST API的形式提供的,在誓死不渝的部分,我们会理解如何访问这些功能。
treq是一个Python的包,它的功能和Python requests包相同,只不过是专门供以Twisted为基础的应用程序来使用。它允许我们很这容易地执行GET、POST及其他HTTP操作。安装时只需使用pip install treq
命令即可。
相比Scrapy的Request/crawler.engine.download()
API,我们更加倾向于使用treq,因为它一样简单,并且有性能方面的优势。
我们先从一个把Item
写到ES服务器的爬虫开始。你可能会感觉把ES——而不是MySQL——作为一个持久化机制有一点不同寻常,但是这却是最容易做到的事情。ES是没有模式的,这就意味着我们可以不用配置就能使用。treq对简单的例子已经够用了,如果我们需要更加高级的ES功能,我们应该考虑下使用txes2和其他Python、Twisted包。
检查一下ES服务器是否已经运行:
$ curl http://es:9200
{
"name" : "Living Brain",
"cluster_name" : "elasticsearch",
"version" : { ... },
"tagline" : "You Know, for Search"
}
在机器上用浏览器访问http://localhost:9200也能得到相同的结果。如果访问http://localhost:9200/properties/property/_search,我们看到的结果会是ES尝试了一下但是没有找到与properties相关的索引。现在我们已经使用了ES的REST API。
在本章节中,我们会向properties这个集合中插入properties,如果你需要重置properties这个集合,可以使用curl和一个DELETE请求:
$ curl -XDELETE http://es:9200/properties
完整的pipeline实现代码会有很多额外的细节,例如更具扩展性的错误处理,但是在这时只是简单展示一下重点部分。完整的代码可以从这里找到。
从本质上来说,这个爬虫只包含下面四行代码:
@defer.inlineCallbacks
def process_item(self, item, spider):
data = json.dumps(dict(item), ensure_ascii=False).encode("utf-8")
yield treq.post(self.es_url, data)
前两行定义了一个标准的process_item()
方法,用于产生Deferred
对象。
第三行准备插入数据,首先把Item
转换成dict
,然后用json.dumps()
函数把它们转化成JSON格式。ensure_ascii=False
通过把非ASCII字符转义来使得输出更加紧凑。然后把这些JSON字符串编码成UTF-8的格式,这是根据JSON标准中的默认编码。
最后一行使用了treq中的post()
函数发起一个POST请求,请求在ES中插入我们的文档。es_url
,例如http://es:9200/properties/property被存储在settings.py
文件中(ES_PIPELINE_URL
设置项),它提供了我们的ES服务器的IP和端口信息(es:9200)、集合的名称(properties)和我们希望插入的对象类型(property)。
为了在爬虫中使用这个Pipeline,必须把它加入到settings.py
文件中的ITEM_PIPELINES
设置项中,并且初始化ES_PIPELINE_URL
设置项:
ITEM_PIPELINES = {
'properties.pipelines.tidyup.TidyUp': 100,
'properties.pipelines.es.EsWriter': 800,
}
ES_PIPELINE_URL = 'http://es:9200/properties/property'
做完这些之后,就可以转到工程目录来运行爬虫了:
$ scrapy crawl easy -s CLOSESPIDER_ITEMCOUNT=90
...
INFO: Enabled item pipelines: EsWriter...
INFO: Closing spider (closespider_itemcount)...
'item_scraped_count': 106,
如果现在再次访问http://localhost:9200/properties/property/_search,我们就能在响应的hits/total
域中看到插入的Item
的数目。也可以加上?size=100
来获得更多的结果。通过在搜索的URL中加上q=
参数,可以搜索指定的关键字或者只在特定域中搜索。相关性最高的结果会最先出现。例如,http://localhost:9200/properties/property/_search?
q=title:london会返回给我们标题中带有London
的结果。更复杂的查询可以参考ES的文档。
重新运行一下scrapy crawl easy -s CLOSESPIDER_ITEMCOUNT=1000
,平均时延从0.78s上升到了0.81s,这是由于在pipeline中的处理时延从0.12s上升到了0.15s。吞吐量依然保持在每秒25个Item
上下。
把
Item
插入到数据库中并不是一个好主意。通常情况下,数据库提供了数量级级别的批量插入数据的更有效的方法,我们应该使用这种方式。也就是说,我们应该皆是插入数据或者在爬虫的末尾作为一个后处理的阶段来执行插入行为。仍然有很多人使用Item Pipeline
来向数据库中插入数据,不过使用Twisted API而不是通常阻塞的API是实现这种方式的正确途径。
每个property都有各自的区域,我们想要对它们进行编码,也就是找出它们的坐标(经纬度)。我们可以通过使用这些坐标把每处房产放在地图上,或者根据它们的距离远近进行排序。实现这样的功能需要复杂的数据库、复杂的文本匹配以及复杂的空间计算。通过使用Google Geocoding API,我们可以避免重新独立地开发这些功能。度一下用浏览器打开或者使用curl从下面的URL中取得数据:
$ curl "https://maps.googleapis.com/maps/api/geocode/json?sensor=false&address=london"
{
"results" : [
...
"formatted_address" : "London, UK",
"geometry" : {
...
"location" : {
"lat" : 51.5073509,
"lng" : -0.1277583
},
"location_type" : "APPROXIMATE",
...
],
"status" : "OK"
}
可以看到返回的是一个JSON对象,如果我们在其中寻找location
项,就能找到Google认为的London中心的坐标。如果继续寻找,我们还能发现在这个对象中发现其他的location
。第一个结果是相关性最大的,所以,results[0].geometry.location
如果存在的话,就是我们需要的信息了。
使用treq也可以访问到Google Geocoding API,只需要几行代码,我们就可以找到一个地址的location
(参考pipelines目录中的geo.py文件):
@defer.inlineCallbacks
def geocode(self, address):
endpoint = 'http://web:9312/maps/api/geocode/json'
parms = [('address', address), ('sensor', 'false')]
response = yield treq.get(endpoint, params=parms)
content = yield response.json()
geo = content['results'][0]["geometry"]["location"]
defer.returnValue({"lat": geo["lat"], "lon": geo["lng"]})
这个函数先生成了一个和我们之前使用的很像的URL,但是现在指向了一个假的地址,为的是使执行更加快、在离线时也能使用以及更加可预料。你也可以使用endpoint ='https://maps.googleapis.com/maps/api/geocode/json'
来直接访问Google的服务器,但是要记住它们对请求有着严格的限制。treq的get()
方法中params
参数的address
和sensor
的值是URL编码的。treq.get()
返回了一个Deferred
对象,然后把它yield
,以便当响应到达时继续执行。第二个yield
是在response.json()
上面,以便等待响应完全被加载并被转换成Python对象。然后我们从第一个结果中寻找location
信息,把它格式化为dict
并使用defer.returnValue()
——一个在使用了inlineCallbacks
的方法中合适的返回值的方式——来返回结果。如果某处出错了,该方法会抛出异常并由Scrapy报告给我们。
通过使用geocode()
,process_item()
变成了如下的一行:
item["location"] = yield self.geocode(item["address"][0])
在ITEM_PIPELINES
设置项中把这个加进去,并给它一个比ES的pipeline小的数字,以便ES能够得到Item
中location
的值:
ITEM_PIPELINES = {
...
'properties.pipelines.geo.GeoPipeline': 400,
运行一下:
$ scrapy crawl easy -s CLOSESPIDER_ITEMCOUNT=90 -L DEBUG
...
{'address': [u'Greenwich, London'],
...
'image_urls': [u'http://web:9312/images/i06.jpg'],
'location': {'lat': 51.482577, 'lon': -0.007659},
'price': [1030.0],
...
现在可以看到在Item
中的location
域。如果现在用真正的Google Geocoding API,运行不久就会得到这样的异常:
File "pipelines/geo.py" in geocode (content['status'], address))
Exception: Unexpected status="OVER_QUERY_LIMIT" for address="*London"
这是在代码中的一个检查项,当返回的status
不是OK
时就会抛出异常。因为如果status
不是OK
的话,说明我们得到的数据有可能不是我们期望的格式,所以不能保证能使用。在这种例子中,我们得到的status
是OVER_QUERY_LIMIT
,意味着我们出现了某种错误。这是在很多情况下我们都会遇到的错误,由于Scrapy的高性能引擎,能够缓存并且限制对资源的请求是很必要的。
我们可以访问Geocoder API的文档来查找关于它的限制:”Users of the free API: 2500 requests per 24 hour period, 5 requests per second”。即使我们使用的是付费版,也要限制在每秒10个请求以内,所以上面的讨论还是很有价值的。
下面的实现看起来可以比较复杂,但是也要看跟什么比较。在一个多线程的环境中实现下面的功能需要线程池和同步,这样会导致更加复杂的代码。
这里是一个简单的并且已经足够好用户的限制引擎的实现代码,它使用了Twisted技术:
class Throttler(object):
"""
A simple throttler helps you limit the number of requests you make
to a limited resource
"""
def __init__(self, rate):
"""It will callback at most ```rate``` enqueued things per second"""
self.queue = []
self.looping_call = task.LoopingCall(self._allow_one)
self.looping_call.start(1. / float(rate))
def stop(self):
"""Stop the throttler"""
self.looping_call.stop()
def throttle(self):
"""
Call this function to get a deferred that will become available
in some point in the future in accordance with the throttling rate
"""
d = defer.Deferred()
self.queue.append(d)
return d
def _allow_one(self):
"""Makes deferred callbacks periodically"""
if self.queue:
self.queue.pop(0).callback(None)
这允许我们把Deferred
对象放到一个队列中,然后依次在_allow_one()
被调用的时候激活每个Deferred
对象;_allow_one()
函数检查队列是否为空,如果不是空的,它就会调用最老的一个Deferred
对象的callback()
函数。我们使用使用Twisted的task.LoopingCall()
API来周期性地调用_allow_one()
函数。Throttler
的使用很容易我们在Pipeline的__init__()
函数中对它进行初始化,并在爬虫结束的时候对它进行清理:
class GeoPipeline(object):
def __init__(self, stats):
self.throttler = Throttler(5) # 5 Requests per second
def close_spider(self, spider):
self.throttler.stop()
我们需要在正好访问限制的资源(即在process_item()
中调用geocode()
时)之前,yield Throttler
的throttle()
方法:
yield self.throttler.throttle()
item["location"] = yield self.geocode(item["address"][0])
在第一个yield
时,代码会先暂停并且在到了足够的时间之后继续执行。例如,如果此时有11个Deferred
对象,我们限制的速度是每秒5个请求,那么代码就会在11/5 = 2.2s后恢复执行。
使用了Throttler
,我们的程序就不会再出现上面的错误,但是爬虫会运行地很慢。不过可以观察到,示例中的房产只有几个不同的地址,这就是一个使用缓存的绝好机会。我们本可以使用一个简单的Python字典来实现这个功能,不过这样做可能会出现竞态条件,会导致API伪调用的发生。下面的例子不会出现这个问题,并且还展示了Python和Twisted一些有趣的特点:
class DeferredCache(object):
"""
A cache that always returns a value, an error or a deferred
"""
def __init__(self, key_not_found_callback):
"""Takes as an argument """
self.records = {}
self.deferreds_waiting = {}
self.key_not_found_callback = key_not_found_callback
@defer.inlineCallbacks
def find(self, key):
"""
This function either returns something directly from the cache or it
calls ```key_not_found_callback``` to evaluate a value and return it.
Uses deferreds to do this is a non-blocking manner.
"""
# This is the deferred for this call
rv = defer.Deferred()
if key in self.deferreds_waiting:
# We have other instances waiting for this key. Queue
self.deferreds_waiting[key].append(rv)
else:
# We are the only guy waiting for this key right now.
self.deferreds_waiting[key] = [rv]
if not key in self.records:
# If we don't have a value for this key we will evaluate it
# using key_not_found_callback.
try:
value = yield self.key_not_found_callback(key)
# If the evaluation succeeds then the action for this key
# is to call deferred's callback with value as an argument
# (using Python closures)
self.records[key] = lambda d: d.callback(value)
except Exception as e:
# If the evaluation fails with an exception then the
# action for this key is to call deferred's errback with
# the exception as an argument (Python closures again)
self.records[key] = lambda d: d.errback(e)
# At this point we have an action for this key in self.records
action = self.records[key]
# Note that due to ```yield key_not_found_callback```, many
# deferreds might have been added in deferreds_waiting[key] in
# the meanwhile
# For each of the deferreds waiting for this key....
for d in self.deferreds_waiting.pop(key):
# ...perform the action later from the reactor thread
reactor.callFromThread(action, d)
value = yield rv
defer.returnValue(value)
这个缓存看起来可能跟你期望的不太一样。它由两个部分组成:
self.deferreds_waiting
:这是一个等待给定key对应的值的Deferred
对象的队列self.records
:这是一个已经填充了key-action键值对的字典如果我们观察一下find()
的实现,就会发现如果没有在self.records
中找到给定的key,那么就会调用一个已经预先定义好的函数来获取该值(yield self.key_not_found_callback(key)
)。这个回调函数可能会抛出异常,我们该怎样把返回的值或者异常以一种紧凑的方式存储在一起呢?既然Python是一种函数式的语言,我们可以在self.records
中存储一些小的函数(lambda表达式),这些函数根据是否有异常的产生来分别调用Deferred
对象的callback
或者errback
方法。在定义lambda表达式的时候就把值或者异常与它关联到了一起,这种把变量和函数关联到一起叫做闭包,是大多数函数式编程语言最有特色及最强大的功能特性。
连异常也要缓存可能有点不同寻常,但是这样做的话,如果在你查找一个key的时候出现了一个异常,那么在接下来查找相同的key的时候就会直接抛出相同的异常,不需要再发起请求。
find()
函数的其余部分提供给我们一个防止竞态条件的机制。如果查找一个key已经在处理中,就会在self.deferreds_waiting dict
中记录一下。在这个例子中,我们没有直接再次调用key_not_found_callback()
,而是把请求加到等待处理那个key的Deferred
队列中。当key_not_found_callback()
返回的时候,就代表着这个key的值已经可用了,我们就可以激活等待这个key完成的每个Deferred
对象。我们本可以直接使用action(d)
而不是调用reactor.callFromThread()
,但是这样就需要我们自己来处理下游的异常,而且可能出现不必要的很长的Deferred
链。
使用这个缓存很容易,在Pipeline的__ioit__()
方法中对它初始化,并且设置回调函数。在process_item()
方法中,使用如下代码来查找缓存:
class GeoPipeline(object):
"""A pipeline that geocodes addresses using Google's API"""
@classmethod
def from_crawler(cls, crawler):
"""Create a new instance and pass it crawler's stats object"""
return cls(crawler.stats)
def __init__(self, stats):
"""Initialize empty cache and stats object"""
self.stats = stats
self.cache = DeferredCache(self.cache_key_not_found_callback)
self.throttler = Throttler(5) # 5 Requests per second
def close_spider(self, spider):
"""Stop the throttler"""
self.throttler.stop()
@defer.inlineCallbacks
def geocode(self, address):
"""
This method makes a call to Google's geocoding API. You shouldn't
call this more than 5 times per second
"""
# The url for this API
#endpoint = 'https://maps.googleapis.com/maps/api/geocode/json'
endpoint = 'http://web:9312/maps/api/geocode/json'
# Do the call
parms = [('address', address), ('sensor', 'false')]
response = yield treq.get(endpoint, params=parms)
# Decode the response as json
content = yield response.json()
# If the status isn't ok, return it as a string
if content['status'] != 'OK':
raise Exception('Unexpected status="%s" for address="%s"' %
(content['status'], address))
# Extract the address and geo-point and set item's fields
geo = content['results'][0]["geometry"]["location"]
# Return the final value
defer.returnValue({"lat": geo["lat"], "lon": geo["lng"]})
@defer.inlineCallbacks
def cache_key_not_found_callback(self, address):
"""
This method makes an API call while respecting throttling limits.
It also retries attempts that fail due to limits.
"""
self.stats.inc_value('geo_pipeline/misses')
while True:
# Wait enough to adhere to throttling policies
yield self.throttler.throttle()
# Do the API call
try:
value = yield self.geocode(address)
defer.returnValue(value)
# Success
break
except Exception, e:
if 'status="OVER_QUERY_LIMIT"' in str(e):
# Retry in this case
self.stats.inc_value('geo_pipeline/retries')
continue
# Propagate the rest
raise
@defer.inlineCallbacks
def process_item(self, item, spider):
"""
Pipeline's main method. Uses inlineCallbacks to do
asynchronous REST requests
"""
if "location" in item:
# Set by previous step (spider or pipeline). Don't do anything
# apart from increasing stats
self.stats.inc_value('geo_pipeline/already_set')
defer.returnValue(item)
return
# The item has to have the address field set
assert ("address" in item) and (len(item["address"]) > 0)
# Extract the address from the item.
try:
item["location"] = yield self.cache.find(item["address"][0])
except:
self.stats.inc_value('geo_pipeline/errors')
print traceback.format_exc()
# Return the item for the next stage
defer.returnValue(item)
加到settings.py
文件中的ITEMS_PIPELINES
:
ITEM_PIPELINES = {
'properties.pipelines.tidyup.TidyUp': 100,
'properties.pipelines.es.EsWriter': 800,
# DISABLE 'properties.pipelines.geo.GeoPipeline': 400,
'properties.pipelines.geo2.GeoPipeline': 400,
}
运行:
$ scrapy crawl easy -s CLOSESPIDER_ITEMCOUNT=1000
...
Scraped... 15.8 items/s, avg latency: 1.74 s and avg time in
pipelines: 0.94 s
Scraped... 32.2 items/s, avg latency: 1.76 s and avg time in
pipelines: 0.97 s
Scraped... 25.6 items/s, avg latency: 0.76 s and avg time in
pipelines: 0.14 s
...
: Dumping Scrapy stats:...
'geo_pipeline/misses': 35,
'item_scraped_count': 1019,
可以看到,刚开始启动时,爬虫的时延比较高,因为它要把数据填充到缓存中,不过然后时延就回到了之前的值。由最后的统计结果可以得知,有35次没有在缓存中得到数据,这也是在demo数据集中实际使用到的location数目。显然,有1019 - 35 = 984次缓存命中。如果我们使用真正的Google API,并且稍稍增加每秒请求的数目,比如,通过把Throttler(5)
改成Throttler(10)
,我们会在geo_pipeline/retries
中得到重试的记录。如果出现了错误,比如,API找不到一个location,那么就会抛出一个异常,会在geo_pipeline/errors
留下记录。如果Item
中的location
已经被设置过了,那么会在geo_pipeline/already_set
中显示出来。最后,检查一下ES中的房产记录,用浏览器打开http://localhost:9200/properties/property/_search,我们会看到有些条目中会有location的值,例如,{..."location": {"lat": 51.5269736, "lon": -0.0667204}...}
,正如我们所期望的那样。
既然我们已经有了位置信息,那么我们就能按照距离的远近来给搜索的结果排序。这是一个HTTPPOST请求,返回了在标题中有Angel
的房产,并按照离点{51.54, -0.19}
的距离来进行排序:
$ curl http://es:9200/properties/property/_search -d '{
"query" : {"term" : { "title" : "angel" } },
"sort": [{"_geo_distance": {
"location": {"lat": 51.54, "lon": -0.19},
"order": "asc",
"unit": "km",
"distance_type": "plane"
}}]}'
不过还有一个问题,如果现在运行的话,会出现这样的错误信息:”failed to find mapper for [location] for geo distance based sort”。这是说location
域没有合适的格式来进行空间操作。为了设置合适的类型,我们必须手动来覆盖默认值。首先,把自动检测出的映射保存到一个文件里:
$ curl 'http://es:9200/properties/_mapping/property' > property.txt
然后编辑property.txt
:
"location":{"properties":{"lat":{"type":"double"},"lon": {"type":"double"}}}
把这行代码换成下面的:
"location": {"type": "geo_point"}
再删除{"properties":{"mappings":
和文件末尾的两个}}
就完成了。删除旧的文件并以显式的模式创建一个新的文件:
$ curl -XDELETE 'http://es:9200/properties'
$ curl -XPUT 'http://es:9200/properties'
$ curl -XPUT 'http://es:9200/properties/_mapping/property' --data @property.txt
现在运行就可以得到以距离远近排序的结果。搜索结果返回JSON格式的数据,还有一个额外的sort
字段,显示的是以km为单位的离搜索点的距离。