使用tweepy爬取twitter的数据遇到返回tweets的数量和速率的限制,解决方案

直接明了,解决方案如下:

 1. 如果使用tweepy库中发生返回tweet是数量限制时,可以利用max_id这个字段就可以解决,具体代码如下:

last_id=''
if last_id=='':
    public_tweets = api.user_timeline(screen_name=name, count=200)

    last_id=public_tweets[-1].id
else:
    public_tweets = api.user_timeline(screen_name=name, count=200, max_id=last_id)
    last_id=public_tweets[-1].id

for tweet in public_tweets:

.....

.....

......

解释:在你的代码调用user_timeline或者其他需要返回tweets的方法中,加上max_id,其中加了max_id,表示我想拿到不大于当前id的后面的200个tweets,就是200 个 一组取数据,当然前面可能得计算好总共的twitter的数量,不要超过了200的倍数,同样,查看tweepy的官方文档,你还会看到since_id,这是表示取当前id的tweet的前200个,和max_id相反,这里为什么是200,是因为需要返回tweet的最大的数量限制就是200.

2. 遇到爬取过程中的速率限制问题怎么办,一般都会遇到这个问题,开始我是加time.sleep(10),这样来解决这个问题,但是后来发现这样的做法很有问题,会影响爬取的速度和效率。具体解决方案如下:

api = tweepy.API(auth,wait_on_rate_limit=True)

在api的调用行时,加上wait_on_rate_limit=True, 这样就不会出现tweepy使用中的速率限制问题了,总体爬虫的速度还是挺快的。

 

你可能感兴趣的:(爬虫,python,机器学习)