上次亚马逊的商品信息都获取到了,自然要看一下评论的部分。用户的评论能直观的反映当前商品值不值得购买,亚马逊的评分信息也能获取到做一个评分的权重。
亚马逊的评论区由用户ID,评分及评论标题,地区时间,评论正文这几个部分组成,本次获取的内容就是这些。
测试链接:https://www.amazon.it/product-reviews/B08GHGTGQ2/ref=cm_cr_arp_d_paging_btm_14?ie=UTF8&pageNumber=14&reviewerType=all_reviews&pageSize=10&sortBy=recent
首先打开开发者模式的Network,Clear清屏做一次请求:
你会发现在Doc中的get请求正好就有我们想要的评论信息。
可是真正的评论数据可不是全部都在这里的,页面往下翻,有个翻页的button:
点击翻页请求下一页,在Fetch/XHR选项卡中多了一个新的请求,刚才的Doc选项卡中并无新的get请求。这下发现了所有的评论信息是XHR类型的请求。
获取到post请求的链接和payload数据,里面含有控制翻页的参数,真正的评论请求已经找到了。
这一堆就是未处理的信息,这些请求未处理的信息里面,带有data-hook=\"review\"的就是带有评论的信息。分析完毕,下面开始一步一步去写请求。
首先拼凑请求所需的post参数,请求链接,以便之后的自动翻页,然后带参数post请求链接:
headers = {
'authority': 'www.amazon.it',
"accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,\*/\*;q=0.8,application/signed-exchange;v=b3;q=0.9",
"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/97.0.4692.71 Safari/537.36",
}
page = 1
post\_data = {
"sortBy": "recent",
"reviewerType": "all\_reviews",
"formatType": "",
"mediaType": "",
"filterByStar": "",
"filterByLanguage": "",
"filterByKeyword": "",
"shouldAppend": "undefined",
"deviceType": "desktop",
"canShowIntHeader": "undefined",
"pageSize": "10",
"asin": "B08GHGTGQ2",
}
# 翻页关键payload参数赋值
post\_data\["pageNumber"\] = page,
post\_data\["reftag"\] = f"cm\_cr\_getr\_d\_paging\_btm\_next\_{page}",
post\_data\["scope"\] = f"reviewsAjax{page}",
# 翻页链接赋值
spiderurl=f'https://www.amazon.it/hz/reviewsrender/ajax/reviews/get/ref=cm\_cr\_getr\_d\_paging\_btm\_next\_{page}'
res = requests.post(spiderurl,headers=headers,data=post\_data)
if res and res.status\_code == 200:
res = res.content.decode('utf-8')
print(res)
现在已经获取到了这一堆未处理的信息,接下来开始对这些数据进行处理。
上图的信息会发现,每一段的信息都由“&&&”进行分隔,而分隔之后的每一条信息都是由’“,”'分隔开的:
所以用python的split方法进行处理,把字符串分隔成list列表:
\# 返回值字符串处理
contents = res.split('&&&')
for content in contents:
infos = content.split('","')
由’“,”'分隔的数据通过split处理生成新的list列表,评论内容是列表的最后一个元素,去掉里面的"\“,”\n"和多余的符号,就可以通过css/xpath选择其进行处理了:
for content in contents:
infos = content.split('","')
info = infos\[-1\].replace('"\]','').replace('\\\\n','').replace('\\\\','')
# 评论内容判断
if 'data-hook="review"' in info:
sel = Selector(text=info)
data = {}
data\['username'\] = sel.xpath('//span\[@class="a-profile-name"\]/text()').extract\_first() #用户名
data\['point'\] = sel.xpath('//span\[@class="a-icon-alt"\]/text()').extract\_first() #评分
data\['date'\] = sel.xpath('//span\[@data-hook="review-date"\]/text()').extract\_first() #日期地址
data\['review'\] = sel.xpath('//span\[@data-hook="review-title"\]/span/text()').extract\_first() #评价标题
data\['detail'\] = sel.xpath('//span\[@data-hook="review-body"\]').extract\_first() #评价内容
image = sel.xpath('div\[@class="review-image-tile-section"\]').extract\_first()
data\['image'\] = image if image else "not image" #图片
print(data)
稳定的IP代理是你数据获取最有力的工具。目前国内还是无法稳定的访问亚马逊,会出现连接失败的情况。我这里使用的ipidea代理请求的意大利地区的亚马逊,可以通过账密和api获取代理,速度还是非常稳定的。
地址:http://www.ipidea.net/?utm-source=csdn&utm-keyword=?wb
下面的代理获取的方法:
\# api获取ip
def getApiIp(self):
# 获取且仅获取一个ip------意大利
api\_url = '获取代理地址'
res = requests.get(api\_url, timeout=5)
try:
if res.status\_code == 200:
api\_data = res.json()\['data'\]\[0\]
proxies = {
'http': 'http://{}:{}'.format(api\_data\['ip'\], api\_data\['port'\]),
'https': 'http://{}:{}'.format(api\_data\['ip'\], api\_data\['port'\]),
}
print(proxies)
return proxies
else:
print('获取失败')
except:
print('获取失败')
while循环进行翻页,评论最大页数是99页,99页之后就break跳出while循环:
def getPLPage(self):
while True:
# 翻页关键payload参数赋值
self.post\_data\["pageNumber"\]= self.page,
self.post\_data\["reftag"\] = f"cm\_cr\_getr\_d\_paging\_btm\_next\_{self.page}",
self.post\_data\["scope"\] = f"reviewsAjax{self.page}",
# 翻页链接赋值
spiderurl = f'https://www.amazon.it/hz/reviews-render/ajax/reviews/get/ref=cm\_cr\_getr\_d\_paging\_btm\_next\_{self.page}'
res = self.getRes(spiderurl,self.headers,'',self.post\_data,'POST',check)#自己封装的请求方法
if res:
res = res.content.decode('utf-8')
# 返回值字符串处理
contents = res.split('&&&')
for content in contents:
infos = content.split('","')
info = infos\[-1\].replace('"\]','').replace('\\\\n','').replace('\\\\','')
# 评论内容判断
if 'data-hook="review"' in info:
sel = Selector(text=info)
data = {}
data\['username'\] = sel.xpath('//span\[@class="a-profile-name"\]/text()').extract\_first() #用户名
data\['point'\] = sel.xpath('//span\[@class="a-icon-alt"\]/text()').extract\_first() #评分
data\['date'\] = sel.xpath('//span\[@data-hook="review-date"\]/text()').extract\_first() #日期地址
data\['review'\] = sel.xpath('//span\[@data-hook="review-title"\]/span/text()').extract\_first() #评价标题
data\['detail'\] = sel.xpath('//span\[@data-hook="review-body"\]').extract\_first() #评价内容
image = sel.xpath('div\[@class="review-image-tile-section"\]').extract\_first()
data\['image'\] = image if image else "not image" #图片
print(data)
if self.page <= 99:
print('Next Page')
self.page += 1
else:
break
最后的整合代码:
\# coding=utf-8
import requests
from scrapy import Selector
class getReview():
page = 1
headers = {
'authority': 'www.amazon.it',
"accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,\*/\*;q=0.8,application/signed-exchange;v=b3;q=0.9",
"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/97.0.4692.71 Safari/537.36",
}
post\_data = {
"sortBy": "recent",
"reviewerType": "all\_reviews",
"formatType": "",
"mediaType": "",
"filterByStar": "",
"filterByLanguage": "",
"filterByKeyword": "",
"shouldAppend": "undefined",
"deviceType": "desktop",
"canShowIntHeader": "undefined",
"pageSize": "10",
"asin": "B08GHGTGQ2",
#post\_data中asin参数目前写死在
#"https://www.amazon.it/product-reviews/B08GHGTGQ2?ie=UTF8&pageNumber=1&reviewerType=all\_reviews&pageSize=10&sortBy=recent"
#这个链接里,不排除asin值变化的可能,如要获取get请求即可
def getPLPage(self):
while True:
# 翻页关键payload参数赋值
self.post\_data\["pageNumber"\]= self.page,
self.post\_data\["reftag"\] = f"cm\_cr\_getr\_d\_paging\_btm\_next\_{self.page}",
self.post\_data\["scope"\] = f"reviewsAjax{self.page}",
# 翻页链接赋值
spiderurl = f'https://www.amazon.it/hz/reviews-render/ajax/reviews/get/ref=cm\_cr\_getr\_d\_paging\_btm\_next\_{self.page}'
res = self.getRes(spiderurl,self.headers,'',self.post\_data,'POST',check)#自己封装的请求方法
if res:
res = res.content.decode('utf-8')
# 返回值字符串处理
contents = res.split('&&&')
for content in contents:
infos = content.split('","')
info = infos\[-1\].replace('"\]','').replace('\\\\n','').replace('\\\\','')
# 评论内容判断
if 'data-hook="review"' in info:
sel = Selector(text=info)
data = {}
data\['username'\] = sel.xpath('//span\[@class="a-profile-name"\]/text()').extract\_first() #用户名
data\['point'\] = sel.xpath('//span\[@class="a-icon-alt"\]/text()').extract\_first() #评分
data\['date'\] = sel.xpath('//span\[@data-hook="review-date"\]/text()').extract\_first() #日期地址
data\['review'\] = sel.xpath('//span\[@data-hook="review-title"\]/span/text()').extract\_first() #评价标题
data\['detail'\] = sel.xpath('//span\[@data-hook="review-body"\]').extract\_first() #评价内容
image = sel.xpath('div\[@class="review-image-tile-section"\]').extract\_first()
data\['image'\] = image if image else "not image" #图片
print(data)
if self.page <= 99:
print('Next Page')
self.page += 1
else:
break
# api获取ip
def getApiIp(self):
# 获取且仅获取一个ip------意大利
api\_url = '获取代理地址'
res = requests.get(api\_url, timeout=5)
try:
if res.status\_code == 200:
api\_data = res.json()\['data'\]\[0\]
proxies = {
'http': 'http://{}:{}'.format(api\_data\['ip'\], api\_data\['port'\]),
'https': 'http://{}:{}'.format(api\_data\['ip'\], api\_data\['port'\]),
}
print(proxies)
return proxies
print('获取失败')
except:
print('获取失败')
#专门发送请求的方法,代理请求三次,三次失败返回错误
def getRes(self,url,headers,proxies,post\_data,method):
if proxies:
for i in range(3):
try:
# 传代理的post请求
if method == 'POST':
res = requests.post(url,headers=headers,data=post\_data,proxies=proxies)
# 传代理的get请求
else:
res = requests.get(url, headers=headers,proxies=proxies)
if res:
return res
except:
print(f'第{i+1}次请求出错')
else:
return None
else:
proxies = self.getApiIp()
# 请求代理的post请求
res = requests.post(url, headers=headers, data=post\_data, proxies=proxies)
# 请求代理的get请求
res = requests.get(url, headers=headers, proxies=proxies)
print(f"第{i+1}次请求出错")
if \_\_name\_\_ == '\_\_main\_\_':
getReview().getPLPage()
本次的亚马逊评论获取就是两个坑,一是评论信息通过的XHR请求方式,二是评论信息的处理。
分析之后这次的数据获取还是非常简单的,找到正确的请求方式,稳定的IP代理让你事半功倍,找到信息的共同点进行处理,问题就迎刃而解了。
学好 Python 不论是就业还是做副业赚钱都不错,但要学会 Python 还是要有一个学习规划。最后大家分享一份全套的 Python 学习资料,给那些想学习 Python 的小伙伴们一点帮助!
保存图片微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
② 路线对应学习视频
还有很多适合0基础入门的学习视频,有了这些视频,轻轻松松上手Python~在这里插入图片描述
③练习题
每节视频课后,都有对应的练习题哦,可以检验学习成果哈哈!
因篇幅有限,仅展示部分资料
当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
学习Python常用的开发软件都在这里了!每个都有详细的安装教程,保证你可以安装成功哦!
光学理论是没用的,要学会跟着一起敲代码,动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。100+实战案例源码等你来拿!
如果觉得上面的实战案例有点枯燥,可以试试自己用Python编写小游戏,让你的学习过程中增添一点趣味!
我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。
而且学会Python以后,还可以在各大兼职平台接单赚钱,各种兼职渠道+兼职注意事项+如何和客户沟通,我都整理成文档了。
这份完整版的Python全套学习资料已经上传CSDN,朋友们如果需要可以保存图片微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】