通过python封装关键词搜索1688商品列表数据API、1688商品列表API接口、1688API接口

1688商品详情接口是一种用于访问阿里巴巴旗下的批发市场平台上的商品列表信息的API接口。通过该接口,可以获取商品的详细信息,包括商品名称、规格、价格、描述、图片等。这些信息对于买家和卖家来说都非常重要,可以帮助他们更好地了解商品,做出更明智的购买决策。

跨境电商:1688商品详情接口还可以用于跨境电商。跨境电商卖家可以通过该接口获取海外卖家的商品信息,从而更好地了解海外市场需求,并进行市场调研。此外,跨境电商卖家还可以通过该接口获取买家的询盘和反馈,从而更好地了解买家需求,并改进产品。

通过python封装关键词搜索1688商品列表数据API、1688商品列表API接口、1688API接口_第1张图片

 以下是示例代码,需要通过调用POST请求,传入关键词和页码参数来获取数据:

1688.item_search-按关键字搜索1688商品列表数据

1.请求方式:HTTPS  POST GET

2.公共参数:

名称 类型 必须 描述
key String 调用key(必须以GET方式拼接在URL中,复制Taobaoapi2014)
secret String 调用密钥
api_name String API接口名称(包括在请求地址中)[item_search,item_get,item_search_shop等]
cache String [yes,no]默认yes,将调用缓存的数据,速度比较快
result_type String [json,jsonu,xml,serialize,var_export]返回数据格式,默认为json,jsonu输出的内容中文可以直接阅读
lang String [cn,en,ru]翻译语言,默认cn简体中文
version String API版本

 3.请求参数:

请求参数:q=女装&start_price=0&end_price=0&page=1&cat=0&discount_only=&sort=&page_size=40&seller_info=no&nick=&seller_info=&nick=&ppath=&imgid=&filter=

参数说明:q:搜索关键字
cat:分类ID
start_price:开始价格
end_price:结束价格
sort:排序[bid,_bid,_sale,_credit]
  (bid:总价,sale:销量,credit信用,加_前缀为从大到小排序)
page:页数  page_size:每页宝贝数量,默认40
filter:额外的过滤参数,如:filter=filtId:1,2,3,4;activityType:1,2,3,4;city:天津;quantityBegin:1000
filtId 过滤:48小时发货,7+天包换,赠运费险,免费赊账;
activityType 优惠类型:包邮,产地货源,伙拼,手机专享价
city 地区:地区名
quantityBegin 起订量:数字

4.请求示例,支持高并发(CURL、PHP 、PHPsdk 、Java 、C# 、Python...)

# coding:utf-8
"""
Compatible for python2.x and python3.x
requirement: pip install requests
"""
from __future__ import print_function
import requests
# 请求示例 url 默认请求参数已经做URL编码
url = "https://api-vx.Taobaoapi2014.cn/1688/item_search/?key=<您自己的apiKey>&secret=<您自己的apiSecret>&q=女装&start_price=0&end_price=0&page=1&cat=0&discount_only=&sort=&page_size=40&seller_info=no&nick=&seller_info=&nick=&ppath=&imgid=&filter="
headers = {
    "Accept-Encoding": "gzip",
    "Connection": "close"
}
if __name__ == "__main__":
    r = requests.get(url, headers=headers)
    json_obj = r.json()
    print(json_obj)

 5.响应示例(展示部分)

通过python封装关键词搜索1688商品列表数据API、1688商品列表API接口、1688API接口_第2张图片

 

你可能感兴趣的:(全球电商平台数据采集代码分享,爬虫,数据挖掘,大数据,数据分析,经验分享)