[Python爬虫]中国新说唱 Skr~ Skr~

登录https://music.163.com/ 网易云音乐搜索新说唱,打开Chrome的开发工具工具选择Network并重新加载页面,找到与评论数据相关的请求即name为

web?csrf_token=的POST请求,如下图所示

[Python爬虫]中国新说唱 Skr~ Skr~_第1张图片

查看该请求的headers我们发现formData包含了两个参数:params、encSecKey。显然这两个参数是经过js加密的,这就是网易云反爬虫的一种策略。如下图:

[Python爬虫]中国新说唱 Skr~ Skr~_第2张图片

我们再来看一下请求的Initiator有个core 2ab1b2b..js。因此我们需要分析一下这个js,找出formData加密的规则即可。

[Python爬虫]中国新说唱 Skr~ Skr~_第3张图片

将js文件进行格式化,全局搜索params或者encSecKey

640

params和encSecKey是从bSC8u这个对象中取的

k8c.cE9v({
  params: bSC8u.encText,
  encSecKey: bSC8u.encSecKey
})

而这个对象是由windows.asrsea() 这个方法获得的,定位到该方法。如下图所示:

[Python爬虫]中国新说唱 Skr~ Skr~_第4张图片

通过分析代码我们发现 d函数才是最终的出口。分析d函数:

1、通过 a(16) 函数生成一个长度为16的随机字符串

2、encText这个参数通过两次调用 b(a,b)  函数完成,这个函数的作用为AES加密

3、调用 c(i, e, f)得到encSecKey,这个函数的作用是进行RSA加密

AES加密

AES(Advanced Encryption Standard)对称加密算法是一种高级数据加密标准,是美国联邦政府采用的一种区块加密标准,可有效抵制针对DES的攻击算法。特点:密钥建立时间短、灵敏性好、内存需求低、安全性高。

RSA加密

RSA加密算法是一种非对称加密算法。在公开密钥加密和电子商业中RSA被广泛使用。到目前为止,世界上还没有任何可靠的攻击RSA算法的方式。只要其钥匙的长度足够长,用RSA加密的信息实际上是不能被解破的。

通过上面分析,除了 i 是一个随机字符串,我们只需要知道d、e、f、g这四个参数就可以构造请求进行后续操作了。接下来我们进行js断点调试。640?wx_fmt=other

经过多次调试,我们发现e、f、g这三个值是不变的,唯一改变的是d。再结合上文分析,encSecKey由函数c(i, e, f)得到的,那是不是就意味着encSeckey这个值时不变的呢?

然而,经过代码测试并不是这样,要保证encSecKey和params中的随机字符串(也就是i的值)是一样的才可以。

首先我们先实现函数a,即生成16位的随机字符

#生成随机长度为16的字符串的二进制编码
def random_b():
    seed = "1234567890abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ"
    sa = []
    for i in range(16):
        sa.append(random.choice(seed))
    salt = ''.join(sa)
    return bytes(salt, 'utf-8')
    # 更简单的做法
    # return bytes(''.join(random.sample('1234567890DeepDarkFantasy', 16)), 'utf-8')

其次来实现加密参数的生成(说白了就是翻译js代为为python代码)

#第二参数,rsa公匙组成
pub_key = "010001"
#第三参数,rsa公匙组成
modulus = "00e0b509f6259df8642dbc35662901477df22677ec152b5ff68ace615bb7b725152b3ab17a876aea8a5aa76d2e417629ec4ee341f56135fccf695280104e0312ecbda92557c93870114af6c9d05c4f7f0c3685b7a46bee255932575cce10b424d813cfe4875d3e82047b97ddef52741d546b8e289dc6935b3ece0462db0a22b8e7"
#第四参数,aes密匙
secret_key = b'0CoJUm6Qyw8W8jud'

"""
AES 加密
"""
def aes_encrypt(text, key):
    # 偏移量
    iv = b'0102030405060708'
    # 对长度不是16倍数的字符串进行补全,然后在转为bytes数据
    pad = 16 - len(text) % 16
    try:
        # 如果接到bytes数据(如第一次aes加密得到的密文)要解码再进行补全
        text = text.decode()
    except:
        pass
    text = text + pad * chr(pad)
    try:
        text = text.encode()
    except:
        pass
    encryptor = AES.new(key, AES.MODE_CBC, iv)
    ciphertext = encryptor.encrypt(text)
    ciphertext = base64.b64encode(ciphertext).decode('utf-8')  # 得到的密文还要进行base64编码
    return ciphertext


"""
RSA 加密
"""
def rsa_encrypt(random_char):
    text = random_char[::-1]#明文处理,反序并hex编码
    rsa = int(binascii.hexlify(text), 16) ** int(pub_key, 16) % int(modulus, 16)
    return format(rsa, 'x').zfill(256)

"""
构造params
"""
def aes_param(data):
    text = json.dumps(data)
    random_char = random_b()
    params = aes_encrypt(text, secret_key)#两次aes加密
    params = aes_encrypt(params, random_char)
    enc_sec_key = rsa_encrypt(random_char)
    data = {
        'params': params,
        'encSecKey': enc_sec_key
    }
    return data

最后参数构造完毕,就可以开始咱们的爬虫了

搜索歌曲的data为:

data = {"hlpretag": "",
        "hlposttag": "",
        "s": "中国新说唱",
        "type": "1",
        "offset": "0",
        "total": "true", #仅在页码为0时为true
        "limit": "30",
        "csrf_token": ""
       }

查询歌曲信息的data:

{
    "id": song_id,#歌曲id
    "lv": -1,
    "tv": -1,
    "csrf_token": ""
}

接下来就可以开始写爬虫了

https://music.163.com/weapi/cloudsearch/get/web?csrf_token= 这个请求里响应的

[Python爬虫]中国新说唱 Skr~ Skr~_第5张图片

歌词信息由 https://music.163.com/weapi/song/lyric?csrf_token=这个请求响应的

[Python爬虫]中国新说唱 Skr~ Skr~_第6张图片

ok!!! 万事俱备,开始Coding

"""
请求头
在这里不能将Referer固定写死
因为在搜索歌曲的时候请求的Referer为:https://music.163.com/search/
而查看歌词的时候请求的Referer为:'https://music.163.com/song?id=歌曲id
"""
headers = {
        'Connection': 'keep-alive',
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36',
        'Host': 'music.163.com',
        'Origin': 'https://music.163.com',
    }



"""
通过歌曲id爬歌词内容
"""
def find_song_word(song_id):
    referer = 'https://music.163.com/song?id=' + song_id
    headers['Referer'] = referer
    url = 'https://music.163.com/weapi/song/lyric?csrf_token='
    param = {"id": song_id, "lv": -1, "tv": -1, "csrf_token": ""}
    data = aes_param(param)
    result = requests.post(url, data=data, headers=headers)
    result = result.json()
    return result['lrc']['lyric']



# mongo服务
client = pymongo.MongoClient('mongodb://127.0.0.1:27017/')
# song数据库
db = client.song
# song_detail表,没有自动创建
detail_db = db.song_detail

if __name__ == '__main__':
    # 搜索歌曲url
    query_url = 'https://music.163.com/weapi/cloudsearch/get/web?csrf_token='
    data = {"hlpretag": "",
            "hlposttag": "",
            "s": "中国新说唱",
            "type": "1",
            "offset": "0",
            "total": "true",
            "limit": "30",
            "csrf_token": ""
            }
    data = aes_param(data)
    referer = 'https://music.163.com/search/'
    headers['Referer'] = referer
    result = requests.post(query_url, data=data, headers=headers)
    result = result.json()
    songs = result['result']['songs']
    for i in songs:
        songer = []
        # 歌曲id
        song_id = i['id']
        # 歌词
        song_content = find_song_word(str(song_id))
        # 歌曲名
        song_name = i['name']
        song_arr = i['ar']
        # 一首歌可能多人唱, 是个列表 需要遍历
        for k in song_arr:
            song_dict = {'id': k['id'], 'name': k['name']}
            songer.append(song_dict)
        # 存入mongodb
        detail_db.insert({'song_id': song_id, 'name': song_name, 'songer': songer, 'content': song_content})

运行之后查看数据库

[Python爬虫]中国新说唱 Skr~ Skr~_第7张图片

现在我们有了Rap歌手的id,从全网爬他们的说唱歌曲还不是so easy

推荐阅读:

人必有痴,而后有成

640?wx_fmt=jpeg

你可能感兴趣的:([Python爬虫]中国新说唱 Skr~ Skr~)