使用requests.get()和BeautifulSoup库爬取网页时返回内容与网页源代码不一致如何解决?

使用以下代码获取北京链家网首页(https://bj.lianjia.com/zufang/)HTML码,输出第一个房租信息相关代码,如下:

>>> import requests
>>> from bs4 import BeautifulSoup
>>> def getHTMLText(url):
	headers={'User-Agent':'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
	r=requests.get(url,headers=headers)
	r.encoding='utf-8'
	bs=BeautifulSoup(r.text,'lxml')
	print(bs.find_all('div',{'class':'content__list--item'})[0])

	
>>> url='https://bj.lianjia.com/zufang/'
>>> getHTMLText(url)
整租·北三环中路甲69号院 2室1厅 南/北

整租·北三环中路甲69号院 2室1厅 南/北

海淀-北太平庄 / 59㎡ /南 北 / 2室1厅1卫 / 低楼层 (5层)

链家

3天前发布

近地铁 精装 新上

6800 元/月
>>> r

然而,以上输出结果并不是第一个房租信息,也未在当前网页中出现,网页源代码也不包含以上返回信息,如下图: 

使用requests.get()和BeautifulSoup库爬取网页时返回内容与网页源代码不一致如何解决?_第1张图片

如果想得到与网页中信息一样的输出结果该怎么办呢?只需在header参数内加上cookies就行了,这样header字典内就有了两个元素。操作方法如下(参考爬虫时requests.get()响应状态码不是[200]怎么办?):

 使用requests.get()和BeautifulSoup库爬取网页时返回内容与网页源代码不一致如何解决?_第2张图片

>>> import requests
>>> from bs4 import BeautifulSoup
>>> def getHTMLText(url):
	headers={'User-Agent':'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36',
		 'Cookie':'lianjia_uuid=9d3277d3-58e4-440e-bade-5069cb5203a4; UM_distinctid=16ba37f7160390-05f17711c11c3e-454c0b2b-100200-16ba37f716618b; _smt_uid=5d176c66.5119839a; sensorsdata2015jssdkcross=%7B%22distinct_id%22%3A%2216ba37f7a942a6-0671dfdde0398a-454c0b2b-1049088-16ba37f7a95409%22%2C%22%24device_id%22%3A%2216ba37f7a942a6-0671dfdde0398a-454c0b2b-1049088-16ba37f7a95409%22%2C%22props%22%3A%7B%22%24latest_traffic_source_type%22%3A%22%E7%9B%B4%E6%8E%A5%E6%B5%81%E9%87%8F%22%2C%22%24latest_referrer%22%3A%22%22%2C%22%24latest_referrer_host%22%3A%22%22%2C%22%24latest_search_keyword%22%3A%22%E6%9C%AA%E5%8F%96%E5%88%B0%E5%80%BC_%E7%9B%B4%E6%8E%A5%E6%89%93%E5%BC%80%22%7D%7D; _ga=GA1.2.1772719071.1561816174; Hm_lvt_9152f8221cb6243a53c83b956842be8a=1561822858; _jzqa=1.2532744094467475000.1561816167.1561822858.1561870561.3; CNZZDATA1253477573=987273979-1561811144-%7C1561865554; CNZZDATA1254525948=879163647-1561815364-%7C1561869382; CNZZDATA1255633284=1986996647-1561812900-%7C1561866923; CNZZDATA1255604082=891570058-1561813905-%7C1561866148; _qzja=1.1577983579.1561816168942.1561822857520.1561870561449.1561870561449.1561870847908.0.0.0.7.3; select_city=110000; lianjia_ssid=4e1fa281-1ebf-e1c1-ac56-32b3ec83f7ca; srcid=eyJ0Ijoie1wiZGF0YVwiOlwiMzQ2MDU5ZTQ0OWY4N2RiOTE4NjQ5YmQ0ZGRlMDAyZmFhODZmNjI1ZDQyNWU0OGQ3MjE3Yzk5NzFiYTY4ODM4ZThiZDNhZjliNGU4ODM4M2M3ODZhNDNiNjM1NzMzNjQ4ODY3MWVhMWFmNzFjMDVmMDY4NWMyMTM3MjIxYjBmYzhkYWE1MzIyNzFlOGMyOWFiYmQwZjBjYjcyNmIwOWEwYTNlMTY2MDI1NjkyOTBkNjQ1ZDkwNGM5ZDhkYTIyODU0ZmQzZjhjODhlNGQ1NGRkZTA0ZTBlZDFiNmIxOTE2YmU1NTIxNzhhMGQ3Yzk0ZjQ4NDBlZWI0YjlhYzFiYmJlZjJlNDQ5MDdlNzcxMzAwMmM1ODBlZDJkNmIwZmY0NDAwYmQxNjNjZDlhNmJkNDk3NGMzOTQxNTdkYjZlMjJkYjAxYjIzNjdmYzhiNzMxZDA1MGJlNjBmNzQxMTZjNDIzNFwiLFwia2V5X2lkXCI6XCIxXCIsXCJzaWduXCI6XCIzMGJlNDJiN1wifSIsInIiOiJodHRwczovL2JqLmxpYW5qaWEuY29tL3p1ZmFuZy9yY28zMS8iLCJvcyI6IndlYiIsInYiOiIwLjEifQ=='
		 }
	r=requests.get(url,headers=headers)
	r.encoding='utf-8'
	bs=BeautifulSoup(r.text,'lxml')
	print(bs.find_all('div',{'class':'content__list--item'})[0])

	
>>> url='https://bj.lianjia.com/zufang/'
>>> getHTMLText(url)
整租·玉竹园小区一里 3室2厅 南/北

整租·玉竹园小区一里 3室2厅 南/北

房山-良乡 / 111㎡ /南 北 / 3室2厅3卫 / 地下室 (6层)

链家

3个月前发布

近地铁 集中供暖 随时看房

1600 元/月

 这样输出结果就与网页中一致了。

headers中加上其他的元素也可,只是这两个是必要的。

参考:requests.get为什么得到的内容和查看源文件不一样?

你可能感兴趣的:(使用requests.get()和BeautifulSoup库爬取网页时返回内容与网页源代码不一致如何解决?)