网站为了防止被爬取,会有反爬机制,对于同一个IP地址的大量同类型的访问,会封锁IP,过一段时间后,才能继续访问
有几种套路:
import requests
from lxml import etree
def get_text(url):
user_agent = 'Mozilla/5.0'
headers = {'User-Agent': user_agent}
res = requests.get(url, timeout=30, headers = headers)
res.raise_for_status()
res.encoding = res.apparent_encoding
text = res.text
return text
def get_ip(text):
tree = etree.HTML(text)
ip = tree.xpath('//*[@id="ip_list"]/tr')
return ip
if __name__ == '__main__':
url = 'https://www.xicidaili.com/'
text = get_text(url)
ip = get_ip(text)
for i in ip:
try:
print(i.xpath('./td/text()')[0])
print(i.xpath('./td/text()')[1])
except:
pass
from bs4 import BeautifulSoup
import requests
proxy_ip_list = []
def get_text(url):
user_agent = 'Mozilla/5.0'
headers = {'User-Agent': user_agent}
res = requests.get(url, timeout=30, headers = headers)
res.raise_for_status()
res.encoding = res.apparent_encoding
text = res.text
return text
def get_ip(text):
soup = BeautifulSoup(text, 'html.parser')
ip = soup.find_all('td')
return ip
if __name__ == '__main__':
url = 'https://www.xicidaili.com/'
text = get_text(url)
ip = get_ip(text)
for i in range(0, len(ip), 8):
proxy_ip_list.append('%s://%s:%s' % (ip[i + 5].text, ip[i + 1].text, ip[i + 2].text))
proxy_ip_list
['HTTP://113.194.28.11:9999',
'HTTP://113.195.168.115:48888',
'HTTP://118.113.247.115:9999',
'HTTP://60.167.112.236:1133',
'HTTP://101.132.190.101:80',
'HTTP://111.222.141.127:8118',
'HTTPS://117.88.177.101:3000',
'HTTP://183.166.136.144:8888',
'HTTP://27.208.231.100:8060',
'HTTP://123.169.99.177:9999',
'HTTP://119.84.84.185:12345',
'HTTPS://114.99.54.65:8118',
'HTTPS://119.4.13.26:1133',
'HTTP://58.253.158.177:9999',
'HTTP://114.223.208.165:8118',
'HTTP://112.84.73.53:9999',
'HTTP://221.237.37.137:8118',
'HTTPS://117.45.139.84:9006',
'HTTPS://171.35.86.72:8118',
'HTTP://49.235.246.24:8118',
'HTTP://112.95.205.138:8888',
'HTTP://14.115.105.104:808',
'HTTP://60.191.11.249:3128',
'HTTP://14.115.104.119:808',
'HTTPS://121.13.252.60:41564',
'HTTP://112.95.205.135:9000',
'HTTPS://125.123.139.19:9000',
'HTTP://218.27.204.240:8000',
'HTTPS://116.204.142.62:8080',
'HTTPS://60.191.11.229:3128',
'HTTP://163.125.71.198:9999',
'HTTP://14.115.107.232:808',
'HTTPS://113.78.255.93:9000',
'HTTPS://60.191.11.237:3128',
'HTTPS://58.255.38.156:9000',
'HTTP://163.125.71.195:8888',
'HTTP://123.163.24.113:3128',
'HTTP://222.240.184.126:8086',
'HTTPS://117.141.155.241:53281',
'HTTPS://218.22.7.62:53281',
'HTTPS://121.13.252.60:41564',
'HTTPS://125.123.139.19:9000',
'HTTPS://117.88.177.101:3000',
'HTTPS://116.204.142.62:8080',
'HTTPS://114.99.54.65:8118',
'HTTPS://60.191.11.229:3128',
'HTTPS://119.4.13.26:1133',
'HTTPS://113.78.255.93:9000',
'HTTPS://117.45.139.84:9006',
'HTTPS://60.191.11.237:3128',
'HTTPS://171.35.86.72:8118',
'HTTPS://58.255.38.156:9000',
'HTTPS://114.223.103.47:8118',
'HTTPS://117.141.155.241:53281',
'HTTPS://218.22.7.62:53281',
'HTTPS://14.153.52.10:3128',
'HTTPS://61.164.39.69:53281',
'HTTPS://113.65.163.199:9797',
'HTTPS://58.251.235.76:9797',
'HTTPS://183.166.103.164:9999',
'HTTP://112.95.205.138:8888',
'HTTP://14.115.105.104:808',
'HTTP://113.194.28.11:9999',
'HTTP://60.191.11.249:3128',
'HTTP://113.195.168.115:48888',
'HTTP://118.113.247.115:9999',
'HTTP://14.115.104.119:808',
'HTTP://112.95.205.135:9000',
'HTTP://60.167.112.236:1133',
'HTTP://218.27.204.240:8000',
'HTTP://101.132.190.101:80',
'HTTP://111.222.141.127:8118',
'HTTP://183.166.136.144:8888',
'HTTP://27.208.231.100:8060',
'HTTP://123.169.99.177:9999',
'HTTP://119.84.84.185:12345',
'HTTP://163.125.71.198:9999',
'HTTP://14.115.107.232:808',
'HTTP://58.253.158.177:9999',
'HTTP://114.223.208.165:8118',
'socks4/5://125.123.120.204:6672',
'socks4/5://117.69.244.68:6675',
'socks4/5://114.226.160.37:6668',
'socks4/5://113.124.92.218:6668',
'socks4/5://117.57.90.84:6666',
'socks4/5://120.83.105.227:6675',
'socks4/5://58.253.156.91:6675',
'socks4/5://120.83.111.155:6666',
'socks4/5://117.95.175.157:6666',
'socks4/5://120.83.104.222:6675',
'socks4/5://115.53.20.82:6675',
'socks4/5://121.63.198.84:6668',
'socks4/5://121.31.150.165:6666',
'socks4/5://121.31.193.132:6675',
'socks4/5://182.33.217.116:6666',
'socks4/5://117.69.98.216:6666',
'socks4/5://121.31.103.33:6666',
'socks4/5://113.121.245.231:6675',
'socks4/5://113.121.245.32:6667',
'socks4/5://218.73.130.59:6675']
def open_url_using_proxy(url, proxy):
user_agent = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.119 Safari/537.36'
headers = {'User-Agent': user_agent}
proxies = {}
if proxy.startswith('HTTPS'):
proxies['https'] = proxy
else:
proxies['http'] = proxy
try:
r = requests.get(url, headers = headers, proxies = proxies, timeout = 10)
r.raise_for_status()
r.encoding = r.apparent_encoding
return (r.text, r.status_code)
except:
print('无法访问网页' + url)
return False
url = 'http://www.baidu.com'
text = open_url_using_proxy(url, proxy_ip_list[0])
无法访问网页http://www.baidu.com
def check_proxy_avaliability(proxy):
url = 'http://www.baidu.com'
result = open_url_using_proxy(url, proxy)
VALID_PROXY = False
if result:
text, status_code = result
if status_code == 200:
print('有效代理IP: ' + proxy)
else:
print('无效代理IP: ' + proxy)
def check_proxy_avaliability(proxy):
url = 'http://www.baidu.com'
text, status_code = open_url_using_proxy(url, proxy)
VALID = False
if status_code == 200:
if r_title:
if r_title[0] == '百度一下,你就知道 ':
VALID = True
if VALID:
print('有效代理IP: ' + proxy)
else:
print('无效代理IP: ' + proxy)
from bs4 import BeautifulSoup
import requests
import re
import json
def open_proxy_url(url):
user_agent = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.119 Safari/537.36'
headers = {'User-Agent': user_agent}
try:
r = requests.get(url, headers = headers, timeout = 10)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
print('无法访问网页' + url)
def get_proxy_ip(response):
proxy_ip_list = []
soup = BeautifulSoup(response, 'html.parser')
proxy_ips = soup.find(id = 'ip_list').find_all('tr')
for proxy_ip in proxy_ips:
if len(proxy_ip.select('td')) >=8:
ip = proxy_ip.select('td')[1].text
port = proxy_ip.select('td')[2].text
protocol = proxy_ip.select('td')[5].text
if protocol in ('HTTP','HTTPS','http','https'):
proxy_ip_list.append(f'{protocol}://{ip}:{port}')
return proxy_ip_list
def open_url_using_proxy(url, proxy):
user_agent = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.119 Safari/537.36'
headers = {'User-Agent': user_agent}
proxies = {}
if proxy.startswith(('HTTPS','https')):
proxies['https'] = proxy
else:
proxies['http'] = proxy
try:
r = requests.get(url, headers = headers, proxies = proxies, timeout = 10)
r.raise_for_status()
r.encoding = r.apparent_encoding
return (r.text, r.status_code)
except:
print('无法访问网页' + url)
print('无效代理IP: ' + proxy)
return False
def check_proxy_avaliability(proxy):
url = 'http://www.baidu.com'
result = open_url_using_proxy(url, proxy)
VALID_PROXY = False
if result:
text, status_code = result
if status_code == 200:
r_title = re.findall('.* ', text)
if r_title:
if r_title[0] == '百度一下,你就知道 ':
VALID_PROXY = True
if VALID_PROXY:
check_ip_url = 'https://jsonip.com/'
try:
text, status_code = open_url_using_proxy(check_ip_url, proxy)
except:
return
print('有效代理IP: ' + proxy)
with open('valid_proxy_ip.txt','a') as f:
f.writelines(proxy)
try:
source_ip = json.loads(text).get('ip')
print(f'源IP地址为:{source_ip}')
print('='*40)
except:
print('返回的非json,无法解析')
print(text)
else:
print('无效代理IP: ' + proxy)
if __name__ == '__main__':
proxy_url = 'https://www.xicidaili.com/'
proxy_ip_filename = 'proxy_ip.txt'
text = open(proxy_ip_filename, 'r').read()
proxy_ip_list = get_proxy_ip(text)
for proxy in proxy_ip_list:
check_proxy_avaliability(proxy)
1、导入模块:
from selenium import webdriver # 启动浏览器需要用到
from selenium.webdriver.common.keys import Keys # 提供键盘按键支持(最后一个K要大写)
2、创建一个WebDriver实例:
driver = webdriver.Chrome("chromedriver驱动程序路径")
3、打开一个页面:
driver.get("http://www.python.org") # 这个时候chromedriver会打开一个Chrome浏览器窗口,显示的是网址所对应的页面
4、关闭页面
driver.close() # 关闭浏览器一个Tab
# ora
driver.quit() # 关闭浏览器窗口
element = driver.find_element_by_name("q")
element.send_keys(“some text”) # 往一个可以输入对象中输入“some text”
#甚至
element.send_keys(Keys.RETURN) # 模拟键盘回车
#一般来说,这种方式输入后会一直存在,而要清空某个文本框中的文字,就需要:
element.clear() # 清空element对象中的文字
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
driver = webdriver.Firefox()
driver.get("http://somedomain/url_that_delays_loading")
try:
element = WebDriverWait(driver, 10).until(
EC.presence_of_element_located((By.ID, "myDynamicElement")))
finally:
driver.quit()
#其中,presence_of_element_located是条件,By.ID是通过什么方式来确认元素(这个是通过id),"myDynamicElement"这个就是某个元素的ID
driver = webdriver.Firefox()
driver.implicitly_wait(10) # seconds
driver.get("http://somedomain/url_that_delays_loading")
myDynamicElement = driver.find_element_by_id("myDynami")
.html
的这种文件,直接部署到或者是放到某个 web 容器上,就可以在浏览器通过链接直接访问到了,常用的 web 容器有 Nginx 、 Apache 、 Tomcat 、Weblogic 、 Jboss 、 Resin 等等,很多很多。举个例子:https://desmonday.github.io/,就是静态网页的代表,这种网页的内容是通过纯粹的 HTML 代码来书写,包括一些资源文件:图片、视频等内容的引入都是使用 HTML 标签来完成的。它的好处当然是加载速度快,编写简单,访问的时候对 web 容器基本上不会产生什么压力。但是缺点也很明显,可维护性比较差,不能根据参数动态的显示内容等等。有需求就会有发展么,这时动态网页就应运而生了HTTP1.0的特点是无状态无链接的
无状态就是指 HTTP 协议对于请求的发送处理是没有记忆功能的,也就是说每次 HTTP 请求到达服务端,服务端都不知道当前的客户端(浏览器)到底是一个什么状态。客户端向服务端发送请求后,服务端处理这个请求,然后将内容响应回客户端,完成一次交互,这个过程是完全相互独立的,服务端不会记录前后的状态变化,也就是缺少状态记录。这就产生了上面的问题,服务端如何知道当前在浏览器面前操作的这个人是谁?其实,在用户做登录操作的时候,服务端会下发一个类似于 token 凭证的东西返回至客户端(浏览器),有了这个凭证,才能保持登录状态。那么这个凭证是什么?
Session 是会话的意思,会话是产生在服务端的,用来保存当前用户的会话信息,而 Cookies 是保存在客户端(浏览器),有了 Cookie 以后,客户端(浏览器)再次访问服务端的时候,会将这个 Cookie 带上,这时,服务端可以通过 Cookie 来识别本次请求到底是谁在访问。
可以简单理解为 Cookies 中保存了登录凭证,我们只要持有这个凭证,就可以在服务端保持一个登录状态。
在爬虫中,有时候遇到需要登录才能访问的网页,只需要在登录后获取了 Cookies ,在下次访问的时候将登录后获取到的 Cookies 放在请求头中,这时,服务端就会认为我们的爬虫是一个正常登录用户。
那么,Cookies 是如何保持会话状态的呢?
在客户端(浏览器)第一次请求服务端的时候,服务端会返回一个请求头中带有 Set-Cookie
字段的响应给客户端(浏览器),用来标记是哪一个用户,客户端(浏览器)会把这个 Cookies 给保存起来。
我们来使用工具 PostMan 来访问下某东的登录页,看下返回的响应头:
当我们输入好用户名和密码时,客户端会将这个 Cookies 放在请求头一起发送给服务端,这时,服务端就知道是谁在进行登录操作,并且可以判断这个人输入的用户名和密码对不对,如果输入正确,则在服务端的 Session 记录一下这个人已经登录成功了,下次再请求的时候这个人就是登录状态了。
如果客户端传给服务端的 Cookies 是无效的,或者这个 Cookies 根本不是由这个服务端下发的,或者这个 Cookies 已经过期了,那么接下里的请求将不再能访问需要登录后才能访问的页面。
所以, Session 和 Cookies 之间是需要相互配合的,一个在服务端,一个在客户端。
我们还是打开某东的网站,看下这些 Cookies到底有哪些内容:
](https://cdn.geekdigging.com/python-spider/jd-cookies.png)
具体操作方式还是在 Chrome 中按 F12 打开开发者工具,选择 Application 标签,点开 Cookies 这一栏。
那么有的网站为什么这次关闭了,下次打开的时候还是登录状态呢?
这就要说到 Cookie 的持久化了,其实也不能说是持久化,就是 Cookie 失效的时间设置的长一点,比如直接设置到 2099 年失效,这样,在浏览器关闭后,这个 Cookie 是会保存在我们的硬盘中的,下次打开浏览器,会再从我们的硬盘中将这个 Cookie 读取出来,用来维持用户的会话状态。
第二个问题产生了,服务端的会话也会无限的维持下去么,当然不会,这就要在 Cookie 和 Session 上做文章了, Cookie 中可以使用加密的方式将用户名记录下来,在下次将 Cookies 读取出来由请求发送到服务端后,服务端悄悄的自己创建一个用户已经登录的会话,这样我们在客户端看起来就好像这个登录会话是一直保持的。
当我们关闭浏览器的时候会自动销毁服务端的会话,这个是错误的,因为在关闭浏览器的时候,浏览器并不会额外的通知服务端说,我要关闭了,你把和我的会话销毁掉吧。
因为服务端的会话是保存在内存中的,虽然一个会话不会很大,但是架不住会话多啊,硬件毕竟是会有限制的,不能无限扩充下去的,所以在服务端设置会话的过期时间就非常有必要。
当然,有没有方式能让浏览器在关闭的时候同步的关闭服务端的会话,当然是可以的,我们可以通过脚本语言 JS 来监听浏览器关闭的动作,当浏览器触发关闭动作的时候,由 JS 像服务端发起一个请求来通知服务端销毁会话。
由于不同的浏览器对 JS 事件的实现机制不一致,不一定保证 JS 能监听到浏览器关闭的动作,所以现在常用的方式还是在服务端自己设置会话的过期时间
import time
from selenium import webdriver
from selenium.webdriver.common.by import By
"""
使用selenium进行模拟登陆
1.初始化ChromDriver
2.打开163登陆页面
3.找到用户名的输入框,输入用户名
4.找到密码框,输入密码
5.提交用户信息
"""
name = '*'
passwd = '*'
driver = webdriver.Chrome('./chromedriver')
driver.get('https://mail.163.com/')
# 将窗口调整最大
driver.maximize_window()
# 休息5s
time.sleep(5)
current_window_1 = driver.current_window_handle
print(current_window_1)
button = driver.find_element_by_id('lbNormal')
button.click()
driver.switch_to.frame(driver.find_element_by_xpath("//iframe[starts-with(@id, 'x-URS-iframe')]"))
email = driver.find_element_by_name('email')
#email = driver.find_element_by_xpath('//input[@name="email"]')
email.send_keys(name)
password = driver.find_element_by_name('password')
#password = driver.find_element_by_xpath("//input[@name='password']")
password.send_keys(passwd)
submit = driver.find_element_by_id("dologin")
time.sleep(15)
submit.click()
time.sleep(10)
print(driver.page_source)
driver.quit()