JavaScript 是网络上最常用也是支持者最多的客户端脚本语言。它可以收集 用户的跟踪数据,不需要重载页面直接提交表单,在页面嵌入多媒体文件,甚至运行网页游戏。
我们可以在网页源代码的标签里看到,比如:
<script type="text/javascript" src="https://statics.huxiu.com/w/mini/static_2015/js/sea.js?v=201601150944"></script>
jQuery 是一个十分常见的库,70% 最流行的网站(约 200 万)和约 30% 的其他网站(约 2 亿)都在使用。一个网站使用 jQuery 的特征,就是源代码里包含了 jQuery 入口,比如:
<script type="text/javascript" src="https://statics.huxiu.com/w/mini/static_2015/js/jquery-1.11.1.min.js?v=201512181512"></script>
如果你在一个网站上看到了 jQuery,那么采集这个网站数据的时候要格外小心。jQuery 可 以动态地创建 HTML 内容,只有在 JavaScript 代码执行之后才会显示。如果你用传统的方 法采集页面内容,就只能获得 JavaScript 代码执行之前页面上的内容。
我们与网站服务器通信的唯一方式,就是发出 HTTP 请求获取新页面。如果提交表单之后,或从服务器获取信息之后,网站的页面不需要重新刷新,那么你访问的网站就在用Ajax 技术。
Ajax 其实并不是一门语言,而是用来完成网络任务(可以认为 它与网络数据采集差不多)的一系列技术。Ajax 全称是 Asynchronous JavaScript and XML(异步 JavaScript 和 XML),网站不需要使用单独的页面请求就可以和网络服务器进行交互 (收发信息)。
Ajax 一样,动态 HTML(Dynamic HTML, DHTML)也是一系列用于解决网络问题的 技术集合。DHTML 是用客户端语言改变页面的 HTML 元素(HTML、CSS,或者二者皆 被改变)。比如页面上的按钮只有当用户移动鼠标之后才出现,背景色可能每次点击都会改变,或者用一个 Ajax 请求触发页面加载一段新内容,网页是否属于DHTML,关键要看有没有用 JavaScript 控制 HTML 和 CSS 元素。
那么,如何搞定?
那些使用了 Ajax 或 DHTML 技术改变 / 加载内容的页面,可能有一些采集手段。但是用 Python 解决这个问题只有两种途径:
直接从 JavaScript 代码里采集内容(费时费力)
用 Python 的 第三方库运行 JavaScript,直接采集你在浏览器里看到的页面(这个可以有)。
Selenium是一个Web的自动化测试工具,最初是为网站自动化测试而开发的,类型像我们玩游戏用的按键精灵,可以按指定的命令自动操作,不同是Selenium 可以直接运行在浏览器上,它支持所有主流的浏览器(包括PhantomJS这些无界面的浏览器)。
Selenium 可以根据我们的指令,让浏览器自动加载页面,获取需要的数据,甚至页面截屏,或者判断网站上某些动作是否发生。
Selenium 自己不带浏览器,不支持浏览器的功能,它需要与第三方浏览器结合在一起才能使用。但是我们有时候需要让它内嵌在代码中运行,所以我们可以用一个叫 PhantomJS 的工具代替真实的浏览器。
可以从 PyPI 网站下载 Selenium库https://pypi.python.org/simple/selenium ,
也可以用 第三方管理器 pip用命令安装:sudo pip install selenium
Selenium 官方参考文档:http://selenium-python.readthedocs.io/index.html
在Chrome浏览器里输入"chrome://version",确定本机的Chrome浏览器的版本。
本机的Chrome版本为75.0.3770.142,下载地址中并无完全吻合的版本,最后下载了75.0.3770.142版本对应的亦可兼容本机。
chromedriver.exe的下载地址为 http://chromedriver.storage.googleapis.com/index.html
# 导入 webdriver
from selenium import webdriver
driver = webdriver.Chrome()
driver.get("https://www.baidu.com")
# 打印页面标题
print (driver.title)
# 关闭
driver.quit()
PhantomJS 是一个基于Webkit的“无界面”(headless)浏览器,它会把网站加载到内存并执行页面上的 JavaScript,因为不会展示图形界面,所以运行起来比完整的浏览器要高效。
如果我们把 Selenium 和 PhantomJS 结合在一起,就可以运行一个非常强大的网络爬虫了,这个爬虫可以处理 JavaScrip、Cookie、headers,以及任何我们真实用户需要做的事情。
PhantomJS 是一个功能完善(虽然无界面)的浏览器而非一个 Python 库,所以它不需要像 Python 的其他库一样安装,但我们可以通过Selenium调用PhantomJS来直接使用。
可以从官方网站http://phantomjs.org/download.html) 下载。
在Ubuntu16.04中可以使用命令安装:sudo apt-get install phantomjs
PhantomJS 官方参考文档:http://phantomjs.org/documentation
windows安装使用
下载地址:http://phantomjs.org/download.html
然后检测下,在cmd窗口输入phantomjs:
环境变量(python已加)
from selenium import webdriver
# 指定driver的绝对路径
driver = webdriver.PhantomJS()
# driver = webdriver.Chrome(executable_path='/home/worker/Desktop/driver/chromedriver')
# 向一个url发起请求
driver.get("http://www.baidu.cn/")
# 把网页保存为图片
driver.save_screenshot("baidu.png")
# 退出模拟浏览器
driver.quit() # 一定要退出!不退出会有残留进程!
注意:开发用有界面浏览器,发布用无界面浏览器
利用浏览器原生的API,封装成一套更加面向对象的Selenium WebDriver API,直接操作浏览器页面里的元素,甚至操作浏览器本身(截屏,窗口大小,启动,关闭,安装插件,配置证书之类的)
webdriver本质是一个web-server,对外提供webapi,其中封装了浏览器的各种功能
不同的浏览器使用各自不同的webdriver
import time
from selenium import webdriver
# 通过指定chromedriver的路径来实例化driver对象,chromedriver放在当前目录。
# driver = webdriver.Chrome(executable_path='./chromedriver')
# chromedriver已经添加环境变量
driver = webdriver.Chrome()
# 控制浏览器访问url地址
driver.get("https://www.baidu.com/")
# 在百度搜索框中搜索'python'
driver.find_element_by_id('kw').send_keys('python')
# 点击'百度搜索'
driver.find_element_by_id('su').click()
time.sleep(6)
# 退出浏览器
driver.quit()
webdriver.Chrome(executable_path=’./chromedriver’)中executable参数指定的是下载好的chromedriver文件的路径
driver.find_element_by_id(‘kw’).send_keys(‘python’)定位id属性值是’kw’的标签,并向其中输入字符串’python’
driver.find_element_by_id(‘su’).click()定位id属性值是su的标签,并点击
click函数作用是:触发标签的js的click事件
在使用selenium过程中,实例化driver对象后,driver对象有一些常用的属性和方法
driver.page_source 当前标签页浏览器渲染之后的网页源代码
driver.current_url 当前标签页的url
driver.close() 关闭当前标签页,如果只有一个标签页则关闭整个浏览器
driver.quit() 关闭浏览器
driver.forward() 页面前进
driver.back() 页面后退
driver.screen_shot(img_name) 页面截
在selenium中可以通过多种方式来定位标签,返回标签元素对象
find_element_by_id (返回一个元素)
find_element(s)_by_class_name (根据类名获取元素列表)
find_element(s)_by_name (根据标签的name属性值返回包含标签对象元素的列表)
find_element(s)_by_xpath (返回一个包含元素的列表)
find_element(s)_by_link_text (根据连接文本获取元素列表)
find_element(s)_by_partial_link_text (根据链接包含的文本获取元素列表)
find_element(s)_by_tag_name (根据标签名获取元素列表)
find_element(s)_by_css_selector (根据css选择器来获取元素列表)
注意:
find_element和find_elements的区别:
多了个s就返回列表,没有s就返回匹配到的第一个标签对象
find_element匹配不到就抛出异常,find_elements匹配不到就返回空列表
by_link_text和by_partial_link_tex的区别:全部文本和包含某个文本
以上函数的使用方法
driver.find_element_by_id(‘id_str’)
#coding:utf-8
from selenium import webdriver
# 1.创建浏览器对象
driver = webdriver.Chrome()
# 2.操作浏览器对象
driver.get('http://www.baidu.com')
# 2.定位元素
# driver.find_element_by_xpath('//*[@id="kw"]').send_keys('python37')
# driver.find_element_by_id('kw').send_keys('python37')
# driver.find_element_by_name('wd').send_keys('python37')
# 通过class属性值进行元素定位
# driver.find_element_by_class_name('s_ipt').send_keys('python37')
# driver.find_element_by_css_selector('#kw').send_keys('python37')
# driver.find_element_by_xpath('//*[@id="su"]').click()
# print(driver.find_element_by_tag_name('title'))
# 通过含有链接的完整文本内容进行元素定位 链接文本(链接和文本在同一个标签中)
# driver.find_element_by_link_text('hao12').click()
driver.find_element_by_partial_link_text('hao').click()
#coding:utf-8
from selenium import webdriver
# 1.创建浏览器对象
driver = webdriver.Chrome()
# 2.操作浏览器对象
driver.get('https://lfyanjiao.58.com/hezu/?PGTID=0d100000-0320-44c6-c018-2374633dc940&ClickID=2')
el_list = driver.find_elements_by_xpath('/html/body/div[5]/div/div[5]/div[2]/ul/li/div[2]/h2/a')
print(len(el_list))
print(el_list)
# for el in el_list:
# print(el.text,el.get_attribute('href'))
# el.send_keys(data), 该元素必须能够接受数据 input/text
# el.click() 该元素必须能够接受点击操作
find_element仅仅能够获取元素,不能够直接获取其中的数据,如果需要获取数据需要使用以下方法
对元素执行点击操作element.click()
对定位到的标签对象进行点击操作
向输入框输入数据element.send_keys(data)
对定位到的标签对象输入数据
获取文本element.text
通过定位获取的标签对象的text属性,获取文本内容
获取属性值element.get_attribute(“属性名”)
通过定位获取的标签对象的get_attribute函数,传入属性名,来获取属性的值
from selenium import webdriver
driver = webdriver.Chrome()
driver.get('http://www.itcast.cn/')
ret = driver.find_elements_by_tag_name('h2')
print(ret[0].text) #
ret = driver.find_elements_by_link_text('黑马程序员')
print(ret[0].get_attribute('href'))
driver.quit()
当selenium控制浏览器打开多个标签页时,如何控制浏览器在不同的标签页中进行切换呢?需要我们做以下两步:
获取所有标签页的窗口句柄
利用窗口句柄字切换到句柄指向的标签页
这里的窗口句柄是指:指向标签页对象的标识
关于句柄请课后了解更多,本小节不做展开
具体的方法
current_windows = driver.window_handles
driver.switch_to.window(current_windows[0])
参考代码示例:
import time
from selenium import webdriver
driver = webdriver.Chrome()
driver.get("https://www.baidu.com/")
time.sleep(1)
driver.find_element_by_id('kw').send_keys('python')
time.sleep(1)
driver.find_element_by_id('su').click()
time.sleep(1)
# 通过执行js来新开一个标签页
js = 'window.open("https://www.sogou.com");'
driver.execute_script(js)
time.sleep(1)
# 1. 获取当前所有的窗口
windows = driver.window_handles
time.sleep(2)
# 2. 根据窗口索引进行切换
driver.switch_to.window(windows[0])
time.sleep(2)
driver.switch_to.window(windows[1])
time.sleep(6)
driver.quit()
iframe是html中常用的一种技术,即一个页面中嵌套了另一个网页,selenium默认是访问不了frame中的内容的,对应的解决思路是driver.switch_to.frame(frame_element)。接下来我们通过qq邮箱模拟登陆来学习这个知识点
参考代码:
import time
from selenium import webdriver
driver = webdriver.Chrome()
url = 'https://mail.qq.com/cgi-bin/loginpage'
driver.get(url)
time.sleep(2)
login_frame = driver.find_element_by_id('login_frame') # 根据id定位 frame元素
driver.switch_to.frame(login_frame) # 转向到该frame中
driver.find_element_by_xpath('//*[@id="u"]').send_keys('[email protected]')
time.sleep(2)
driver.find_element_by_xpath('//*[@id="p"]').send_keys('hahamimashicuode')
time.sleep(2)
driver.find_element_by_xpath('//*[@id="login_button"]').click()
time.sleep(2)
"""操作frame外边的元素需要切换出去"""
windows = driver.window_handles
driver.switch_to.window(windows[0])
content = driver.find_element_by_class_name('login_pictures_title').text
print(content)
driver.quit()
总结:
切换到定位的frame标签嵌套的页面中
driver.switch_to.frame(通过find_element_by函数定位的frame、iframe标签对象)
利用切换标签页的方式切出frame标签
windows = driver.window_handles
driver.switch_to.window(windows[0])
selenium能够帮助我们处理页面中的cookie,比如获取、删除,接下来我们就学习这部分知识
3.1 获取cookie
driver.get_cookies()返回列表,其中包含的是完整的cookie信息!不光有name、value,还有domain等cookie其他维度的信息。所以如果想要把获取的cookie信息和requests模块配合使用的话,需要转换为name、value作为键值对的cookie字典
获取当前标签页的全部cookie信息
print(driver.get_cookies())
把cookie转化为字典
cookies_dict = {cookie[‘name’]: cookie[‘value’] for cookie in driver.get_cookies()}
3.2 删除cookie
删除一条cookie
driver.delete_cookie(“CookieName”)
删除所有的cookie
driver.delete_all_cookies()
selenium可以让浏览器执行我们规定的js代码,运行下列代码查看运行效果
#coding:utf-8
from selenium import webdriver
url = 'https://qd.lianjia.com/'
driver = webdriver.Chrome()
driver.get(url)
js = 'scrollTo(0,500)'
driver.execute_script(js)
driver.find_element_by_xpath('/html/body/div[2]/ul/li[1]/a/img').click()
执行js的方法:driver.execute_script(js)
页面在加载的过程中需要花费时间等待网站服务器的响应,在这个过程中标签元素有可能还没有加载出来,是不可见的,如何处理这种情况呢?
1.页面等待分类
2.强制等待介绍
3.显式等待介绍
4.隐式等待介绍
5.手动实现页面等待
5.1 页面等待的分类
首先我们就来了解以下selenium页面等待的分类
1.强制等待
2.隐式等待
3.显式等待
5.2 强制等待(了解)
其实就是time.sleep()
缺点时不智能,设置的时间太短,元素还没有加载出来;设置的时间太长,则会浪费时间
5.3 隐式等待
隐式等待针对的是元素定位,隐式等待设置了一个时间,在一段时间内判断元素是否定位成功,如果完成了,就进行下一步
在设置的时间内没有定位成功,则会报超时加载
示例代码
from selenium import webdriver
driver = webdriver.Chrome()
driver.implicitly_wait(10) # 隐式等待,最长等20秒
driver.get('https://www.baidu.com')
driver.find_element_by_xpath()
5.4 显式等待(了解)
每经过多少秒就查看一次等待条件是否达成,如果达成就停止等待,继续执行后续代码
如果没有达成就继续等待直到超过规定的时间后,报超时异常
示例代码
from selenium import webdriver
from selenium.webdriver.support.wait import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.common.by import By
driver = webdriver.Chrome()
driver.get('https://www.baidu.com')
显式等待
WebDriverWait(driver, 20, 0.5).until(
EC.presence_of_element_located((By.LINK_TEXT, '好123')))
# 参数20表示最长等待20秒
# 参数0.5表示0.5秒检查一次规定的标签是否存在
# EC.presence_of_element_located((By.LINK_TEXT, '好123')) 表示通过链接文本内容定位标签
# 每0.5秒一次检查,通过链接文本内容定位标签是否存在,如果存在就向下继续执行;如果不存在,直到20秒上限就抛出异常
print(driver.find_element_by_link_text('好123').get_attribute('href'))
driver.quit()
5.5 手动实现页面等待
在了解了隐式等待和显式等待以及强制等待后,我们发现并没有一种通用的方法来解决页面等待的问题,比如“页面需要滑动才能触发ajax异步加载”的场景,那么接下来我们就以淘宝网首页为例,手动实现页面等待
原理:
o利用强制等待和显式等待的思路来手动实现
o不停的判断或有次数限制的判断某一个标签对象是否加载完毕(是否存在)
实现代码如下:
import time
from selenium import webdriver
driver = webdriver.Chrome('/home/worker/Desktop/driver/chromedriver')
driver.get('https://www.taobao.com/')
time.sleep(1)
# i = 0
# while True:
for i in range(10):
i += 1
try:
time.sleep(3)
element = driver.find_element_by_xpath('//div[@class="shop-inner"]/h3[1]/a')
print(element.get_attribute('href'))
break
except:
js = 'window.scrollTo(0, {})'.format(i*500) # js语句
driver.execute_script(js) # 执行js的方法
driver.quit()
绝大多数服务器是没有界面的,selenium控制谷歌浏览器也是存在无界面模式的,这一小节我们就来学习如何开启无界面模式(又称之为无头模式)
开启无界面模式的方法
o实例化配置对象
options = webdriver.ChromeOptions()
o配置对象添加开启无界面模式的命令
options.add_argument("–headless")
o配置对象添加禁用gpu的命令
options.add_argument("–disable-gpu")
o实例化带有配置对象的driver对象
driver = webdriver.Chrome(chrome_options=options)
o注意:macos中chrome浏览器59+版本,Linux中57+版本才能使用无界面模式!
o参考代码如下:
from selenium import webdriver
options = webdriver.ChromeOptions() # 创建一个配置对象
options.add_argument("--headless") # 开启无界面模式
options.add_argument("--disable-gpu") # 禁用gpu
# options.set_headles() # 无界面模式的另外一种开启方式
driver = webdriver.Chrome(chrome_options=options) # 实例化带有配置的driver对象
driver.get('http://www.itcast.cn')
print(driver.title)
driver.quit()
selenium控制浏览器也是可以使用代理ip的!
o使用代理ip的方法
实例化配置对象
options = webdriver.ChromeOptions()
配置对象添加使用代理ip的命令
options.add_argument(’–proxy-server=http://202.20.16.82:9527’)
实例化带有配置对象的driver对象
driver = webdriver.Chrome(’./chromedriver’, chrome_options=options)
参考代码如下:
from selenium import webdriver
options = webdriver.ChromeOptions() # 创建一个配置对象
options.add_argument('--proxy-server=http://202.20.16.82:9527') # 使用代理ip
driver = webdriver.Chrome(chrome_options=options) # 实例化带有配置的driver对象
driver.get('http://www.itcast.cn')
print(driver.title)
driver.quit()
selenium控制谷歌浏览器时,User-Agent默认是谷歌浏览器的,这一小节我们就来学习使用不同的User-Agent
替换user-agent的方法
实例化配置对象
options = webdriver.ChromeOptions()
配置对象添加替换UA的命令
options.add_argument(’–user-agent=Mozilla/5.0 HAHA’)
实例化带有配置对象的driver对象
driver = webdriver.Chrome(’./chromedriver’, chrome_options=options)
参考代码如下:
from selenium import webdriver
options = webdriver.ChromeOptions() # 创建一个配置对象
options.add_argument('--user-agent=Mozilla/5.0 HAHA') # 替换User-Agent
driver = webdriver.Chrome('./chromedriver', chrome_options=options)
driver.get('http://www.itcast.cn')
print(driver.title)
driver.quit()
#coding:utf-8
from selenium import webdriver
import time
class Douyu(object):
def __init__(self):
self.url = 'https://www.douyu.com/directory/all'
self.driver = webdriver.Chrome()
def parse_data(self):
time.sleep(3)
room_list = self.driver.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li/div')
print(len(room_list))
data_list = []
# 遍历房间列表,从没一个房间节点中获取数据
for room in room_list:
temp = {}
#//*[@id="listAll"]/section[2]/div[2]/ul/li/div/a
temp['title'] = room.find_element_by_xpath('./a[1]/div[2]/div[1]/h3').text
temp['type'] = room.find_element_by_xpath('./a[1]/div[2]/div[1]/span').text
temp['owner'] = room.find_element_by_xpath('./a[1]/div[2]/div[2]/h2').text
temp['num'] = room.find_element_by_xpath('./a[1]/div[2]/div[2]/span').text
# temp['img'] = room.find_element_by_xpath('./a[1]/div[1]/div[1]/img').get_attribute('src')
data_list.append(temp)
return data_list
def save_data(self, data_list):
for data in data_list:
print(data)
def run(self):
# url
# driver
# get
self.driver.get(self.url)
while True:
# parse
data_list = self.parse_data()
# save
self.save_data(data_list)
# next
try:
el_next = self.driver.find_element_by_xpath('//*[contains(text(),"下一页")]')
self.driver.execute_script('scrollTo(0,1000000)')
el_next.click()
except:
break
if __name__ == '__main__':
douyu = Douyu()
douyu.run()